JP2013123227A - Image processing system, device, method, and medical image diagnostic device - Google Patents

Image processing system, device, method, and medical image diagnostic device Download PDF

Info

Publication number
JP2013123227A
JP2013123227A JP2012281718A JP2012281718A JP2013123227A JP 2013123227 A JP2013123227 A JP 2013123227A JP 2012281718 A JP2012281718 A JP 2012281718A JP 2012281718 A JP2012281718 A JP 2012281718A JP 2013123227 A JP2013123227 A JP 2013123227A
Authority
JP
Japan
Prior art keywords
image
stereoscopic
rendering
volume data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012281718A
Other languages
Japanese (ja)
Other versions
JP5974238B2 (en
Inventor
Kazumasa Arakida
和正 荒木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2012281718A priority Critical patent/JP5974238B2/en
Publication of JP2013123227A publication Critical patent/JP2013123227A/en
Application granted granted Critical
Publication of JP5974238B2 publication Critical patent/JP5974238B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system, device, method and a medical image diagnostic device for enabling an observer to perform various types of operations on a stereoscopic image by sensory operation.SOLUTION: An image processing system according to an embodiment includes a stereoscopic display device, a determining unit, and a rendering processing unit. The stereoscopic display device displays a stereoscopic image that is capable of being viewed stereoscopically using parallax images generated from volume data as three-dimensional medical image data. The determining unit identifies positional variation of a predetermined moving substance in a stereoscopic image space as a space in which the stereoscopic image is displayed by the stereoscopic display device from positional variation of the moving substance in a real space in which a coordinate system of the stereoscopic image space is present, and determines an operation content on the stereoscopic image on the basis of the identified positional variation. The rendering processing unit performs rendering processing on the volume data in accordance with the operation content determined by the determining unit to generate parallax images newly.

Description

本発明の実施形態は、画像処理システム、装置、方法及び医用画像診断装置に関する。   Embodiments described herein relate generally to an image processing system, apparatus, method, and medical image diagnostic apparatus.

従来、2つの視点から撮影された2つの画像をモニタに表示することで、立体視用メガネ等の専用機器を用いた利用者にとって立体視可能な画像を表示する技術が知られている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された画像(例えば、9つの画像)をモニタに表示することで、裸眼の利用者にとっても立体視可能な画像を表示する技術が知られている。なお、立体視可能なモニタにて表示される複数の画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。   2. Description of the Related Art Conventionally, a technique for displaying a stereoscopically visible image for a user using a dedicated device such as stereoscopic glasses by displaying two images taken from two viewpoints on a monitor is known. In recent years, an image captured from a plurality of viewpoints (for example, nine images) is displayed on a monitor using a light controller such as a lenticular lens, so that an image that can be stereoscopically viewed by a naked-eye user can be obtained. A technique for displaying is known. Note that a plurality of images displayed on a stereoscopically visible monitor may be generated by estimating depth information of an image taken from one viewpoint and performing image processing using the estimated information.

一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。かかる医用画像診断装置は、ボリュームデータに対して種々の画像処理を実行することで表示用の平面画像を生成し、汎用モニタ上に表示する。例えば、医用画像診断装置は、ボリュームデータに対してボリュームレンダリング処理を実行することで、被検体についての3次元の情報が反映された2次元のレンダリング画像を生成し、生成したレンダリング画像を汎用モニタ上に表示する。   On the other hand, a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus is practically capable of generating three-dimensional medical image data (hereinafter referred to as volume data). It has become. Such a medical image diagnostic apparatus generates a planar image for display by executing various image processing on the volume data, and displays it on a general-purpose monitor. For example, the medical image diagnostic apparatus generates a two-dimensional rendering image in which three-dimensional information about the subject is reflected by performing volume rendering processing on the volume data, and the generated rendering image is displayed on the general-purpose monitor. Display above.

特開2005−86414号公報JP 2005-84414 A

本発明が解決しようとする課題は、立体視可能な画像に対して観察者が感覚的な操作で各種操作を行うことができる画像処理システム、装置、方法及び医用画像診断装置を提供することである。   The problem to be solved by the present invention is to provide an image processing system, an apparatus, a method, and a medical image diagnostic apparatus that allow an observer to perform various operations with a sensible operation on a stereoscopically viewable image. is there.

実施形態の画像処理システムは、立体表示装置と、判定部と、レンダリング処理部を備える。立体表示装置は、3次元の医用画像データであるボリュームデータから生成された視差画像群を用いて立体視可能な立体画像を表示する。判定部は、前記立体表示装置によって立体画像が表示されている空間である立体画像空間の座標系が存在する実空間における所定の移動物体の位置変動から前記立体画像空間における該移動物体の位置変動を識別し、識別した位置変動に基づいて前記立体画像に対する操作内容を判定する。レンダリング処理部は、前記判定部によって判定された操作内容に従って、前記ボリュームデータに対してレンダリング処理を行うことにより視差画像群を新たに生成する。   The image processing system according to the embodiment includes a stereoscopic display device, a determination unit, and a rendering processing unit. The stereoscopic display device displays a stereoscopically viewable stereoscopic image using a parallax image group generated from volume data that is three-dimensional medical image data. The determination unit is configured to change a position of the moving object in the three-dimensional image space from a position change of the predetermined moving object in a real space where a coordinate system of the three-dimensional image space, which is a space in which the three-dimensional image is displayed by the three-dimensional display device. And the operation content for the stereoscopic image is determined based on the identified position variation. The rendering processing unit newly generates a parallax image group by performing a rendering process on the volume data in accordance with the operation content determined by the determination unit.

図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment. 図2は、2視差画像により立体表示を行う立体表示モニタの一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. 図3は、9視差画像により立体表示を行う立体表示モニタの一例を説明するための図である。FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display with nine parallax images. 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. 図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. 図7は、第1の実施形態における画像処理システムによる処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of processing performed by the image processing system according to the first embodiment. 図8は、第1の実施形態における制御部の構成例を説明するための図である。FIG. 8 is a diagram for explaining a configuration example of a control unit in the first embodiment. 図9は、立体画像空間とボリュームデータ空間との対応関係の一例を示す図である。FIG. 9 is a diagram illustrating an example of a correspondence relationship between the stereoscopic image space and the volume data space. 図10は、第1の実施形態における制御部による処理の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of processing by the control unit in the first embodiment. 図11は、第1の実施形態における制御部による処理の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of processing by the control unit in the first embodiment. 図12は、第1の実施形態におけるワークステーションによる処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the flow of processing by the workstation in the first embodiment. 図13は、第1の実施形態の変形例を説明するための図である。FIG. 13 is a diagram for explaining a modification of the first embodiment. 図14は、第1の実施形態の変形例を説明するための図である。FIG. 14 is a diagram for explaining a modification of the first embodiment. 図15は、第1の実施形態の変形例を説明するための図である。FIG. 15 is a diagram for explaining a modification of the first embodiment.

以下、添付図面を参照して、画像処理システム、装置、方法及び医用画像診断装置の実施形態を詳細に説明する。なお、以下では、画像処理装置としての機能を有するワークステーションを含む画像処理システムを実施形態として説明する。ここで、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行うことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置とボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。   Hereinafter, embodiments of an image processing system, an apparatus, a method, and a medical image diagnostic apparatus will be described in detail with reference to the accompanying drawings. In the following, an image processing system including a workstation having a function as an image processing apparatus will be described as an embodiment. Here, the terms used in the following embodiments will be described. The “parallax image group” is an image generated by performing volume rendering processing by moving the viewpoint position by a predetermined parallax angle with respect to volume data. It is a group. That is, the “parallax image group” includes a plurality of “parallax images” having different “viewpoint positions”. The “parallax angle” is a predetermined position in the space represented by the volume data and an adjacent viewpoint position among the viewpoint positions set to generate the “parallax image group” (for example, the center of the space) It is an angle determined by. The “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor. The “9 parallax images” described below is a “parallax image group” composed of nine “parallax images”. The “two-parallax image” described below is a “parallax image group” composed of two “parallax images”.

(第1の実施形態)
まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
(First embodiment)
First, a configuration example of the image processing system according to the first embodiment will be described. FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.

図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a medical image diagnostic apparatus 110, an image storage apparatus 120, a workstation 130, and a terminal apparatus 140. Each apparatus illustrated in FIG. 1 is in a state where it can communicate with each other directly or indirectly by, for example, an in-hospital LAN (Local Area Network) 2 installed in a hospital. For example, when a PACS (Picture Archiving and Communication System) is introduced into the image processing system 1, each apparatus transmits and receives medical images and the like according to DICOM (Digital Imaging and Communications in Medicine) standards.

かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから視差画像群を生成し、この視差画像群を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師等の観察者に対して、かかる観察者が立体的に視認可能な画像である立体画像を提供する。具体的には、第1の実施形態において、ワークステーション130は、ボリュームデータに対して種々の画像処理を行い、視差画像群を生成する。また、ワークステーション130及び端末装置140は、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群をモニタに表示することで立体画像を利用者に表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。例えば、ワークステーション130や端末装置140は、画像保管装置120からボリュームデータや視差画像群を取得し、取得したボリュームデータや視差画像群に対して任意の画像処理を実行したり、視差画像群をモニタに表示したりする。以下、各装置を順に説明する。   The image processing system 1 generates a parallax image group from volume data that is three-dimensional medical image data generated by the medical image diagnostic apparatus 110, and displays the parallax image group on a stereoscopically viewable monitor. A stereoscopic image, which is an image that can be visually recognized by the observer, is provided to an observer such as a doctor or a laboratory technician working in the hospital. Specifically, in the first embodiment, the workstation 130 performs various image processes on the volume data to generate a parallax image group. In addition, the workstation 130 and the terminal device 140 have a stereoscopically visible monitor, and display a stereoscopic image to the user by displaying a parallax image group generated by the workstation 130 on the monitor. Further, the image storage device 120 stores the volume data generated by the medical image diagnostic device 110 and the parallax image group generated by the workstation 130. For example, the workstation 130 or the terminal device 140 acquires volume data or a parallax image group from the image storage device 120, executes arbitrary image processing on the acquired volume data or parallax image group, or selects a parallax image group. Or display on a monitor. Hereinafter, each device will be described in order.

医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。   The medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission computed Tomography). ) Apparatus, a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses. Further, the medical image diagnostic apparatus 110 according to the first embodiment can generate three-dimensional medical image data (volume data).

具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像データを再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像データを再構成する場合、この500枚のアキシャル面の医用画像データ群が、ボリュームデータとなる。なお、医用画像診断装置110により撮影された被検体の投影データやMR信号等自体をボリュームデータとしても良い。   Specifically, the medical image diagnostic apparatus 110 according to the first embodiment generates volume data by imaging a subject. For example, the medical image diagnostic apparatus 110 collects data such as projection data and MR signals by imaging the subject, and medical image data of a plurality of axial surfaces along the body axis direction of the subject from the collected data. By reconfiguring, volume data is generated. For example, when the medical image diagnostic apparatus 110 reconstructs 500 pieces of medical image data on the axial plane, the 500 pieces of medical image data groups on the axial plane become volume data. In addition, the projection data of the subject imaged by the medical image diagnostic apparatus 110, the MR signal, or the like may be used as volume data.

また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。   Further, the medical image diagnostic apparatus 110 according to the first embodiment transmits the generated volume data to the image storage apparatus 120. The medical image diagnostic apparatus 110 identifies, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and the medical image diagnostic apparatus 110 as supplementary information when transmitting volume data to the image storage apparatus 120. A device ID, a series ID for identifying one shot by the medical image diagnostic device 110, and the like are transmitted.

画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110からボリュームデータを受信し、受信したボリュームデータを所定の記憶部に保管する。また、第1の実施形態においては、ワークステーション130が、ボリュームデータから視差画像群を生成し、生成した視差画像群を画像保管装置120に送信する。このため、画像保管装置120は、ワークステーション130から送信された視差画像群を所定の記憶部に保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であってもよい。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であってもよい。   The image storage device 120 is a database that stores medical images. Specifically, the image storage device 120 according to the first embodiment receives volume data from the medical image diagnostic device 110 and stores the received volume data in a predetermined storage unit. In the first embodiment, the workstation 130 generates a parallax image group from the volume data, and transmits the generated parallax image group to the image storage device 120. For this reason, the image storage device 120 stores the parallax image group transmitted from the workstation 130 in a predetermined storage unit. In the present embodiment, the workstation 130 illustrated in FIG. 1 and the image storage device 120 may be integrated by using the workstation 130 that can store a large-capacity image. That is, this embodiment may be a case where volume data or a parallax image group is stored in the workstation 130 itself.

なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。このため、ワークステーション130や端末装置140は、患者ID、検査ID、装置ID、シリーズID等を用いた検索を行うことで、必要なボリュームデータや視差画像群を画像保管装置120から取得する。   In the first embodiment, the volume data and the parallax image group stored in the image storage device 120 are stored in association with the patient ID, examination ID, device ID, series ID, and the like. For this reason, the workstation 130 and the terminal device 140 acquire necessary volume data and a parallax image group from the image storage device 120 by performing a search using a patient ID, an examination ID, a device ID, a series ID, and the like.

ワークステーション130は、医用画像に対して画像処理を行う画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行うことで、視差画像群を生成する。   The workstation 130 is an image processing apparatus that performs image processing on medical images. Specifically, the workstation 130 according to the first embodiment generates a parallax image group by performing various rendering processes on the volume data acquired from the image storage device 120.

また、第1の実施形態に係るワークステーション130は、表示部として、立体画像を表示可能なモニタ(立体表示モニタ、立体画像表示装置とも称する)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な立体画像を確認しながら、視差画像群を生成するための操作を行うことができる。   Further, the workstation 130 according to the first embodiment includes a monitor (also referred to as a stereoscopic display monitor or a stereoscopic image display device) capable of displaying a stereoscopic image as a display unit. The workstation 130 generates a parallax image group and displays the generated parallax image group on the stereoscopic display monitor. As a result, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming the stereoscopically viewable stereoscopic image displayed on the stereoscopic display monitor.

また、ワークステーション130は、生成した視差画像群を画像保管装置120や端末装置140に送信する。なお、ワークステーション130は、画像保管装置120や端末装置140に視差画像群を送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466×350画素」)等がある。   Further, the workstation 130 transmits the generated parallax image group to the image storage device 120 and the terminal device 140. In addition, when transmitting the parallax image group to the image storage device 120 or the terminal device 140, the workstation 130 transmits, for example, a patient ID, an examination ID, a device ID, a series ID, and the like as supplementary information. The incidental information transmitted when transmitting the parallax image group to the image storage device 120 includes incidental information regarding the parallax image group. The incidental information regarding the parallax image group includes the number of parallax images (for example, “9”), the resolution of the parallax images (for example, “466 × 350 pixels”), and the like.

端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、画像保管装置120から視差画像群を取得し、取得した視差画像群を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。なお、端末装置140は、外部装置としての立体表示モニタと接続された任意の情報処理端末であってもよい。   The terminal device 140 is a device that allows a doctor or laboratory technician working in a hospital to view a medical image. For example, the terminal device 140 is a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or laboratory technician working in a hospital. Specifically, the terminal device 140 according to the first embodiment includes a stereoscopic display monitor as a display unit. In addition, the terminal device 140 acquires a parallax image group from the image storage device 120 and displays the acquired parallax image group on the stereoscopic display monitor. As a result, a doctor or laboratory technician who is an observer can view a medical image that can be viewed stereoscopically. Note that the terminal device 140 may be any information processing terminal connected to a stereoscopic display monitor as an external device.

ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。   Here, the stereoscopic display monitor included in the workstation 130 and the terminal device 140 will be described. A general-purpose monitor that is most popular at present displays a two-dimensional image in two dimensions, and cannot display a two-dimensional image in three dimensions. If an observer requests stereoscopic viewing on a general-purpose monitor, an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there. Alternatively, an apparatus that outputs an image to a general-purpose monitor, for example, uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.

一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。   On the other hand, as a stereoscopic display monitor, there is a stereoscopic display monitor that enables a stereoscopic view of a two-parallax image (also referred to as a binocular parallax image) by using dedicated equipment such as stereoscopic glasses.

図2は、2視差画像により立体表示を行う立体表示モニタの一例を説明するための図である。図2に示す一例は、シャッター方式により立体表示を行う立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2の(A)に示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2の(A)に示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。   FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. An example shown in FIG. 2 is a stereoscopic display monitor that performs stereoscopic display by a shutter method, and shutter glasses are used as stereoscopic glasses worn by an observer who observes the monitor. Such a stereoscopic display monitor emits two parallax images alternately on the monitor. For example, the monitor shown in FIG. 2A alternately emits a left-eye image and a right-eye image at 120 Hz. Here, as shown in FIG. 2A, the monitor is provided with an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing at which the image is switched.

また、赤外線出射部から出射された赤外線は、図2の(A)に示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。   Moreover, the infrared rays emitted from the infrared ray emitting portion are received by the infrared ray receiving portion of the shutter glasses shown in FIG. A shutter is attached to each of the left and right frames of the shutter glasses, and the shutter glasses alternately switch the transmission state and the light shielding state of the left and right shutters according to the timing when the infrared light receiving unit receives the infrared rays. Hereinafter, the switching process between the transmission state and the light shielding state in the shutter will be described.

各シャッターは、図2の(B)に示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶層を有する。また、入射側の偏光板と出射側の偏光板とは、図2の(B)に示すように、互いに直交している。ここで、図2の(B)に示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。   As shown in FIG. 2B, each shutter has an incident-side polarizing plate and an output-side polarizing plate, and a liquid crystal layer between the incident-side polarizing plate and the output-side polarizing plate. Have Further, as shown in FIG. 2B, the incident-side polarizing plate and the outgoing-side polarizing plate are orthogonal to each other. Here, as shown in FIG. 2B, in the “OFF” state where no voltage is applied, the light that has passed through the polarizing plate on the incident side is rotated by 90 ° by the action of the liquid crystal layer, and is emitted on the outgoing side. Is transmitted through the polarizing plate. That is, a shutter to which no voltage is applied is in a transmissive state.

一方、図2の(B)に示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。   On the other hand, as shown in FIG. 2B, in the “ON” state where a voltage is applied, the polarization rotation action caused by the liquid crystal molecules in the liquid crystal layer disappears. It will be blocked by the polarizing plate on the exit side. That is, the shutter to which the voltage is applied is in a light shielding state.

そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2の(A)に示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2に示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。   Therefore, for example, the infrared emitting unit emits infrared rays during a period in which an image for the left eye is displayed on the monitor. The infrared light receiving unit applies a voltage to the right-eye shutter without applying a voltage to the left-eye shutter during a period of receiving the infrared light. Accordingly, as shown in FIG. 2A, the right-eye shutter is in a light-shielding state and the left-eye shutter is in a transmissive state, so that an image for the left eye is incident on the left eye of the observer. On the other hand, the infrared ray emitting unit stops emitting infrared rays while the right-eye image is displayed on the monitor. The infrared light receiving unit applies a voltage to the left-eye shutter without applying a voltage to the right-eye shutter during a period in which no infrared light is received. Accordingly, the left-eye shutter is in a light-shielding state and the right-eye shutter is in a transmissive state, so that an image for the right eye is incident on the right eye of the observer. As described above, the stereoscopic display monitor illustrated in FIG. 2 displays an image that can be viewed stereoscopically by the observer by switching the image displayed on the monitor and the state of the shutter in conjunction with each other. As a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image, a monitor adopting a polarized glasses method is also known in addition to the shutter method described above.

更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。   Furthermore, as a stereoscopic display monitor that has been put into practical use in recent years, there is a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens. . Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.

図3は、9視差画像により立体表示を行う立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であってもよい。   FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display with nine parallax images. In the stereoscopic display monitor shown in FIG. 3, a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel. For example, in the stereoscopic display monitor shown in FIG. 3, a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller. In the example shown in FIG. 3, the vertical lenticular sheet 201 is pasted so that the convex portion of the vertical lenticular sheet 201 becomes the front surface, but the convex portion of the vertical lenticular sheet 201 is pasted so as to face the display surface 200. There may be.

表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。   As shown in FIG. 3, the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels, red (R), green (G), and blue (B), are arranged in the vertical direction. 202 are arranged in a matrix. The stereoscopic display monitor shown in FIG. 3 converts a nine-parallax image composed of nine images into an intermediate image arranged in a predetermined format (for example, a lattice shape), and then outputs it to the display surface 200. That is, the stereoscopic display monitor shown in FIG. 3 assigns and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202. The nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images with different viewpoint positions.

表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であってもよいし、「RGBRGB・・・」の縦ストライプ液晶である場合であってもよい。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であってもよいし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であってもよい。   The nine parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201. As the light of each pixel of the nine-parallax image is emitted in multiple directions, the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position). That is, the parallax angle between the parallax image incident on the right eye and the parallax image incident on the left eye differs depending on the viewing angle of the observer. Thereby, the observer can visually recognize the photographing object in three dimensions at each of the nine positions shown in FIG. 3, for example. In addition, for example, the observer can view the image three-dimensionally in a state of facing the object to be imaged at the position “5” shown in FIG. 3, and at each position other than “5” shown in FIG. It can be visually recognized in a three-dimensional manner with the direction of the object changed. Note that the stereoscopic display monitor shown in FIG. 3 is merely an example. As shown in FIG. 3, the stereoscopic display monitor that displays the nine-parallax image may be a horizontal stripe liquid crystal of “RRR..., GGG..., BBB. .. ”” May be used. Further, the stereoscopic display monitor shown in FIG. 3 may be a vertical lens system in which the lenticular sheet is vertical as shown in FIG. 3 or a diagonal lens system in which the lenticular sheet is oblique. There may be.

ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合にその適用が限られるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合にも、同様に適用される。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合にも、同様に適用される。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されてよい。   So far, the configuration example of the image processing system 1 according to the first embodiment has been briefly described. Note that the application of the image processing system 1 described above is not limited when PACS is introduced. For example, the image processing system 1 is similarly applied when an electronic medical chart system that manages an electronic medical chart to which a medical image is attached is introduced. In this case, the image storage device 120 is a database that stores electronic medical records. Further, for example, the image processing system 1 is similarly applied when a HIS (Hospital Information System) and a RIS (Radiology Information System) are introduced. The image processing system 1 is not limited to the configuration example described above. The functions and sharing of each device may be appropriately changed according to the operation mode.

次に、第1の実施形態に係るワークステーションの構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下において、「視差画像群」とは、ボリュームデータに対してボリュームレンダリング処理を行うことで生成された立体視用の画像群のことである。また、「視差画像」とは、「視差画像群」を構成する個々の画像のことである。すなわち、「視差画像群」は、視点位置が異なる複数の「視差画像」から構成される。   Next, a configuration example of the workstation according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. In the following description, the “parallax image group” refers to a group of stereoscopic images generated by performing volume rendering processing on volume data. Further, the “parallax image” is an individual image constituting the “parallax image group”. That is, the “parallax image group” includes a plurality of “parallax images” having different viewpoint positions.

第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136とを有する。なお、以下では、ワークステーション130が画像処理等に適した高性能なコンピュータである場合を用いて説明するが、これに限定されるものではなく、任意の情報処理装置であってよい。例えば、任意のパーソナルコンピュータであってもよい。   The workstation 130 according to the first embodiment is a high-performance computer suitable for image processing and the like, and as illustrated in FIG. 4, an input unit 131, a display unit 132, a communication unit 133, and a storage unit 134. And a control unit 135 and a rendering processing unit 136. In the following description, the workstation 130 is a high-performance computer suitable for image processing or the like. However, the present invention is not limited to this, and may be any information processing apparatus. For example, any personal computer may be used.

入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(以下、レンダリング条件)の入力を受け付ける。   The input unit 131 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the workstation 130 from an operator. Specifically, the input unit 131 according to the first embodiment receives input of information for acquiring volume data to be subjected to rendering processing from the image storage device 120. For example, the input unit 131 receives input of a patient ID, an examination ID, a device ID, a series ID, and the like. Further, the input unit 131 according to the first embodiment receives an input of a condition regarding rendering processing (hereinafter, rendering condition).

表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、視差画像群等を表示する。通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。   The display unit 132 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 132 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a parallax image group, and the like. The communication unit 133 is a NIC (Network Interface Card) or the like, and performs communication with other devices.

記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理により生成された視差画像群等を記憶する。   The storage unit 134 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 134 according to the first embodiment stores volume data acquired from the image storage device 120 via the communication unit 133. In addition, the storage unit 134 according to the first embodiment stores volume data during rendering processing, a group of parallax images generated by the rendering processing, and the like.

制御部135は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)やGPU(Graphics Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行う。   The control unit 135 is an electronic circuit such as a CPU (Central Processing Unit), MPU (Micro Processing Unit) or GPU (Graphics Processing Unit), or an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Yes, the entire control of the workstation 130 is performed.

例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行われるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。   For example, the control unit 135 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 132. For example, the control unit 135 controls transmission / reception of volume data and a parallax image group performed with the image storage device 120 via the communication unit 133. For example, the control unit 135 controls the rendering process performed by the rendering processing unit 136. For example, the control unit 135 controls reading of volume data from the storage unit 134 and storage of the parallax image group in the storage unit 134.

レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行い、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行う。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行い、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行う画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像を生成する処理のことである。レンダリング処理により生成される医用画像とは、例えば、視差画像が該当する。   The rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135, and generates a parallax image group. Specifically, the rendering processing unit 136 according to the first embodiment reads volume data from the storage unit 134 and first performs preprocessing on the volume data. Next, the rendering processing unit 136 performs a volume rendering process on the pre-processed volume data to generate a parallax image group. Subsequently, the rendering processing unit 136 generates a two-dimensional image in which various kinds of information (scale, patient name, examination item, etc.) are drawn, and superimposes it on each of the parallax image groups, thereby outputting 2 for output. Generate a dimensional image. Then, the rendering processing unit 136 stores the generated parallax image group and the output two-dimensional image in the storage unit 134. In the first embodiment, rendering processing refers to the entire image processing performed on volume data. Volume rendering processing refers to a two-dimensional image reflecting three-dimensional information in the rendering processing. It is a process to generate. For example, a parallax image corresponds to the medical image generated by the rendering process.

図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361が、ボリュームデータに対する前処理を行い、3次元画像処理部1362が、前処理後のボリュームデータから視差画像群を生成し、2次元画像処理部1363が、視差画像群に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。   FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. As illustrated in FIG. 5, the rendering processing unit 136 includes a preprocessing unit 1361, a 3D image processing unit 1362, and a 2D image processing unit 1363. The preprocessing unit 1361 performs preprocessing on the volume data, the 3D image processing unit 1362 generates a parallax image group from the preprocessed volume data, and the 2D image processing unit 1363 stores various information on the parallax image group. A two-dimensional image for output on which is superimposed is generated. Hereinafter, each part is demonstrated in order.

前処理部1361は、ボリュームデータに対してレンダリング処理を行う際に、種々の前処理を行う処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。   The preprocessing unit 1361 is a processing unit that performs various types of preprocessing when rendering processing is performed on volume data, and includes an image correction processing unit 1361a, a three-dimensional object fusion unit 1361e, and a three-dimensional object display area setting. Part 1361f.

画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行う処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET−CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行う。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行う。   The image correction processing unit 1361a is a processing unit that performs image correction processing when processing two types of volume data as one volume data, and as illustrated in FIG. 5, a distortion correction processing unit 1361b, a body motion correction processing unit, 1361c and an inter-image registration processing unit 1361d. For example, the image correction processing unit 1361a performs image correction processing when processing volume data of a PET image generated by a PET-CT apparatus and volume data of an X-ray CT image as one volume data. Alternatively, the image correction processing unit 1361a performs image correction processing when processing the volume data of the T1-weighted image and the volume data of the T2-weighted image generated by the MRI apparatus as one volume data.

また、歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行われた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行う。   In addition, the distortion correction processing unit 1361b corrects the data distortion caused by the collection conditions at the time of data collection by the medical image diagnostic apparatus 110 in each volume data. Further, the body motion correction processing unit 1361c corrects the movement caused by the body motion of the subject at the time of collecting the data used for generating the individual volume data. Further, the inter-image registration processing unit 1361d performs registration (Registration) using, for example, a cross-correlation method between the two volume data subjected to the correction processing by the distortion correction processing unit 1361b and the body motion correction processing unit 1361c. )I do.

3次元物体フュージョン部1361eは、画像間位置合わせ処理部1361dにより位置合わせが行われた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行う場合、省略される。   The three-dimensional object fusion unit 1361e fuses a plurality of volume data that has been aligned by the inter-image registration processing unit 1361d. Note that the processing of the image correction processing unit 1361a and the three-dimensional object fusion unit 1361e is omitted when rendering processing is performed on single volume data.

3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。   The three-dimensional object display region setting unit 1361f is a processing unit that sets a display region corresponding to the display target organ designated by the operator, and includes a segmentation processing unit 1361g. The segmentation processing unit 1361g is a processing unit that extracts organs such as the heart, lungs, and blood vessels designated by the operator by, for example, a region expansion method based on pixel values (voxel values) of volume data.

なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行わない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。   Note that the segmentation processing unit 1361g does not perform the segmentation process when the display target organ is not designated by the operator. The segmentation processing unit 1361g extracts a plurality of corresponding organs when a plurality of display target organs are designated by the operator. Further, the processing of the segmentation processing unit 1361g may be executed again in response to an operator fine adjustment request referring to the rendered image.

3次元画像処理部1362は、前処理部1361が処理を行った前処理後のボリュームデータに対してボリュームレンダリング処理を行う。ボリュームレンダリング処理を行う処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。   The three-dimensional image processing unit 1362 performs a volume rendering process on the pre-processed volume data processed by the pre-processing unit 1361. As a processing unit that performs volume rendering processing, a 3D image processing unit 1362 includes a projection method setting unit 1362a, a 3D geometric transformation processing unit 1362b, a 3D object appearance processing unit 1362f, and a 3D virtual space rendering unit 1362k. Have

投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。   The projection method setting unit 1362a determines a projection method for generating a parallax image group. For example, the projection method setting unit 1362a determines whether to execute the volume rendering process by the parallel projection method or the perspective projection method.

3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行う際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行う際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、視差画像群の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。   The three-dimensional geometric transformation processing unit 1362b is a processing unit that determines information for transforming volume data on which volume rendering processing is performed into a three-dimensional geometrical structure. A reduction processing unit 1362e is included. The translation processing unit 1362c is a processing unit that determines the amount of movement to translate the volume data when the viewpoint position when performing the volume rendering processing is translated, and the rotation processing unit 1362d performs the volume rendering processing. This is a processing unit that determines the amount of movement to rotate the volume data when the viewpoint position at the time of rotation is rotated. The enlargement / reduction processing unit 1362e is a processing unit that determines the enlargement rate or reduction rate of the volume data when enlargement or reduction of the parallax image group is requested.

3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される視差画像群の表示状態を決定する処理を行う。   The three-dimensional object appearance processing unit 1362f includes a three-dimensional object color processing unit 1362g, a three-dimensional object opacity processing unit 1362h, a three-dimensional object material processing unit 1362i, and a three-dimensional virtual space light source processing unit 1362j. The three-dimensional object appearance processing unit 1362f performs a process of determining the display state of the displayed parallax image group in response to an operator's request, for example.

3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、視差画像群において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、視差画像群において描出されないこととなる。   The three-dimensional object color processing unit 1362g is a processing unit that determines a color to be colored for each region segmented by the volume data. The three-dimensional object opacity processing unit 1362h is a processing unit that determines the opacity (Opacity) of each voxel constituting each region segmented by volume data. It should be noted that the area behind the area having the opacity of “100%” in the volume data is not drawn in the parallax image group. In addition, an area in which the opacity is “0%” in the volume data is not drawn in the parallax image group.

3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行う際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。   The three-dimensional object material processing unit 1362i is a processing unit that determines the material of each region segmented by volume data and adjusts the texture when the region is rendered. The three-dimensional virtual space light source processing unit 1362j is a processing unit that determines the position of the virtual light source installed in the three-dimensional virtual space and the type of the virtual light source when performing volume rendering processing on the volume data. Examples of the virtual light source include a light source that emits parallel rays from infinity, a light source that emits radial rays from a viewpoint, and the like.

3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行い、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行う際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。   The three-dimensional virtual space rendering unit 1362k performs volume rendering processing on the volume data to generate a parallax image group. The three-dimensional virtual space rendering unit 1362k performs various types of information determined by the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f as necessary when performing the volume rendering process. Is used.

ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行われることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置、視差角及び視差数」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「視差画像群の拡大」、「視差画像群の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、このレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行う。また、このとき、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。   Here, the volume rendering process by the three-dimensional virtual space rendering unit 1362k is performed according to the rendering conditions. For example, the rendering condition is “parallel projection method” or “perspective projection method”. For example, the rendering condition is “reference viewpoint position, parallax angle, and number of parallaxes”. Further, for example, the rendering conditions are “translation of viewpoint position”, “rotational movement of viewpoint position”, “enlargement of parallax image group”, and “reduction of parallax image group”. Further, for example, the rendering conditions are “color to be colored”, “transparency”, “texture”, “position of virtual light source”, and “type of virtual light source”. Such a rendering condition may be accepted from the operator via the input unit 131 or may be initially set. In any case, the three-dimensional virtual space rendering unit 1362k receives a rendering condition from the control unit 135, and performs volume rendering processing on the volume data according to the rendering condition. At this time, the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f determine various pieces of necessary information according to the rendering conditions, so the three-dimensional virtual space rendering unit 1362k. Generates a parallax image group using the determined various pieces of information.

図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6の「9視差画像生成方式(1)」に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。なお、平行投影法を行う場合、3次元仮想空間レンダリング部1362kは、視線方向に沿って無限遠から平行光線を照射する光源を設定する。   FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. For example, as shown in “9 parallax image generation method (1)” in FIG. 6, the three-dimensional virtual space rendering unit 1362k accepts the parallel projection method as a rendering condition, and further, the reference viewpoint position (5) and the parallax. Assume that the angle “1 degree” is received. In such a case, the three-dimensional virtual space rendering unit 1362k translates the position of the viewpoint from (1) to (9) so that the parallax angle is "1 degree", and the parallax angle (line of sight) is obtained by the parallel projection method. Nine parallax images with different degrees between directions are generated. When performing the parallel projection method, the three-dimensional virtual space rendering unit 1362k sets a light source that emits parallel rays from infinity along the line-of-sight direction.

或いは、3次元仮想空間レンダリング部1362kが、図6の「9視差画像生成方式(2)」に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、ボリュームデータの中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行う場合、3次元仮想空間レンダリング部1362kは、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。また、透視投影法を行う場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。   Alternatively, as shown in “9-parallax image generation method (2)” in FIG. 6, the three-dimensional virtual space rendering unit 1362k accepts a perspective projection method as a rendering condition, and further, the reference viewpoint position (5) and the parallax Assume that the angle “1 degree” is received. In such a case, the three-dimensional virtual space rendering unit 1362k rotates and moves the viewpoint position from (1) to (9) so that the parallax angle is every "1 degree" around the center (center of gravity) of the volume data. Thus, nine parallax images having different parallax angles by 1 degree are generated by the perspective projection method. When performing the perspective projection method, the three-dimensional virtual space rendering unit 1362k sets a point light source or a surface light source that radiates light three-dimensionally radially around the viewing direction at each viewpoint. Further, when the perspective projection method is performed, the viewpoints (1) to (9) may be translated depending on the rendering condition.

なお、3次元仮想空間レンダリング部1362kは、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行ってもよい。   Note that the three-dimensional virtual space rendering unit 1362k radiates light two-dimensionally radially around the line-of-sight direction with respect to the vertical direction of the displayed volume rendered image, and the horizontal direction of the displayed volume rendered image. On the other hand, volume rendering processing using both the parallel projection method and the perspective projection method may be performed by setting a light source that emits parallel light rays from infinity along the line-of-sight direction.

このようにして生成された9つの視差画像が、視差画像群である。第1の実施形態において、9つの視差画像は、例えば制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、立体表示モニタとしての表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行うことができる。   The nine parallax images generated in this way are a parallax image group. In the first embodiment, the nine parallax images are converted into intermediate images arranged in a predetermined format (for example, a lattice shape) by the control unit 135, for example, and are output to the display unit 132 as a stereoscopic display monitor. Then, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically viewable medical image displayed on the stereoscopic display monitor.

なお、図6の例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。   In the example of FIG. 6, the case where the projection method, the reference viewpoint position, and the parallax angle are received as the rendering conditions has been described. However, the three-dimensional virtual space is similarly applied when other conditions are received as the rendering conditions. The rendering unit 1362k generates a parallax image group while reflecting each rendering condition.

また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、断面再構成法(MPR:Multi Planer Reconstruction)を行ってボリュームデータからMPR画像を再構成する機能も有する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行う機能や、「Intensity Projection」を行う機能も有する。   The three-dimensional virtual space rendering unit 1362k has not only volume rendering but also a function of reconstructing an MPR image from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction). The three-dimensional virtual space rendering unit 1362k also has a function of performing “Curved MPR” and a function of performing “Intensity Projection”.

続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行うことで、出力用の2次元画像を生成する処理部であり、図5に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、9枚の視差画像(アンダーレイ)のそれぞれに対して1枚のオーバーレイを重畳することで、出力用の2次元画像を9枚、生成する。なお、以下では、オーバーレイが重畳されたアンダーレイを単に「視差画像」と表記する場合もある。   Subsequently, the parallax image group generated from the volume data by the three-dimensional image processing unit 1362 is set as an underlay. Then, an overlay (Overlay) on which various types of information (scale, patient name, examination item, etc.) are drawn is superimposed on the underlay, thereby obtaining a two-dimensional image for output. The two-dimensional image processing unit 1363 is a processing unit that generates an output two-dimensional image by performing image processing on the overlay and the underlay. As illustrated in FIG. 5, the two-dimensional object drawing unit 1363a, A two-dimensional geometric transformation processing unit 1363b and a luminance adjustment unit 1363c are included. For example, the two-dimensional image processing unit 1363 superimposes one overlay on each of nine parallax images (underlays) in order to reduce the load required to generate a two-dimensional image for output. Thus, nine output two-dimensional images are generated. In the following, an underlay with an overlay superimposed may be simply referred to as a “parallax image”.

2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。   The two-dimensional object drawing unit 1363a is a processing unit that draws various information drawn on the overlay, and the two-dimensional geometric transformation processing unit 1363b performs parallel movement processing or rotational movement processing on the position of the various information drawn on the overlay. Or a processing unit that performs an enlargement process or a reduction process of various types of information drawn on the overlay.

また、輝度調整部1363cは、輝度変換処理を行う処理部であり、例えば、出力先の立体表示モニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。   The luminance adjustment unit 1363c is a processing unit that performs luminance conversion processing. For example, the gradation of an output destination stereoscopic display monitor, an image such as a window width (WW: Window Width), a window level (WL: Window Level), or the like. This is a processing unit that adjusts the brightness of the overlay and the underlay according to the processing parameters.

制御部135は、例えば、このようにして生成された出力用の2次元画像を、一旦記憶部134に格納し、その後、通信部133を介して画像保管装置120に送信する。そして、端末装置140は、例えば、画像保管装置120からこの出力用の2次元画像を取得し、所定フォーマット(例えば格子状)に配置した中間画像に変換した上で立体表示モニタに表示する。また、例えば、制御部135は、出力用の2次元画像を、一旦記憶部134に格納し、その後、通信部133を介して画像保管装置120に送信するとともに、端末装置140に送信する。そして、端末装置140は、ワークステーション130から受信した出力用の2次元画像を所定フォーマット(例えば格子状)に配置した中間画像に変換した上で立体表示モニタに表示する。これにより、端末装置140を利用する医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。   For example, the control unit 135 temporarily stores the output two-dimensional image generated in this manner in the storage unit 134 and then transmits the two-dimensional image to the image storage device 120 via the communication unit 133. Then, for example, the terminal device 140 acquires the two-dimensional image for output from the image storage device 120, converts it into an intermediate image arranged in a predetermined format (for example, a lattice shape), and displays it on the stereoscopic display monitor. For example, the control unit 135 temporarily stores the output two-dimensional image in the storage unit 134, and then transmits the output two-dimensional image to the image storage device 120 and the terminal device 140 via the communication unit 133. Then, the terminal device 140 converts the output two-dimensional image received from the workstation 130 into an intermediate image arranged in a predetermined format (for example, a lattice shape) and displays the converted image on the stereoscopic display monitor. Accordingly, a doctor or a laboratory technician who uses the terminal device 140 can browse a stereoscopically viewable medical image in a state where various information (scale, patient name, examination item, etc.) is drawn.

このように、上述してきた立体表示モニタは、視差画像群を表示することにより、観察者が立体視可能な立体画像を提供する。このとき、観察者は、マウス等のポインティングデバイスを用いて、立体画像に対して各種操作を行う場合がある。例えば、観察者は、ポインティングデバイスを操作することにより、カーソルを移動させて、立体画像に関心領域(ROI:Region Of Interest)を設定し、設定したROIの断面画像を表示させるための操作を行ったりする。しかし、マウス等によって操作可能なカーソルは、立体画像が表示されている3次元空間(以下、「立体画像空間」と表記する場合がある)で3次元に移動するので、観察者にとっては奥行き方向におけるカーソルの位置を把握しにくい。すなわち、観察者は、マウス等を用いた場合には、立体画像に関心領域を設定する等の各種操作を行うことが困難となることがある。   As described above, the stereoscopic display monitor described above provides a stereoscopic image that can be viewed stereoscopically by the observer by displaying a parallax image group. At this time, the observer may perform various operations on the stereoscopic image using a pointing device such as a mouse. For example, the observer operates the pointing device to move the cursor, set a region of interest (ROI) in the stereoscopic image, and perform an operation to display a cross-sectional image of the set ROI. Or However, a cursor that can be operated with a mouse or the like moves in a three-dimensional space in which a stereoscopic image is displayed (hereinafter sometimes referred to as “stereoscopic image space”). It is difficult to grasp the cursor position in. That is, when a mouse or the like is used, it may be difficult for an observer to perform various operations such as setting a region of interest in a stereoscopic image.

そこで、第1の実施形態では、観察者が立体画像に手で直接触れる感覚で立体画像に対する各種操作を行うことを可能にする。この点について、図7を用いて簡単に説明する。図7は、第1の実施形態における画像処理システム1による処理の一例を説明するための図である。なお、以下では、立体画像への直接操作をワークステーション130によって実現する場合を例に挙げて説明する。   Therefore, in the first embodiment, it is possible to perform various operations on a stereoscopic image as if an observer directly touched the stereoscopic image with a hand. This point will be briefly described with reference to FIG. FIG. 7 is a diagram for explaining an example of processing by the image processing system 1 in the first embodiment. In the following description, a case where direct operation on a stereoscopic image is realized by the workstation 130 will be described as an example.

図7に示した例において、表示部132は、上記の通り、ワークステーション130が有する立体表示モニタである。第1の実施形態における表示部132は、図7に示すように、被検体の臓器等を示す立体画像I11を表示するとともに、観察者が立体画像I11に対して各種操作を行うことが可能な領域である操作可能領域SP10を示す枠線を表示する。これにより、観察者は、操作可能領域SP10において、立体画像I11に対して各種操作を行うことが可能であることを認識することができる。また、表示部132は、図7に示すように、カメラ137が設置される。かかるカメラ137は、3次元空間を立体的に認識することができる3次元カメラ(3Dカメラ)であり、操作可能領域SP10内における観察者の手U11の位置変動を認識する。   In the example illustrated in FIG. 7, the display unit 132 is a stereoscopic display monitor included in the workstation 130 as described above. As shown in FIG. 7, the display unit 132 in the first embodiment displays a stereoscopic image I11 that shows an organ or the like of a subject, and an observer can perform various operations on the stereoscopic image I11. A frame line indicating the operable area SP10 which is an area is displayed. Thus, the observer can recognize that various operations can be performed on the stereoscopic image I11 in the operable region SP10. Further, as shown in FIG. 7, the display unit 132 is provided with a camera 137. Such a camera 137 is a three-dimensional camera (3D camera) that can three-dimensionally recognize a three-dimensional space, and recognizes a positional variation of the observer's hand U11 within the operable region SP10.

このような構成の下、第1の実施形態におけるワークステーション130は、操作可能領域SP10内に手U11が位置する場合に、カメラ137によって手U11の位置変動を検知する。そして、ワークステーション130は、カメラ137によって検知された手U11の位置変動に基づいて、立体画像I11に対する操作内容を判定する。そして、ワークステーション130は、判定した操作内容に従って、ボリュームデータに対してレンダリング処理を行うことにより視差画像群を新たに生成し、生成した視差画像群を表示部132に表示する。このように、ワークステーション130は、操作可能領域SP10における手の位置変動から観察者が所望する操作を特定し、かかる操作に対応する立体画像を表示することができる。すなわち、第1の実施形態によれば、観察者は、マウス等の入力部を用いることなく、手で直接触れる感覚で立体画像に対して各種操作を行うことができる。   Under such a configuration, the workstation 130 according to the first embodiment detects a change in the position of the hand U11 by the camera 137 when the hand U11 is located in the operable region SP10. Then, the workstation 130 determines the operation content for the stereoscopic image I11 based on the positional fluctuation of the hand U11 detected by the camera 137. Then, the workstation 130 performs a rendering process on the volume data according to the determined operation content to newly generate a parallax image group, and displays the generated parallax image group on the display unit 132. In this way, the workstation 130 can specify an operation desired by the observer from the position change of the hand in the operable area SP10, and can display a stereoscopic image corresponding to the operation. That is, according to the first embodiment, the observer can perform various operations on the stereoscopic image with a touch feeling directly without using an input unit such as a mouse.

以下に、このような第1の実施形態におけるワークステーション130について詳細に説明する。まず、図8を用いて、第1の実施形態におけるワークステーション130が有する制御部135について説明する。図8は、第1の実施形態における制御部135の構成例を説明するための図である。図8に例示するように、ワークステーション130の制御部135は、判定部1351と、レンダリング制御部1352と、表示制御部1353とを有する。以下に、これらの処理部について簡単に説明した後に、処理の具体例を説明する。   Hereinafter, the workstation 130 in the first embodiment will be described in detail. First, the control unit 135 included in the workstation 130 according to the first embodiment will be described with reference to FIG. FIG. 8 is a diagram for explaining a configuration example of the control unit 135 in the first embodiment. As illustrated in FIG. 8, the control unit 135 of the workstation 130 includes a determination unit 1351, a rendering control unit 1352, and a display control unit 1353. Hereinafter, after briefly explaining these processing units, a specific example of processing will be described.

判定部1351は、表示部132によって立体画像が表示されている立体画像空間に位置する所定の移動物体の位置変動に基づいて、立体画像に対する操作内容を判定する。具体的には、第1の実施形態における判定部1351は、カメラ137によって操作可能領域SP10内における観察者の手U11の位置変動が検知された場合に、かかる手U11の位置変動に基づいて、立体画像に対する操作内容を判定する。   The determination unit 1351 determines the operation content for the stereoscopic image based on the position variation of a predetermined moving object located in the stereoscopic image space in which the stereoscopic image is displayed by the display unit 132. Specifically, when the position variation of the observer's hand U11 in the operable region SP10 is detected by the camera 137, the determination unit 1351 in the first embodiment is based on the position variation of the hand U11. The operation content for the stereoscopic image is determined.

判定部1351による処理についてより具体的に説明する。まず、第1の実施形態におけるワークステーション130の記憶部134は、操作可能領域SP10内における観察者の手U11の動作(位置変動)と、操作内容とを対応付けて記憶する。例えば、記憶部134は、手U11の所定の動作(位置変動)に対応付けて、立体画像を回転させる操作内容や、立体画像を拡大又は縮小させる操作内容や、立体画像の不透過度(Opacity)を変更させる操作内容や、立体画像を切断する操作内容や、立体画像の一部を消去する操作内容等を記憶する。そして、判定部1351は、カメラ137によって検出された手U11の動作(位置変動)に対応する操作内容を記憶部134から取得することにより、操作内容を特定する。   The processing by the determination unit 1351 will be described more specifically. First, the storage unit 134 of the workstation 130 according to the first embodiment stores the operation (position variation) of the observer's hand U11 in the operable region SP10 and the operation content in association with each other. For example, the storage unit 134 correlates with a predetermined operation (position fluctuation) of the hand U11, the operation content for rotating the stereoscopic image, the operation content for enlarging or reducing the stereoscopic image, and the opacity (Opacity) of the stereoscopic image. ), An operation content for cutting a stereoscopic image, an operation content for deleting a part of the stereoscopic image, and the like are stored. Then, the determination unit 1351 specifies the operation content by acquiring the operation content corresponding to the motion (position variation) of the hand U11 detected by the camera 137 from the storage unit 134.

カメラ137による処理について補足する。第1の実施形態におけるカメラ137は、所定の制御回路を備えており、操作可能領域SP10内に移動物体が存在するか否かを監視する。そして、カメラ137は、移動物体が存在する場合に、例えば、移動物体が所定の形状(例えば、人の手)と略一致するかを判定する。このとき、カメラ137は、移動物体が所定の形状(例えば、人の手)である場合に、かかる移動物体の操作可能領域SP10内における位置の時間変動を検出することにより、移動物体(例えば、人の手)の位置変動を検知する。   It supplements about the process by the camera 137. FIG. The camera 137 in the first embodiment includes a predetermined control circuit, and monitors whether or not there is a moving object in the operable area SP10. Then, when there is a moving object, the camera 137 determines, for example, whether the moving object substantially matches a predetermined shape (for example, a human hand). At this time, when the moving object has a predetermined shape (for example, a human hand), the camera 137 detects the time variation of the position of the moving object in the operable region SP10 to detect the moving object (for example, Detects position fluctuations in human hands).

ここで、第1の実施形態におけるワークステーション130は、立体画像が表示されている立体画像空間と、操作可能領域SP10である実空間との位置を対応させる対応情報を保持する。具体的には、ワークステーション130は、立体画像空間の座標系が、表示部132の前面に存在する実空間上のどの位置に存在するかを示す対応情報を保持する。そして、判定部1351は、かかる対応情報に基づいて、カメラ137によって検知される実空間上における移動物体(例えば、人の手)の位置が立体画像のどの位置に対応するかを識別した上で、上述した操作内容の特定処理を行う。なお、ワークステーション130は、表示部132の表示倍率やレンダリング条件である視差角等に応じて異なる対応情報を保持する。   Here, the workstation 130 in the first embodiment holds correspondence information that associates the positions of the stereoscopic image space in which the stereoscopic image is displayed and the real space that is the operable area SP10. Specifically, the workstation 130 holds correspondence information indicating in which position in the real space the coordinate system of the stereoscopic image space exists in front of the display unit 132. Based on the correspondence information, the determination unit 1351 identifies the position in the stereoscopic image corresponding to the position of the moving object (for example, a human hand) detected in the real space. The above-described operation content specifying process is performed. The workstation 130 holds different correspondence information according to the display magnification of the display unit 132, the parallax angle that is a rendering condition, and the like.

なお、カメラ137による処理はこの例に限られない。例えば、観察者が自身の手に所定の目印となる形状の部材(グローブ等)を装着し、カメラ137は、かかる目印となる部材の位置変動を検出することにより、観察者の手の位置変動を検知してもよい。   Note that the processing by the camera 137 is not limited to this example. For example, the observer wears a member (glove or the like) having a shape that becomes a predetermined mark on his / her hand, and the camera 137 detects the position change of the member that becomes the mark, thereby changing the position of the observer's hand. May be detected.

レンダリング制御部1352は、レンダリング処理部136と協同してボリュームデータから視差画像群を生成する。具体的には、第1の実施形態におけるレンダリング制御部1352は、ボリュームデータから生成した視差画像群に対して、立体画像に各種操作を行うためのツールの画像(後述する「アイコンの立体画像Ic11〜Ic14」等)を重畳するようにレンダリング処理部136を制御する。さらに、レンダリング制御部1352は、視差画像群に対して、操作可能領域を示す枠線等の画像を重畳するようにレンダリング処理部136を制御する。   The rendering control unit 1352 generates a parallax image group from the volume data in cooperation with the rendering processing unit 136. Specifically, the rendering control unit 1352 according to the first embodiment performs an image of a tool for performing various operations on a stereoscopic image on a parallax image group generated from volume data (an “icon stereoscopic image Ic11 described later). ˜Ic14 ”and the like) is controlled to be superimposed. Furthermore, the rendering control unit 1352 controls the rendering processing unit 136 so that an image such as a frame line indicating the operable region is superimposed on the parallax image group.

また、第1の実施形態におけるレンダリング制御部1352は、判定部1351によって判定された操作内容に従って、表示部132に表示されている立体画像の生成元となったボリュームデータに対してレンダリング処理を行うようにレンダリング処理部136を制御する。このとき、レンダリング制御部1352は、カメラ137によって検知された手U11の位置変動に基づいて、レンダリング処理を行うようにレンダリング処理部136を制御する。例えば、レンダリング制御部1352は、操作内容が「立体画像の切断」である場合には、カメラ137によって検知された手U11の位置変動からボリュームデータの切断位置を取得し、取得した切断位置により被検体の臓器等が切断された視差画像群を生成するようにレンダリング処理部136を制御する。   In addition, the rendering control unit 1352 according to the first embodiment performs a rendering process on the volume data from which the stereoscopic image displayed on the display unit 132 is generated in accordance with the operation content determined by the determination unit 1351. The rendering processing unit 136 is controlled as described above. At this time, the rendering control unit 1352 controls the rendering processing unit 136 to perform the rendering process based on the position variation of the hand U11 detected by the camera 137. For example, when the operation content is “3D image cutting”, the rendering control unit 1352 acquires the volume data cutting position from the position change of the hand U11 detected by the camera 137, and the rendering control unit 1352 receives the volume data cutting position based on the acquired cutting position. The rendering processing unit 136 is controlled so as to generate a parallax image group in which a specimen organ or the like is cut.

すなわち、レンダリング制御部1352は、上記例の切断位置のように、立体画像空間内における手U11が位置する座標から、ボリュームデータが配置される空間(以下、「ボリュームデータ空間」と表記する場合がある)における座標を取得する。ここで、立体画像空間とボリュームデータ空間とでは座標系が異なるので、レンダリング制御部1352は、所定の座標変換式を用いて、立体画像空間に対応するボリュームデータ空間の座標を取得する。   That is, the rendering control unit 1352 may describe the space in which the volume data is arranged (hereinafter referred to as “volume data space”) from the coordinates where the hand U11 is located in the stereoscopic image space, such as the cutting position in the above example. Get the coordinates in a). Here, since the coordinate system differs between the stereoscopic image space and the volume data space, the rendering control unit 1352 acquires the coordinates of the volume data space corresponding to the stereoscopic image space using a predetermined coordinate conversion formula.

以下に、図9を用いて、立体画像空間とボリュームデータ空間との対応関係について説明する。図9は、立体画像空間とボリュームデータ空間との対応関係の一例を示す図である。図9(A)は、ボリュームデータを示し、図9(B)は、表示部132によって表示される立体画像を示す。また、図9(A)における座標301と座標302と距離303とは、それぞれ、図9(B)における座標304と座標305と距離306とに対応する。   Hereinafter, the correspondence between the stereoscopic image space and the volume data space will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of a correspondence relationship between the stereoscopic image space and the volume data space. FIG. 9A shows volume data, and FIG. 9B shows a stereoscopic image displayed by the display unit 132. Further, the coordinates 301, 302, and distance 303 in FIG. 9A correspond to the coordinates 304, 305, and distance 306 in FIG. 9B, respectively.

図9に示すように、ボリュームデータが配置されるボリュームデータ空間と、立体画像が表示されている立体画像空間とは、座標系が異なる。具体的には、図9(B)に示す立体画像は、図9(A)に示すボリュームデータと比較して、奥行き方向(z方向)が狭くなっている。言い換えると、図9(B)に示した立体画像では、図9(A)に示されたボリュームデータの奥行き方向の成分が、圧縮された上で表示されている。この場合、図9(B)に示すように、座標304と座標305との間の距離306は、図9(A)における座標301と座標302との間の距離303と比較して、圧縮される分短くなる。   As shown in FIG. 9, the volume data space in which the volume data is arranged and the stereoscopic image space in which the stereoscopic image is displayed have different coordinate systems. Specifically, the stereoscopic image shown in FIG. 9B is narrower in the depth direction (z direction) than the volume data shown in FIG. In other words, in the stereoscopic image shown in FIG. 9B, the component in the depth direction of the volume data shown in FIG. 9A is displayed after being compressed. In this case, as shown in FIG. 9B, the distance 306 between the coordinates 304 and the coordinates 305 is compressed as compared with the distance 303 between the coordinates 301 and the coordinates 302 in FIG. It gets shorter.

このような立体画像空間座標とボリュームデータ空間座標との対応関係は、立体画像のスケールや視野角、視線方向(レンダリング時の視線方向、又は、立体画像観察時の視線方向)等により一意に決定され、例えば、以下の(数1)のような形で表現することが可能となる。   The correspondence between the stereoscopic image space coordinates and the volume data space coordinates is uniquely determined by the scale, viewing angle, and viewing direction of the stereoscopic image (the viewing direction at the time of rendering or the viewing direction at the time of viewing the stereoscopic image). For example, it can be expressed in the following form (Equation 1).

(数1)=(x1、y1、z1)=F(x2、y2、z2)   (Expression 1) = (x1, y1, z1) = F (x2, y2, z2)

(数1)において、「x2」「y2」「z2」は、それぞれ、立体画像空間座標を示す。また、「x1」「y1」「z1」は、それぞれ、ボリュームデータ空間座標を示す。また、関数「F」は、立体画像のスケールや視野角、視線方向等により一意に決定される関数である。すなわち、レンダリング制御部1352は、(数1)を用いることで、立体画像空間座標とボリュームデータ空間座標との対応関係を取得することができる。なお、関数「F」は、立体画像のスケールや視野角、視線方向(レンダリング時の視線方向、又は、立体画像観察時の視線方向)等が変更されるごとにレンダリング制御部1352により生成される。例えば、回転、平行移動、拡大、縮小を変換する関数「F」として(数2)に示したアフィン変換が用いられる。   In (Equation 1), “x2”, “y2”, and “z2” respectively indicate stereoscopic image space coordinates. “X1”, “y1”, and “z1” indicate volume data space coordinates, respectively. The function “F” is a function that is uniquely determined by the scale, viewing angle, line-of-sight direction, and the like of the stereoscopic image. That is, the rendering control unit 1352 can acquire the correspondence between the stereoscopic image space coordinates and the volume data space coordinates by using (Equation 1). Note that the function “F” is generated by the rendering control unit 1352 every time the stereoscopic image scale, viewing angle, line-of-sight direction (line-of-sight direction during rendering, line-of-sight direction during stereoscopic image observation), or the like is changed. . For example, the affine transformation shown in (Expression 2) is used as the function “F” for transforming rotation, translation, enlargement, and reduction.

(数2)
x1=a*x2+b*y2+c*z3+d
y1=e*x2+f*y2+g*z3+h
z1=i*x2+j*y2+k*z3+l
(a〜lは変換係数)
(Equation 2)
x1 = a * x2 + b * y2 + c * z3 + d
y1 = e * x2 + f * y2 + g * z3 + h
z1 = i * x2 + j * y2 + k * z3 + l
(A to l are conversion coefficients)

なお、上述した説明では、レンダリング制御部1352が、関数「F」に基づいてボリュームデータ空間の座標を取得する例を示したが、これに限定されるものではない。例えば、ワークステーション130が、立体画像空間座標とボリュームデータ空間座標とが対応付けられたテーブルである座標テーブルを有し、レンダリング制御部1352が、立体画像空間座標を検索キーとして座標テーブルを検索することで、立体画像空間座標に対応するボリュームデータ空間座標を取得してもよい。   In the above description, the example in which the rendering control unit 1352 acquires the coordinates of the volume data space based on the function “F” has been described, but the present invention is not limited to this. For example, the workstation 130 has a coordinate table that is a table in which stereoscopic image space coordinates and volume data space coordinates are associated, and the rendering control unit 1352 searches the coordinate table using the stereoscopic image space coordinates as search keys. Thus, the volume data space coordinates corresponding to the stereoscopic image space coordinates may be acquired.

図8の説明に戻って、表示制御部1353は、レンダリング処理部136によって生成された視差画像群を表示部132に表示させる。すなわち、第1の実施形態における表示制御部1353は、表示部132に立体画像を表示させるとともに、観察者が立体画像に対して各種操作を行うことが可能である操作可能領域を示す立体画像や、立体画像に各種操作を行うためのツールの画像等を表示させる。また、表示制御部1353は、レンダリング処理部136によって視差画像群が新たに生成された場合に、かかる視差画像群を表示部132に表示させる。   Returning to the description of FIG. 8, the display control unit 1353 causes the display unit 132 to display the parallax image group generated by the rendering processing unit 136. That is, the display control unit 1353 according to the first embodiment displays a stereoscopic image on the display unit 132, and also displays a stereoscopic image indicating an operable region where the observer can perform various operations on the stereoscopic image. Then, an image of a tool for performing various operations is displayed on the stereoscopic image. The display control unit 1353 displays the parallax image group on the display unit 132 when the rendering processing unit 136 newly generates the parallax image group.

次に、図10及び図11を用いて、上記の制御部135による処理の具体例を説明する。図10及び図11は、第1の実施形態における制御部135による処理の一例を説明するための図である。なお、図10及び図11では、操作内容が「立体画像の切断」及び「立体画像の削除」である場合を例に挙げて説明する。   Next, a specific example of processing performed by the control unit 135 will be described with reference to FIGS. 10 and 11. 10 and 11 are diagrams for explaining an example of processing performed by the control unit 135 in the first embodiment. In FIGS. 10 and 11, a case where the operation contents are “stereoscopic image cutting” and “stereoscopic image deletion” will be described as an example.

図10に示した例において、まず、表示部132は、レンダリング処理部136によって生成された視差画像群を表示することにより、被検体の臓器等を示す立体画像I11や、各種操作が可能な操作可能領域SP10を示す立体画像Ia12や、観察者が立体画像I11に対して各種操作を行うためのツールを示すアイコンの立体画像Ic11〜Ic15を表示する。なお、ここでは、表示部132は、操作可能領域SP10を示す画像として、点線で示した略直方体の立体画像Ia12を表示する。   In the example illustrated in FIG. 10, first, the display unit 132 displays the parallax image group generated by the rendering processing unit 136, so that the stereoscopic image I <b> 11 that shows the organ of the subject and the like, and various operations that can be performed. A stereoscopic image Ia12 indicating the possible area SP10 and icon stereoscopic images Ic11 to Ic15 indicating tools for the observer to perform various operations on the stereoscopic image I11 are displayed. Here, the display unit 132 displays a substantially rectangular parallelepiped stereoscopic image Ia12 indicated by a dotted line as an image indicating the operable region SP10.

言い換えれば、レンダリング制御部1352は、図10に例示した被検体の立体画像I11と、操作可能領域SP10の立体画像Ia12と、アイコンの立体画像Ic11〜Ic15とが表示される視差画像群をレンダリング処理部136に生成させる。なお、レンダリング制御部1352は、アイコンの立体画像Ic11〜Ic15が立体画像空間内の特定の位置に配置されるように、かかる立体画像Ic11〜Ic15に対応する画像を視差画像群に重畳するようにレンダリング処理部136を制御する。   In other words, the rendering control unit 1352 renders a parallax image group in which the stereoscopic image I11 of the subject illustrated in FIG. 10, the stereoscopic image Ia12 of the operable area SP10, and the stereoscopic images Ic11 to Ic15 of icons are displayed. Generated by the unit 136. The rendering control unit 1352 superimposes images corresponding to the stereoscopic images Ic11 to Ic15 on the parallax image group so that the icon stereoscopic images Ic11 to Ic15 are arranged at specific positions in the stereoscopic image space. The rendering processing unit 136 is controlled.

ここで、図10に例示したアイコンIc11は、カッターナイフ等の切断部材を示す画像であり、立体画像I11を切断するためのツールとなる。また、アイコンIc12は、消しゴム等の消去部材を示す画像であり、立体画像I11を部分的に消去するためのツールとなる。また、アイコンIc13は、パレット等の着色部材を示す画像であり、立体画像I11を着色するためのツールとなる。また、アイコンIc14は、ゴミ箱等の削除部材を示す画像であり、立体画像I11の一部を削除するためのツールとなる。また、アイコンIc15は、関心領域を設定するための関心領域設定部材を示す画像である。   Here, the icon Ic11 illustrated in FIG. 10 is an image indicating a cutting member such as a cutter knife, and serves as a tool for cutting the stereoscopic image I11. The icon Ic12 is an image indicating an erasing member such as an eraser and serves as a tool for partially erasing the stereoscopic image I11. The icon Ic13 is an image indicating a coloring member such as a palette, and serves as a tool for coloring the stereoscopic image I11. The icon Ic14 is an image indicating a deletion member such as a trash can and serves as a tool for deleting a part of the stereoscopic image I11. The icon Ic15 is an image showing a region-of-interest setting member for setting a region of interest.

第1の実施形態では、このような各種立体画像が表示部132に表示されている状態において、観察者の手U11によって、立体画像I11に対して各種操作が行われる。例えば、カメラ137によって、観察者の手U11がアイコンIc11の表示位置まで移動したことが検知された場合に、表示部132は、その後の手U11の移動とともにアイコンIc11の表示位置が移動する立体画像を表示する。具体的には、レンダリング制御部1352は、カメラ137によって検知された手U11の位置が移動するたびに、レンダリング処理部136に対して、アイコンIc11の表示位置が手U11の位置と略一致するように、かかるアイコンIc11の画像を視差画像群に重畳させる。そして、表示制御部1353は、レンダリング処理部136によって新たに生成された視差画像群(重畳画像群)を表示部132に表示させることで、手U11の位置とアイコンIc11の表示位置とが略一致する立体画像を観察者に提供する。   In the first embodiment, in a state where such various stereoscopic images are displayed on the display unit 132, various operations are performed on the stereoscopic image I11 by the observer's hand U11. For example, when the camera 137 detects that the observer's hand U11 has moved to the display position of the icon Ic11, the display unit 132 displays a stereoscopic image in which the display position of the icon Ic11 moves with the subsequent movement of the hand U11. Is displayed. Specifically, the rendering control unit 1352 makes the display position of the icon Ic11 substantially coincide with the position of the hand U11 with respect to the rendering processing unit 136 each time the position of the hand U11 detected by the camera 137 moves. In addition, the image of the icon Ic11 is superimposed on the parallax image group. Then, the display control unit 1353 causes the display unit 132 to display the parallax image group (superimposed image group) newly generated by the rendering processing unit 136 so that the position of the hand U11 substantially matches the display position of the icon Ic11. A stereoscopic image is provided to the viewer.

ここで、図10に示した例において、観察者によって手U11が動かされることにより、アイコンIc11が立体画像I11内の面A11を通過したものとする。かかる場合に、判定部1351は、アイコンIc11が切断部材であることに基づいて、立体画像I11を面A11により切断する操作が行われたと判定する。このとき、判定部1351は、操作可能領域SP10における手U11の位置情報をカメラ137から取得することにより、アイコンIc11が通過した面A11の立体画像I11における位置を識別し、識別した面A11の立体画像I11における位置をレンダリング制御部1352に通知する。そして、レンダリング制御部1352は、上記の関数「F」を用いることにより、面A11に対応するボリュームデータ空間における領域を取得する。そして、レンダリング制御部1352は、例えば、ボリュームデータを構成するボクセル群のうち面A11に対応するボクセルのボクセル値を、空気等を示すボクセル値等に変更した後に、かかるボリュームデータに対してレンダリング処理を行うようにレンダリング処理部136を制御する。これにより、レンダリング処理部136は、面A11により切断された立体画像I11を表示するための視差画像群を生成することができる。   Here, in the example shown in FIG. 10, it is assumed that the icon Ic11 passes through the plane A11 in the stereoscopic image I11 by moving the hand U11 by the observer. In such a case, the determination unit 1351 determines that an operation of cutting the stereoscopic image I11 with the plane A11 has been performed based on the icon Ic11 being a cutting member. At this time, the determination unit 1351 acquires the position information of the hand U11 in the operable area SP10 from the camera 137, thereby identifying the position in the three-dimensional image I11 of the surface A11 through which the icon Ic11 has passed, and the three-dimensional image of the identified surface A11. The rendering control unit 1352 is notified of the position in the image I11. Then, the rendering control unit 1352 obtains an area in the volume data space corresponding to the plane A11 by using the function “F”. Then, for example, the rendering control unit 1352 changes the voxel value of the voxel corresponding to the surface A11 in the voxel group constituting the volume data to a voxel value indicating air or the like, and then performs the rendering process on the volume data. The rendering processing unit 136 is controlled to perform the above. Thereby, the rendering processing unit 136 can generate a parallax image group for displaying the stereoscopic image I11 cut by the plane A11.

さらに、観察者によって手U11が動かされることで、切断された立体画像I11のうち左部位(面A11よりも左側)をアイコンIc14に移動させる操作が行われたものとする。なお、ここでは、立体画像I11の左部位は、手U11とともに移動してもよいし、手U11とともに移動しなくてもよい。ただし、立体画像I11の左部位が手U11とともに移動する場合には、レンダリング制御部1352は、手U11の位置と立体画像I11の左部位の位置とが略一致するように、例えば、ボリュームデータ内の各ボクセルのうち、立体画像I11の左部位に対応するボクセルを手U11の位置に配置した後に、レンダリング処理を行うようにレンダリング処理部136を制御する。   Furthermore, it is assumed that an operation of moving the left part (left side of the plane A11) of the cut stereoscopic image I11 to the icon Ic14 by moving the hand U11 by the observer. Here, the left part of the stereoscopic image I11 may move with the hand U11 or may not move with the hand U11. However, when the left part of the stereoscopic image I11 moves together with the hand U11, the rendering control unit 1352, for example, in the volume data so that the position of the hand U11 and the position of the left part of the stereoscopic image I11 substantially match. After the voxel corresponding to the left part of the stereoscopic image I11 is placed at the position of the hand U11, the rendering processing unit 136 is controlled to perform the rendering process.

そして、判定部1351は、アイコンIc14が削除部材であることに基づいて、立体画像I11の左部位を削除する操作が行われたと判定する。そして、レンダリング制御部1352は、上記の関数「F」を用いることにより、立体画像I11の左部位に対応するボリュームデータ空間における領域を取得し、ボリュームデータを構成するボクセル群のうち左部位に対応するボクセルをレンダリング対象外としてレンダリング処理を行うようにレンダリング処理部136を制御する。これにより、レンダリング処理部136は、左部位が削除された立体画像I11を表示するための視差画像群を生成することができる。   Then, the determination unit 1351 determines that an operation for deleting the left part of the stereoscopic image I11 has been performed based on the fact that the icon Ic14 is a deletion member. The rendering control unit 1352 obtains a region in the volume data space corresponding to the left part of the stereoscopic image I11 by using the function “F”, and corresponds to the left part of the voxel group constituting the volume data. The rendering processing unit 136 is controlled so as to perform rendering processing with voxels to be excluded as rendering targets. Accordingly, the rendering processing unit 136 can generate a parallax image group for displaying the stereoscopic image I11 from which the left part is deleted.

なお、レンダリング処理部136は、ボリュームデータを構成するボクセル毎に、レンダリング対象とするか否かを示す情報(ここでは、「レンダリング対象フラグ」とする)を管理しており、立体画像I11の左部位に対応するボクセルのレンダリング対象フラグを「レンダリング対象外」に更新した後にレンダリング処理を行うことにより、左部位が削除された立体画像I11を表示するための視差画像群を生成することができる。なお、レンダリング処理部136は、例えば、レンダリング対象フラグが「レンダリング対象外」であるボクセルの不透過度(Opacity)を「0%」に設定等することにより、左部位が削除された視差画像群を生成することができる。   Note that the rendering processing unit 136 manages information (in this case, “rendering target flag”) indicating whether or not to render each voxel constituting the volume data, and the left of the stereoscopic image I11. By performing the rendering process after updating the rendering target flag of the voxel corresponding to the part to “non-rendering target”, it is possible to generate a parallax image group for displaying the stereoscopic image I11 from which the left part is deleted. For example, the rendering processing unit 136 sets the parallax image group in which the left part is deleted by setting the opacity of the voxel whose rendering target flag is “non-rendering target” to “0%”, for example. Can be generated.

表示制御部1353は、このようにして生成された視差画像群を表示部132に表示させる。これにより、表示部132は、図11に示した例のように、左部位が削除された立体画像I11を表示することができる。ここで、図11に示した立体画像I11は、レンダリング処理部136によってレンダリング処理が再度行われることで生成された視差画像群によって構成される。したがって、観察者は、図11に示した立体画像I11を回り込んで観察することにより、アイコンIc11により切断した部分の断面画像を観察することができる。   The display control unit 1353 causes the display unit 132 to display the parallax image group generated in this way. Thereby, the display part 132 can display the stereo image I11 from which the left part was deleted like the example shown in FIG. Here, the stereoscopic image I11 illustrated in FIG. 11 includes a group of parallax images generated by the rendering processing unit 136 performing the rendering process again. Therefore, the observer can observe the cross-sectional image of the portion cut by the icon Ic11 by wrapping around and observing the stereoscopic image I11 shown in FIG.

次に、図12を用いて、第1の実施形態におけるワークステーション130による処理の流れの一例を示す。図12は、第1の実施形態におけるワークステーション130による処理の流れの一例を示すフローチャートである。   Next, an example of the flow of processing by the workstation 130 in the first embodiment will be shown using FIG. FIG. 12 is a flowchart illustrating an example of a processing flow by the workstation 130 in the first embodiment.

図12に示すように、ワークステーション130の制御部135は、端末装置140から立体画像の表示要求を受け付けたか否かを判定する(ステップS101)。ここで、表示要求を受け付けない場合には(ステップS101否定)、ワークステーション130は、表示要求を受け付けるまで待機する。   As illustrated in FIG. 12, the control unit 135 of the workstation 130 determines whether or not a stereoscopic image display request has been received from the terminal device 140 (step S101). If the display request is not accepted (No at step S101), the workstation 130 waits until the display request is accepted.

一方、表示要求を受け付けた場合には(ステップS101肯定)、ワークステーション130のレンダリング制御部1352は、レンダリング処理部136を制御することで、操作可能領域や操作用のアイコン等の画像を含む視差画像群を生成する(ステップS102)。   On the other hand, when a display request is accepted (Yes in step S101), the rendering control unit 1352 of the workstation 130 controls the rendering processing unit 136 to include parallax including images such as an operable region and an operation icon. An image group is generated (step S102).

そして、ワークステーション130の表示制御部1353は、レンダリング処理部136によって生成された視差画像群を表示部132に表示させる(ステップS103)。これにより、表示部132は、図10に例示したように、被検体の臓器等を示す立体画像や、各種操作が可能な操作可能領域を示す立体画像や、各種操作を行うためのツールを示すアイコンの立体画像を表示する。   Then, the display control unit 1353 of the workstation 130 causes the display unit 132 to display the parallax image group generated by the rendering processing unit 136 (step S103). Accordingly, as illustrated in FIG. 10, the display unit 132 shows a stereoscopic image indicating the organ of the subject, a stereoscopic image indicating an operable region where various operations can be performed, and a tool for performing various operations. Displays a three-dimensional icon image.

続いて、ワークステーション130の判定部1351は、カメラ137によって操作可能領域内において観察者の手の位置変動が検知されたか否かを監視する(ステップS104)。ここで、手の位置変動が検知されない場合には(ステップS104否定)、判定部1351は、カメラ137によって手の位置変動が検知されるまで待機する。   Subsequently, the determination unit 1351 of the workstation 130 monitors whether or not the position variation of the observer's hand is detected within the operable region by the camera 137 (step S104). If no hand position change is detected (No at step S104), the determination unit 1351 waits until a camera position change is detected by the camera 137.

一方、判定部1351は、カメラ137によって手の位置変動が検知された場合には(ステップS104肯定)、かかる位置変動に対応する操作内容を特定する(ステップS105)。そして、レンダリング制御部1352は、判定部1351によって判定された操作内容に従ってレンダリング処理を行うようにレンダリング処理部136を制御する。これにより、レンダリング処理部136は、視差画像群を新たに生成する(ステップS106)。そして、表示制御部1353は、レンダリング処理部136によって新たに生成された視差画像群を表示部132に表示させる(ステップS107)。   On the other hand, when the position variation of the hand is detected by the camera 137 (Yes at Step S104), the determination unit 1351 identifies the operation content corresponding to the position variation (Step S105). Then, the rendering control unit 1352 controls the rendering processing unit 136 to perform the rendering process according to the operation content determined by the determination unit 1351. Accordingly, the rendering processing unit 136 newly generates a parallax image group (step S106). Then, the display control unit 1353 causes the display unit 132 to display the parallax image group newly generated by the rendering processing unit 136 (step S107).

上述してきたように、第1の実施形態によれば、立体画像に対して観察者が感覚的な操作で各種操作を行うことが可能になる。   As described above, according to the first embodiment, it becomes possible for the observer to perform various operations on the stereoscopic image by a sensuous operation.

(第2の実施形態)
さて、上述した実施形態は、他の実施形態に変形することもできる。そこで、第2の実施形態では、上述した実施形態の変形例を説明する。なお、以下に説明する図13〜図15は、第1の実施形態の変形例を説明するための図である。
(Second Embodiment)
Now, the embodiment described above can be modified to other embodiments. Therefore, in the second embodiment, a modified example of the above-described embodiment will be described. In addition, FIGS. 13-15 demonstrated below are the figures for demonstrating the modification of 1st Embodiment.

[操作内容]
上記実施形態においては、図10及び図11を用いて、操作内容が「立体画像の切断」及び「立体画像の削除」である場合を例に挙げて説明した。しかし、操作内容はこれに限られない。以下の(1)〜(6)に、ワークステーション130が受け付ける他の操作内容の一例について説明する。
[Operation Details]
In the above-described embodiment, the case where the operation contents are “cutting a stereoscopic image” and “deleting a stereoscopic image” has been described as an example with reference to FIGS. 10 and 11. However, the operation content is not limited to this. Examples of other operation contents received by the workstation 130 will be described in the following (1) to (6).

(1)立体画像の一部を消去
例えば、図10に示した例において、観察者の手U11が消去部材であるアイコンIc12の表示位置まで移動した後に、立体画像I11の所定の位置(ここでは、骨が表示されている位置であるものとする)に移動したものとする。かかる場合に、判定部1351は、立体画像I11の一部である骨を消去する操作が行われたと判定する。そして、レンダリング制御部1352は、ボリュームデータを構成するボクセル群のうち、かかる骨を示すボクセルのレンダリング対象フラグを「レンダリング対象外」に更新した後にレンダリング処理を行うようにレンダリング処理部136を制御する。これにより、ワークステーション130は、骨が消去された立体画像I11を表示することができる。
(1) Erasing a part of the stereoscopic image For example, in the example shown in FIG. 10, after the observer's hand U11 moves to the display position of the icon Ic12 that is an erasing member, a predetermined position (here, the stereoscopic image I11) , The bone is assumed to be displayed. In such a case, the determination unit 1351 determines that an operation for deleting a bone that is a part of the stereoscopic image I11 has been performed. Then, the rendering control unit 1352 controls the rendering processing unit 136 so as to perform the rendering process after updating the rendering target flag of the voxel indicating the bone in the voxel group constituting the volume data to “non-rendering target”. . Thereby, the workstation 130 can display the stereoscopic image I11 from which the bone has been erased.

(2)立体画像の表示方法変更
また、図10に示した例において、観察者の手U11が着色部材であるアイコンIc13の表示位置まで移動した後に、立体画像I11の所定の位置(ここでは、血管が表示されている位置であるものとする)に移動したものとする。かかる場合に、判定部1351は、立体画像I11の一部である血管に着色する操作が行われたと判定する。そして、レンダリング制御部1352は、ボリュームデータを構成するボクセル群のうち、かかる血管を示すボクセルの画素値を観察者が指定した色に対応する値に更新した後にレンダリング処理を行うようにレンダリング処理部136を制御する。これにより、ワークステーション130は、観察者に指定された色に着色された血管を含む立体画像I11を表示することができる。なお、アイコンIc13には複数色の絵の具等が表示されており、判定部1351は、観察者によって触れる動作が行われた絵の具の色に応じて、立体画像に着色する色を特定することができる。
(2) Change in Display Method of Stereoscopic Image In the example shown in FIG. 10, after the observer's hand U11 moves to the display position of the icon Ic13 that is a colored member, a predetermined position (here, It is assumed that the blood vessel is moved to the displayed position). In such a case, the determination unit 1351 determines that an operation for coloring a blood vessel that is part of the stereoscopic image I11 has been performed. Then, the rendering control unit 1352 performs rendering processing after updating the pixel value of the voxel indicating the blood vessel in the voxel group constituting the volume data to a value corresponding to the color designated by the observer. 136 is controlled. Thereby, the workstation 130 can display the stereoscopic image I11 including the blood vessel colored in the color designated by the observer. Note that a plurality of colors of paints and the like are displayed on the icon Ic13, and the determination unit 1351 can specify a color to be colored in the stereoscopic image in accordance with the color of the paint that has been touched by the observer. .

また、例えば、ワークステーション130は、コントロールバー等の調整部材を示すアイコンの立体画像を操作可能領域内に表示してもよい。そして、判定部1351は、観察者によって、かかるコントロールバーのつまみ等を左右又は上下に移動させる操作が行われた場合に、立体画像の不透過度(Opacity)を変更する操作が行われたと判定する。このとき、レンダリング制御部1352は、例えば、観察者によって移動されたつまみの移動量に応じて不透過度を変化させてレンダリング処理を行うようにレンダリング処理部136を制御する。また、ワークステーション130は、観察者によって立体画像の所定の領域が指定されるとともに、上記コントロールバーのつまみ等を移動させる操作が行われた場合には、かかる所定の領域についてのみ不透過度を変更してもよい。   Further, for example, the workstation 130 may display a stereoscopic image of an icon indicating an adjustment member such as a control bar in the operable area. Then, the determination unit 1351 determines that an operation for changing the opacity of the stereoscopic image has been performed when the observer performs an operation to move the knob or the like of the control bar left and right or up and down. To do. At this time, the rendering control unit 1352 controls the rendering processing unit 136 so as to perform the rendering process by changing the opacity according to the amount of movement of the knob moved by the observer, for example. In addition, when a predetermined area of the stereoscopic image is designated by the observer and the operation of moving the control bar knob or the like is performed, the workstation 130 sets the opacity only for the predetermined area. It may be changed.

ここで、図13を用いて、不透過度を変更する操作例について説明する。図13に示した例において、表示部132は、レンダリング処理部136によって生成された視差画像群を表示することにより、被検体の臓器等を示す立体画像I21や、立体画像I21の不透過度を示す画像I22や、観察者が不透過度を変更するためのコントロールバー及びつまみを示すアイコンの画像Ic21〜Ic24等を表示する。言い換えれば、レンダリング制御部1352は、図13に例示した被検体の立体画像I21と、不透過度を示す画像I22と、アイコンの画像Ic21〜Ic24とが表示される視差画像群をレンダリング処理部136に生成させる。なお、レンダリング制御部1352は、アイコンの画像Ic21〜Ic24が立体画像空間内の特定の位置に配置されるように、かかる立体画像Ic21〜Ic24に対応する画像を視差画像群に重畳するようにレンダリング処理部136を制御する。   Here, an operation example of changing the opacity will be described with reference to FIG. In the example illustrated in FIG. 13, the display unit 132 displays the parallax image group generated by the rendering processing unit 136, thereby reducing the opacity of the stereoscopic image I21 indicating the subject's organ and the like and the stereoscopic image I21. An image I22 to be displayed, icon images Ic21 to Ic24 indicating a control bar and a knob for the observer to change the opacity, and the like are displayed. In other words, the rendering control unit 1352 renders a parallax image group in which the stereoscopic image I21 of the subject illustrated in FIG. 13, the image I22 indicating opacity, and the icon images Ic21 to Ic24 are displayed. To generate. The rendering control unit 1352 renders the images corresponding to the stereoscopic images Ic21 to Ic24 so as to be superimposed on the parallax image group so that the icon images Ic21 to Ic24 are arranged at specific positions in the stereoscopic image space. The processing unit 136 is controlled.

ここで、図13に例示した画像I22は、横軸がCT値を示し、縦軸が不透過度を示す。具体的には、画像I22は、立体画像I21のうちCT値が点P1よりも小さい領域が不透過度「0%」であって立体画像として表示されないことを示す。また、画像I22は、立体画像I21のうちCT値が点P2よりも大きい領域が不透過度「100%」であって立体画像として表示され、かつ、かかる領域の後方の領域が描出されないことを示す。また、画像I22は、立体画像I21のうちCT値が点P1から点P2までの範囲の領域が不透過度「0%」から「100%」となる領域であることを示す。すなわち、CT値が点P1から点P2までの範囲の領域は、半透明に表示され、CT値が点P1に近い領域ほど透明度の高い領域となる。なお、画像I22中の直線L1は、点P1と点P2との中点となるCT値を示す。   Here, in the image I22 illustrated in FIG. 13, the horizontal axis indicates the CT value, and the vertical axis indicates the opacity. Specifically, the image I22 indicates that a region having a CT value smaller than the point P1 in the stereoscopic image I21 has an opacity “0%” and is not displayed as a stereoscopic image. Further, in the image I22, the region where the CT value is larger than the point P2 in the stereoscopic image I21 is displayed as a stereoscopic image with an opacity of “100%”, and the region behind the region is not drawn. Show. Further, the image I22 indicates that the region of the stereoscopic image I21 in which the CT value is in the range from the point P1 to the point P2 is a region where the opacity is “0%” to “100%”. That is, the region where the CT value is in the range from the point P1 to the point P2 is displayed semi-transparent, and the region where the CT value is closer to the point P1 is a region with higher transparency. A straight line L1 in the image I22 indicates a CT value that is a midpoint between the points P1 and P2.

また、図13に示した例において、アイコンIc21は、立体画像I21全体の不透過度を変更するためのコントロールバー及びつまみを示す。また、アイコンIc22は、不透過度を設定するCT値の範囲を決定するためのコントロールバー及びつまみを示す。具体的には、アイコンIc22に示されるつまみを左右に移動させることで、画像I22に示した直線L1を点P1及び点P2とともに左右に移動させることができる。また、アイコンIc23は、不透過度「0%」とするCT値の範囲を決定するためのコントロールバー及びつまみを示す。具体的には、アイコンIc23に示されるつまみを左右に移動させることで、画像I22に示した点P1を左右に移動させることができる。また、アイコンIc24は、不透過度「100%」とするCT値の範囲を決定するためのコントロールバー及びつまみを示す。具体的には、アイコンIc24に示されるつまみを左右に移動させることで、画像I22に示した点P2を左右に移動させることができる。   In the example illustrated in FIG. 13, the icon Ic21 indicates a control bar and a knob for changing the opacity of the entire stereoscopic image I21. The icon Ic22 indicates a control bar and a knob for determining a CT value range for setting the opacity. Specifically, the straight line L1 shown in the image I22 can be moved left and right together with the points P1 and P2 by moving the knob indicated by the icon Ic22 left and right. The icon Ic23 indicates a control bar and a knob for determining a CT value range with an opacity of “0%”. Specifically, the point P1 shown in the image I22 can be moved left and right by moving the knob indicated by the icon Ic23 left and right. The icon Ic24 indicates a control bar and a knob for determining a CT value range with an opacity of “100%”. Specifically, the point P2 shown in the image I22 can be moved left and right by moving the knob indicated by the icon Ic24 left and right.

このような立体画像I21、画像I22、アイコンIc21〜Ic24等が表示部132に表示されている状態において、例えば、観察者の手U11がアイコンIc21〜Ic24の表示位置まで移動された後、各種つまみを左右に移動させる動きがカメラ137によって検知された場合に、レンダリング制御部1352は、カメラ137によって検知された手U11の移動に応じて、レンダリング処理部136に対して、不透過度を変動させた上でレンダリング処理を行うようにレンダリング処理部136を制御する。これにより、レンダリング処理部136は、手U11の動きに応じて不透過度を変動させた視差画像群を生成することができる。   In a state where the stereoscopic image I21, the image I22, the icons Ic21 to Ic24 and the like are displayed on the display unit 132, for example, after the observer's hand U11 is moved to the display position of the icons Ic21 to Ic24, various knobs are displayed. When the camera 137 detects a movement of moving the image to the left or right, the rendering control unit 1352 changes the opacity of the rendering processing unit 136 according to the movement of the hand U11 detected by the camera 137. Then, the rendering processing unit 136 is controlled to perform the rendering process. Thereby, the rendering processing unit 136 can generate a parallax image group in which the opacity is changed according to the movement of the hand U11.

(3)立体画像の回転
また、例えば、判定部1351は、カメラ137によって図14(A)又は(B)に例示した手の位置変動が検知された場合に、立体画像を回転させる操作が行われたと判定する。かかる場合には、レンダリング制御部1352は、視点位置及び視線方向を変更してレンダリング処理を行うようにレンダリング処理部136を制御することで、回転された立体画像を表示するための視差画像群を生成することができる。
(3) Rotation of stereoscopic image For example, the determination unit 1351 performs an operation of rotating a stereoscopic image when the camera 137 detects the position variation of the hand illustrated in FIG. Judge that it was broken. In such a case, the rendering control unit 1352 controls the rendering processing unit 136 to perform the rendering process by changing the viewpoint position and the line-of-sight direction, thereby generating a parallax image group for displaying the rotated stereoscopic image. Can be generated.

なお、このようなコントロールバーによって調整可能な設定は、不透過度に限られない。例えば、ワークステーション130は、観察者によって立体画像のコントロールバーが操作された場合に、立体画像の拡大率又は縮小率や、立体画像を構成する視差画像群の視差角等を調整してもよい。   The setting that can be adjusted by such a control bar is not limited to the opacity. For example, when the stereoscopic image control bar is operated by the observer, the workstation 130 may adjust the enlargement ratio or reduction ratio of the stereoscopic image, the parallax angle of the parallax image group constituting the stereoscopic image, and the like. .

(4)関心領域の設定
また、判定部1351は、観察者によって立体画像の所定の領域に触れられる動作が行われた場合には、かかる所定の領域を関心領域とする操作が行われたと判定してもよい。例えば、図10に示した例において、観察者の手U11が関心領域設定部材であるアイコンIc15の表示位置まで移動した後に、立体画像I11の所定の位置(ここでは、血管が表示されている位置であるものとする)に移動したものとする。かかる場合に、判定部1351は、立体画像I11の一部である血管を関心領域に設定する操作が行われたと判定する。具体的には、判定部1351は、手U11に触れられた立体画像I11における位置(ここでは、血管が表示されている位置)を識別する。そして、判定部1351は、形状テンプレートを用いたパターンマッチング法や、領域拡張(region growing)法などを用いてセグメンテーション処理を行うことにより、観察者によって指定された位置に含まれる臓器(ここでは、血管)を抽出し、抽出した臓器を関心領域に設定する。
(4) Region of Interest Setting In addition, the determination unit 1351 determines that an operation for setting the predetermined region as the region of interest has been performed when the observer touches the predetermined region of the stereoscopic image. May be. For example, in the example shown in FIG. 10, after the observer's hand U11 moves to the display position of the icon Ic15 that is the region of interest setting member, a predetermined position (here, the position where the blood vessel is displayed) of the stereoscopic image I11. ). In such a case, the determination unit 1351 determines that an operation for setting a blood vessel that is a part of the stereoscopic image I11 as a region of interest has been performed. Specifically, the determination unit 1351 identifies a position (here, a position where a blood vessel is displayed) in the stereoscopic image I11 touched by the hand U11. Then, the determination unit 1351 performs a segmentation process using a pattern matching method using a shape template, a region growing method, or the like, whereby an organ (here, the position specified by the observer) Blood vessel) is extracted, and the extracted organ is set as a region of interest.

(5)操作形式
また、図10及び図11に示した例では、片手によって立体画像に対して各種操作が行われる例を示したが、観察者は、両手で立体画像に対して各種操作を行ってもよい。例えば、判定部1351は、両手の掌で所定の領域を包み込む動作が行われた場合に、かかる所定の領域を関心領域とする操作が行われたと判定してもよい。
(5) Operation format Moreover, although the example shown in FIG.10 and FIG.11 showed the example where various operation is performed with respect to a stereo image with one hand, an observer performs various operation with respect to a stereo image with both hands. You may go. For example, when the operation of wrapping a predetermined area with the palms of both hands is performed, the determination unit 1351 may determine that an operation for setting the predetermined area as the region of interest has been performed.

[セグメンテーション]
また、上記実施形態において、判定部1351は、観察者によって立体画像の所定の領域を手で触れられる動作が行われるか、又は、上記「(5)操作形式」に記載したように所定の領域を掌で包み込む動作が行われた場合に、かかる所定の領域に含まれる臓器(血管、骨、心臓、肝臓等)を抽出する操作が行われたと判定してもよい。かかる場合には、レンダリング制御部1352は、形状テンプレートを用いたパターンマッチング法や、領域拡張(region growing)法などを用いてセグメンテーション処理を行うことにより、観察者によって指定された所定の領域に含まれる臓器(血管、骨、心臓、肝臓等)を抽出するようにレンダリング処理部136を制御する。そして、レンダリング処理部136は、抽出した臓器のボリュームデータに対してレンダリング処理を行うことで、かかる臓器のみを示す視差画像群を生成してもよいし、抽出した臓器のデータを除いたボリュームデータに対してレンダリング処理を行うことで、かかる臓器を除いた部位を示す視差画像群を生成してもよい。これにより、観察者は、操作可能領域において高精度に指定できない場合であっても、所望の臓器のみの立体画像や、所望の臓器のみを除いた部位の立体画像等を表示部132に表示させることができる。
[segmentation]
In the above-described embodiment, the determination unit 1351 performs an operation in which a predetermined region of the stereoscopic image is touched by an observer by the observer or the predetermined region as described in “(5) Operation format” above. May be determined that an operation of extracting an organ (blood vessel, bone, heart, liver, etc.) included in the predetermined region has been performed. In such a case, the rendering control unit 1352 performs segmentation processing using a pattern matching method using a shape template, a region growing method, or the like, so that the rendering control unit 1352 is included in a predetermined region designated by the observer. The rendering processing unit 136 is controlled to extract the organs (blood vessels, bones, heart, liver, etc.) to be extracted. The rendering processing unit 136 may generate a parallax image group indicating only the organ by performing rendering processing on the extracted organ volume data, or volume data excluding the extracted organ data. A parallax image group indicating a part excluding such an organ may be generated by performing rendering processing on the image. As a result, even when the observer cannot designate with high accuracy in the operable region, the observer causes the display unit 132 to display a stereoscopic image of only a desired organ, a stereoscopic image of a portion excluding only the desired organ, or the like. be able to.

[操作デバイス]
また、上記実施形態においては、立体画像に対する各種操作が観察者の手によって行われる場合を例に挙げて説明した。具体的には、カメラ137によって観察者の手の位置変動を検知することで、立体画像に対する操作内容を判定する例を説明した。しかし、立体画像に対して各種操作を行うのは、観察者の手に限られない。例えば、観察者は、図15に例示したような操作デバイスを用いて、立体画像に対して各種操作を行ってもよい。図15に例示した操作デバイス150は、各種ボタン151〜154が設けられる。ボタン151及び152は、例えば、回転、拡大、縮小、切断、削除、着色、不透過度等のいずれを変更するかを受け付ける。また、ボタン153及び154は、例えば、立体画像の回転量、拡大率、縮小率、不透過度等の設定を受け付ける。このような操作デバイス150は、操作可能領域内における位置を取得できる位置センサを有してもよく、位置センサによって取得された操作可能領域内における位置情報をワークステーション130に送信してもよい。かかる場合には、表示部132は、カメラ137を有しなくてもよい。
[Operation device]
Moreover, in the said embodiment, the case where various operation with respect to a stereo image was performed by the observer's hand was mentioned as an example, and was demonstrated. Specifically, the example in which the operation content for the stereoscopic image is determined by detecting the position change of the observer's hand with the camera 137 has been described. However, performing various operations on the stereoscopic image is not limited to the hand of the observer. For example, the observer may perform various operations on the stereoscopic image using the operation device illustrated in FIG. The operation device 150 illustrated in FIG. 15 is provided with various buttons 151 to 154. The buttons 151 and 152 accept, for example, which one of rotation, enlargement, reduction, cutting, deletion, coloring, opacity, etc. is changed. The buttons 153 and 154 accept settings such as the amount of rotation of a stereoscopic image, an enlargement rate, a reduction rate, and an opacity, for example. Such an operation device 150 may include a position sensor that can acquire a position in the operable region, and may transmit position information in the operable region acquired by the position sensor to the workstation 130. In such a case, the display unit 132 may not have the camera 137.

[処理主体]
また、上記実施形態においては、ワークステーション130が立体画像に対する各種操作を受け付ける場合を例に挙げて説明した。しかし、実施形態はこれに限られるものではない。例えば、端末装置140が立体画像に対する各種操作を受け付けてもよい。かかる場合には、端末装置140は、図8に示した判定部1351と表示制御部1353と同等の機能を有する。そして、端末装置140は、ワークステーション130によって生成される視差画像群を端末装置140が有する立体表示モニタに表示し、かかる立体表示モニタにて表示される立体画像に対する各種操作を受け付けた場合に、操作内容をワークステーション130に送信することで、操作内容に応じた視差画像群をワークステーション130から取得する。
[Processing entity]
Further, in the above embodiment, the case where the workstation 130 receives various operations on the stereoscopic image has been described as an example. However, the embodiment is not limited to this. For example, the terminal device 140 may accept various operations on a stereoscopic image. In such a case, the terminal device 140 has functions equivalent to the determination unit 1351 and the display control unit 1353 illustrated in FIG. When the terminal device 140 displays the parallax image group generated by the workstation 130 on the stereoscopic display monitor of the terminal device 140 and receives various operations on the stereoscopic image displayed on the stereoscopic display monitor, By transmitting the operation content to the workstation 130, a parallax image group corresponding to the operation content is acquired from the workstation 130.

また、上記例において、端末装置140は、図8に示したレンダリング制御部1352と同等の機能を有してもよい。かかる場合には、端末装置140からボリュームデータを取得し、取得したボリュームデータに対して、図8に示した各処理部と同様の処理を行う。   In the above example, the terminal device 140 may have a function equivalent to the rendering control unit 1352 illustrated in FIG. In such a case, the volume data is acquired from the terminal device 140, and the same processing as each processing unit shown in FIG. 8 is performed on the acquired volume data.

また、上記実施形態において、医用画像診断装置110とワークステーション130とは一体化されてもよい。すなわち、医用画像診断装置110が、制御部135と同等の機能を有してもよい。   In the above embodiment, the medical image diagnostic apparatus 110 and the workstation 130 may be integrated. That is, the medical image diagnostic apparatus 110 may have a function equivalent to that of the control unit 135.

[システム構成]
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上述文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[System configuration]
In addition, among the processes described in the above embodiment, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, control procedures, specific names, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、ワークステーション130の制御部135をワークステーション130の外部装置としてネットワーク経由で接続するようにしてもよい。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration may be functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the control unit 135 of the workstation 130 may be connected as an external device of the workstation 130 via a network.

[プログラム]
また、上記実施形態におけるワークステーション130が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。例えば、かかるプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD、ブルーレイ等に記録される。また、かかるプログラムは、インターネットなどのネットワークを介して配布することもできる。
[program]
It is also possible to create a program in which the processing executed by the workstation 130 in the above embodiment is described in a language that can be executed by a computer. In this case, the same effect as the above-described embodiment can be obtained by the computer executing the program. Further, such a program may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer and executed to execute the same processing as in the above embodiment. For example, such a program is recorded on a hard disk, flexible disk (FD), CD-ROM, MO, DVD, Blu-ray or the like. Such a program can also be distributed via a network such as the Internet.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 画像処理システム
110 医用画像診断装置
120 画像保管装置
130 ワークステーション
132 表示部
135 制御部
136 レンダリング処理部
137 カメラ
140 端末装置
1351 判定部
1352 レンダリング制御部
1353 表示制御部
DESCRIPTION OF SYMBOLS 1 Image processing system 110 Medical image diagnostic apparatus 120 Image storage apparatus 130 Workstation 132 Display part 135 Control part 136 Rendering process part 137 Camera 140 Terminal apparatus 1351 Judgment part 1352 Rendering control part 1353 Display control part

Claims (4)

3次元の医用画像データであるボリュームデータから生成された視差画像群を用いて立体視可能な立体画像を表示する立体表示装置と、
前記立体表示装置によって立体画像が表示されている空間である立体画像空間の座標系が存在する実空間における所定の移動物体の位置変動から前記立体画像空間における該移動物体の位置変動を識別し、識別した位置変動に基づいて前記立体画像に対する操作内容を判定する判定部と、
前記判定部によって判定された操作内容に従って、前記ボリュームデータに対してレンダリング処理を行うことにより視差画像群を新たに生成するレンダリング処理部と
を備えたことを特徴とする画像処理システム。
A stereoscopic display device that displays a stereoscopically viewable stereoscopic image using a parallax image group generated from volume data that is three-dimensional medical image data;
Identifying the position variation of the moving object in the three-dimensional image space from the position variation of the predetermined moving object in the real space where the coordinate system of the three-dimensional image space, which is the space where the three-dimensional image is displayed by the three-dimensional display device, A determination unit that determines an operation content for the stereoscopic image based on the identified positional variation;
An image processing system comprising: a rendering processing unit that newly generates a parallax image group by performing a rendering process on the volume data in accordance with the operation content determined by the determination unit.
3次元の医用画像データであるボリュームデータから生成された視差画像群を用いて立体視可能な立体画像を表示する立体表示装置と、
前記立体表示装置によって立体画像が表示されている空間である立体画像空間の座標系が存在する実空間における所定の移動物体の位置変動から前記立体画像空間における該移動物体の位置変動を識別し、識別した位置変動に基づいて前記立体画像に対する操作内容を判定する判定部と、
前記判定部によって判定された操作内容に従って、前記ボリュームデータに対してレンダリング処理を行うことにより視差画像群を新たに生成するレンダリング処理部と
を備えたことを特徴とする画像処理装置。
A stereoscopic display device that displays a stereoscopically viewable stereoscopic image using a parallax image group generated from volume data that is three-dimensional medical image data;
Identifying the position variation of the moving object in the three-dimensional image space from the position variation of the predetermined moving object in the real space where the coordinate system of the three-dimensional image space, which is the space where the three-dimensional image is displayed by the three-dimensional display device, A determination unit that determines an operation content for the stereoscopic image based on the identified positional variation;
An image processing apparatus comprising: a rendering processing unit that newly generates a parallax image group by performing a rendering process on the volume data in accordance with the operation content determined by the determination unit.
3次元の医用画像データであるボリュームデータから生成された視差画像群を用いて立体視可能な立体画像を表示する立体表示装置を有する画像処理システムによる画像処理方法であって、
前記立体表示装置によって立体画像が表示されている空間である立体画像空間の座標系が存在する実空間における所定の移動物体の位置変動から前記立体画像空間における該移動物体の位置変動を識別し、識別した位置変動に基づいて前記立体画像に対する操作内容を判定する判定工程と、
前記判定工程によって判定された操作内容に従って、前記ボリュームデータに対してレンダリング処理を行うことにより視差画像群を新たに生成するレンダリング処理工程と
を含んだことを特徴とする画像処理方法。
An image processing method by an image processing system having a stereoscopic display device that displays a stereoscopically viewable stereoscopic image using a parallax image group generated from volume data that is three-dimensional medical image data,
Identifying the position variation of the moving object in the three-dimensional image space from the position variation of the predetermined moving object in the real space where the coordinate system of the three-dimensional image space, which is the space where the three-dimensional image is displayed by the three-dimensional display device, A determination step of determining an operation content for the stereoscopic image based on the identified position variation;
A rendering process step of newly generating a parallax image group by performing a rendering process on the volume data in accordance with the operation content determined in the determination step.
3次元の医用画像データであるボリュームデータから生成された視差画像群を用いて立体視可能な立体画像を表示する立体表示装置と、
前記立体表示装置によって立体画像が表示されている空間である立体画像空間の座標系が存在する実空間における所定の移動物体の位置変動から前記立体画像空間における該移動物体の位置変動を識別し、識別した位置変動に基づいて前記立体画像に対する操作内容を判定する判定部と、
前記判定部によって判定された操作内容に従って、前記ボリュームデータに対してレンダリング処理を行うことにより視差画像群を新たに生成するレンダリング処理部と
を備えたことを特徴とする医用画像診断装置。
A stereoscopic display device that displays a stereoscopically viewable stereoscopic image using a parallax image group generated from volume data that is three-dimensional medical image data;
Identifying the position variation of the moving object in the three-dimensional image space from the position variation of the predetermined moving object in the real space where the coordinate system of the three-dimensional image space, which is the space where the three-dimensional image is displayed by the three-dimensional display device, A determination unit that determines an operation content for the stereoscopic image based on the identified positional variation;
A medical image diagnostic apparatus comprising: a rendering processing unit that newly generates a parallax image group by performing a rendering process on the volume data in accordance with the operation content determined by the determination unit.
JP2012281718A 2012-12-25 2012-12-25 Image processing system, apparatus, method, and medical image diagnostic apparatus Expired - Fee Related JP5974238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012281718A JP5974238B2 (en) 2012-12-25 2012-12-25 Image processing system, apparatus, method, and medical image diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012281718A JP5974238B2 (en) 2012-12-25 2012-12-25 Image processing system, apparatus, method, and medical image diagnostic apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011151732A Division JP2013017577A (en) 2011-07-08 2011-07-08 Image processing system, device, method, and medical image diagnostic device

Publications (2)

Publication Number Publication Date
JP2013123227A true JP2013123227A (en) 2013-06-20
JP5974238B2 JP5974238B2 (en) 2016-08-23

Family

ID=48774933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012281718A Expired - Fee Related JP5974238B2 (en) 2012-12-25 2012-12-25 Image processing system, apparatus, method, and medical image diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP5974238B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462971A (en) * 2014-06-25 2017-02-22 皇家飞利浦有限公司 Imaging device for registration of different imaging modalities
JP2018033687A (en) * 2016-08-31 2018-03-08 Psp株式会社 Medical image stereoscopic display processing device and program
WO2023193642A1 (en) * 2022-04-08 2023-10-12 北京字跳网络技术有限公司 Video processing method and apparatus, device and storage medium
JP7432437B2 (en) 2020-04-28 2024-02-16 キヤノンメディカルシステムズ株式会社 Treatment support devices and treatment support programs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
JP2006101329A (en) * 2004-09-30 2006-04-13 Kddi Corp Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium
JP2008219788A (en) * 2007-03-07 2008-09-18 Toshiba Corp Stereoscopic image display device, and method and program therefor
JP2009525058A (en) * 2005-11-30 2009-07-09 ブラッコ イメージング エス.ピー.エー. Method and system for diffusion tensor imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
JP2006101329A (en) * 2004-09-30 2006-04-13 Kddi Corp Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium
JP2009525058A (en) * 2005-11-30 2009-07-09 ブラッコ イメージング エス.ピー.エー. Method and system for diffusion tensor imaging
JP2008219788A (en) * 2007-03-07 2008-09-18 Toshiba Corp Stereoscopic image display device, and method and program therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462971A (en) * 2014-06-25 2017-02-22 皇家飞利浦有限公司 Imaging device for registration of different imaging modalities
JP2017518826A (en) * 2014-06-25 2017-07-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Imaging equipment for registration of different imaging modalities
US10535149B2 (en) 2014-06-25 2020-01-14 Koninklijke Philips N.V. Imaging device for registration of different imaging modalities
CN106462971B (en) * 2014-06-25 2021-01-26 皇家飞利浦有限公司 Imaging device for registering different imaging modalities
JP2018033687A (en) * 2016-08-31 2018-03-08 Psp株式会社 Medical image stereoscopic display processing device and program
JP7432437B2 (en) 2020-04-28 2024-02-16 キヤノンメディカルシステムズ株式会社 Treatment support devices and treatment support programs
WO2023193642A1 (en) * 2022-04-08 2023-10-12 北京字跳网络技术有限公司 Video processing method and apparatus, device and storage medium

Also Published As

Publication number Publication date
JP5974238B2 (en) 2016-08-23

Similar Documents

Publication Publication Date Title
JP6058290B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP2013017577A (en) Image processing system, device, method, and medical image diagnostic device
JP6211764B2 (en) Image processing system and method
JP5808146B2 (en) Image processing system, apparatus and method
JP5909055B2 (en) Image processing system, apparatus, method and program
JP6058306B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5306422B2 (en) Image display system, apparatus, method, and medical image diagnostic apparatus
US10417808B2 (en) Image processing system, image processing apparatus, and image processing method
JP5818531B2 (en) Image processing system, apparatus and method
JP6147464B2 (en) Image processing system, terminal device and method
JP2015006327A (en) Medical image processing device
JP5797485B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5974238B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP6017124B2 (en) Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program
JP5832990B2 (en) Image display system
JP6104982B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP2012244420A (en) Image processing system, device, and method
JP2013017056A (en) Image processing system, image processing method, and medical image diagnostic device
JP5974235B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP5835975B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5868051B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP2013013552A (en) Medical image diagnostic apparatus, and medical image processing device and method
JP2013022247A (en) Image processing system, device and method, and medical image diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150417

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160308

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160519

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160608

R150 Certificate of patent or registration of utility model

Ref document number: 5974238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees