WO2012137821A1 - 画像処理システム、装置、方法及びプログラム - Google Patents

画像処理システム、装置、方法及びプログラム Download PDF

Info

Publication number
WO2012137821A1
WO2012137821A1 PCT/JP2012/059200 JP2012059200W WO2012137821A1 WO 2012137821 A1 WO2012137821 A1 WO 2012137821A1 JP 2012059200 W JP2012059200 W JP 2012059200W WO 2012137821 A1 WO2012137821 A1 WO 2012137821A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
control unit
unit
rendering
Prior art date
Application number
PCT/JP2012/059200
Other languages
English (en)
French (fr)
Inventor
塚越 伸介
智司 若井
快行 爰島
豪 椋本
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN2012800005659A priority Critical patent/CN102821695A/zh
Publication of WO2012137821A1 publication Critical patent/WO2012137821A1/ja
Priority to US14/039,936 priority patent/US9445082B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Definitions

  • Embodiments described herein relate generally to an image processing system, an apparatus, a method, and a program.
  • a monitor capable of stereoscopically viewing a two-parallax image taken from two viewpoints using a dedicated device such as stereoscopic glasses has been put into practical use.
  • monitors that can stereoscopically view multi-parallax images (for example, 9 parallax images) taken from a plurality of viewpoints using a light beam controller such as a lenticular lens have been put into practical use.
  • a 2-parallax image or a 9-parallax image displayed on a stereoscopically viewable monitor may be generated by estimating the depth information of an image taken from one viewpoint and performing image processing using the estimated information. .
  • volume data three-dimensional medical image data
  • X-ray CT Computed Tomography
  • MRI Magnetic Resonance Imaging
  • ultrasonic diagnostic apparatuses apparatuses capable of generating three-dimensional medical image data (hereinafter referred to as volume data) are practical. It has become. From the volume data generated by the medical image diagnostic apparatus, a volume rendering image (parallax image) having an arbitrary number of parallaxes can be generated at an arbitrary parallax angle. In view of this, it has been studied to display a two-dimensional volume rendering image generated from volume data in a stereoscopic manner on a stereoscopically visible monitor that has recently been put into practical use.
  • the problem to be solved by the present invention is to provide an image processing system, apparatus, method, and program capable of reducing the processing load required to generate a stereoscopic image from three-dimensional medical image data. It is.
  • the image processing system includes a stereoscopic display device and an image processing device.
  • the stereoscopic display device is a device capable of displaying a stereoscopic image configured using parallax images having a predetermined number of parallaxes.
  • the image processing apparatus includes: a rendering processing unit that performs rendering processing on volume data that is three-dimensional medical image data; and the rendering processing unit that generates a parallax image group having a predetermined number of parallaxes or more from the volume data.
  • a rendering process control unit to be controlled; and a storage control unit that stores the parallax image group generated by the rendering process unit in a storage unit.
  • the stereoscopic display device displays a stereoscopic image configured by selecting a parallax image having the predetermined number of parallaxes from the parallax image group stored in the storage unit.
  • FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.
  • FIG. 2A is a diagram (1) illustrating an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images.
  • FIG. 2B is a diagram (2) illustrating an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images.
  • FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images.
  • FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment.
  • FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. FIG.
  • FIG. 6A is a diagram (1) for explaining an example of the volume rendering process according to the first embodiment.
  • FIG. 6B is a diagram (2) for explaining an example of the volume rendering process according to the first embodiment.
  • FIG. 6C is a diagram (3) for explaining an example of the volume rendering process according to the first embodiment.
  • FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment.
  • FIG. 8A is a diagram (1) for explaining the rendering process executed under the first graphic condition and the first image number condition.
  • FIG. 8B is a diagram (2) for explaining the rendering process executed under the first graphic condition and the first image number condition.
  • FIG. 8C is a diagram (3) for explaining the rendering process executed under the first graphic condition and the first image number condition.
  • FIG. 8A is a diagram (1) for explaining the rendering process executed under the first graphic condition and the first image number condition.
  • FIG. 8B is a diagram (2) for explaining the rendering process executed under the first graphic condition and the first image number condition.
  • FIG. 8C is
  • FIG. 9A is a diagram (1) for explaining the rendering process executed under the first graphic condition and the second image number condition.
  • FIG. 9B is a diagram (2) for explaining the rendering process executed under the first graphic condition and the second image number condition.
  • FIG. 10 is a diagram (3) for explaining the rendering process executed under the first graphic condition and the second image number condition.
  • FIG. 11A is a diagram (1) for explaining a modification of the first graphic condition.
  • FIG. 11B is a diagram (2) for explaining a modification of the first graphic condition.
  • FIG. 11C is a diagram (3) for explaining a modified example of the first graphic condition.
  • FIG. 12 is a diagram (1) for explaining the display control in the terminal device.
  • FIG. 13 is a diagram (2) for explaining the display control in the terminal device.
  • FIG. 14 is a diagram (3) for explaining the display control in the terminal device.
  • FIG. 15 is a diagram for explaining the second graphic condition.
  • FIG. 16 is a diagram for explaining image storage processing of the image processing system according to the first embodiment.
  • FIG. 17 is a diagram for explaining image display processing of the image processing system according to the first embodiment.
  • FIG. 18A is a diagram (1) for explaining the first modification according to the first embodiment.
  • FIG. 18B is a diagram (2) for explaining the first modified example according to the first embodiment.
  • FIG. 19A is a diagram (1) for explaining the second modified example according to the first embodiment.
  • FIG. 19B is a diagram (2) for explaining the second modified example according to the first embodiment.
  • FIG. 20 is a diagram for explaining a third modification example according to the first embodiment.
  • FIG. 21A is a diagram (1) for explaining a private tag attached to moving image data.
  • FIG. 21B is a diagram (2) for explaining private tags attached to the moving image data.
  • FIG. 22 is a diagram (3) for explaining a private tag attached to moving image data.
  • FIG. 23 is a diagram (4) for explaining private tags attached to the moving image data.
  • FIG. 24 is a diagram (1) for explaining incidental information compliant with the DICOM standard assigned to moving image data.
  • FIG. 25 is a diagram (2) for explaining incidental information compliant with the DICOM standard assigned to moving image data.
  • FIG. 26 is a diagram for explaining image display processing of the image processing system according to the second embodiment.
  • FIG. 27A is a diagram (1) for explaining a private tag attached to moving image data in the modification according to the second embodiment.
  • FIG. 27B is a diagram (2) illustrating a private tag attached to the moving image data in the modification example according to the second embodiment.
  • FIG. 28 is a diagram for explaining incidental information compliant with the DICOM standard attached
  • a “parallax image” is an individual image constituting a “stereoscopic image”. That is, the “stereoscopic image” is composed of a plurality of “parallax images” having different “parallax angles”.
  • the “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor.
  • the “parallax angle” is an angle determined by the interval between the positions of the viewpoints set for generating the “stereoscopic image” and the position of the volume data.
  • the “9 parallax image” described below is a “stereoscopic image” composed of nine “parallax images”.
  • a “two-parallax image” described below is a “stereoscopic image” composed of two “parallax images”.
  • FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.
  • the image processing system 1 includes a medical image diagnostic apparatus 110, an image storage apparatus 120, a workstation 130, and a terminal apparatus 140.
  • Each device illustrated in FIG. 1 is in a state where it can communicate with each other directly or indirectly by, for example, an in-hospital LAN (Local Area Network) 2 installed in a hospital.
  • an in-hospital LAN Local Area Network
  • PACS Picture Archiving and Communication System
  • each apparatus transmits and receives medical images and the like according to the DICOM (Digital Imaging and Communications in Medicine) standard.
  • DICOM Digital Imaging and Communications in Medicine
  • the image processing system 1 is configured by generating a parallax image group that can be used as a stereoscopic image from volume data that is three-dimensional medical image data generated by the medical image diagnostic apparatus 110, and selecting the parallax image group from the parallax image group.
  • a medical image that can be stereoscopically viewed is provided to doctors and laboratory technicians working in the hospital.
  • the stereoscopic image is generally a plurality of images with different parallax angles taken from a plurality of viewpoints.
  • the workstation 130 performs various image processes on the volume data to generate a parallax image group.
  • the workstation 130 and the terminal device 140 each have a stereoscopic monitor, and a stereoscopic image configured by selecting from a parallax image group generated by the workstation 130 is selected. Display on this monitor.
  • the image storage device 120 stores the volume data generated by the medical image diagnostic device 110 and the parallax image group generated by the workstation 130.
  • the workstation 130 and the terminal device 140 acquire volume data and a parallax image group from the image storage device 120, process them, and display them on a monitor.
  • each device will be described in order.
  • the medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission computed Tomography). ) Apparatus, a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses. Further, the medical image diagnostic apparatus 110 according to the first embodiment can generate three-dimensional medical image data (volume data).
  • the medical image diagnostic apparatus 110 generates volume data by imaging a subject.
  • the medical image diagnostic apparatus 110 collects data such as projection data and MR signals by photographing the subject, and uses the collected data to obtain medical images of a plurality of axial surfaces along the body axis direction of the subject.
  • Volume data is generated by reconfiguration.
  • the medical image diagnostic apparatus 110 reconstructs 500 axial medical images.
  • the 500 medical image groups on the axial plane serve as volume data.
  • the projection data of the subject imaged by the medical image diagnostic apparatus 110, the MR signal, or the like may be used as the volume data.
  • the medical image diagnostic apparatus 110 transmits the generated volume data to the image storage apparatus 120.
  • the medical image diagnostic apparatus 110 identifies, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and the medical image diagnostic apparatus 110 as supplementary information when transmitting volume data to the image storage apparatus 120.
  • a device ID, a series ID for identifying one shot by the medical image diagnostic device 110, and the like are transmitted.
  • the image storage device 120 is a database that stores medical images. Specifically, the image storage device 120 according to the first embodiment stores the volume data transmitted from the medical image diagnostic device 110 in a storage unit and stores it. In the first embodiment, the workstation 130 generates a parallax image group from the volume data, and transmits the generated parallax image group to the image storage device 120. The image storage device 120 stores the parallax image group transmitted from the workstation 130 in the storage unit and stores it. In the present embodiment, the workstation 130 illustrated in FIG. 1 and the image storage device 120 may be integrated by using the workstation 130 that can store a large-capacity image. That is, this embodiment may be a case where volume data or a parallax image group is stored in the workstation 130 itself.
  • the volume data and the parallax image group stored in the image storage device 120 are stored in association with the patient ID, examination ID, device ID, series ID, and the like.
  • the workstation 130 and the terminal device 140 store images of volume data and parallax images required by the operator by performing a search using the patient ID, examination ID, device ID, series ID, etc. input by the operator. Obtained from the device 120.
  • the workstation 130 is an image processing apparatus that performs image processing on medical images. Specifically, the workstation 130 according to the first embodiment performs various rendering processes on the volume data acquired from the image storage device 120 to generate a parallax image group.
  • the parallax image group is a plurality of images having different parallax angles. For example, nine parallax images displayed on a monitor capable of stereoscopically viewing nine parallax images with naked eyes are nine images having different parallax angles. An image (parallax image).
  • the workstation 130 has a monitor (hereinafter referred to as a stereoscopic display monitor) capable of stereoscopic viewing as a display unit.
  • the workstation 130 generates a parallax image group and displays the generated parallax image group on the stereoscopic display monitor.
  • the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically visible medical image displayed on the stereoscopic display monitor.
  • the workstation 130 transmits the generated parallax image group to the image storage device 120.
  • the workstation 130 transmits, for example, a patient ID, an examination ID, a device ID, a series ID, and the like as incidental information.
  • the incidental information transmitted when transmitting the parallax image group to the image storage device 120 includes incidental information regarding the parallax image group.
  • the incidental information regarding the parallax image group includes the number of parallax images (for example, “9”), the resolution of the parallax images (for example, “466 ⁇ 350 pixels”), and the like.
  • the terminal device 140 is a device for allowing a doctor or laboratory technician working in a hospital to view a medical image.
  • the terminal device 140 is a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or laboratory technician working in a hospital.
  • the terminal device 140 according to the first embodiment includes a stereoscopic display monitor as a display unit.
  • the terminal device 140 acquires a parallax image group from the image storage device 120, and displays the acquired parallax image group or a stereoscopic image selected and selected from the acquired parallax image group on the stereoscopic display monitor.
  • a doctor or laboratory technician who is an observer can view a medical image that can be viewed stereoscopically.
  • a general-purpose monitor that is most popular at present displays a two-dimensional image in two dimensions, and cannot display a two-dimensional image in three dimensions. If an observer requests stereoscopic viewing on a general-purpose monitor, an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there.
  • an apparatus that outputs an image to a general-purpose monitor for example, uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.
  • a stereoscopic display monitor there is a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image (also referred to as a binocular parallax image) by using dedicated equipment such as stereoscopic glasses.
  • FIGS. 2A and 2B are diagrams for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images.
  • An example shown in FIGS. 2A and 2B is a stereoscopic display monitor that performs stereoscopic display by a shutter method, and shutter glasses are used as stereoscopic glasses worn by an observer who observes the monitor.
  • Such a stereoscopic display monitor emits two parallax images alternately on the monitor.
  • the monitor shown in FIG. 2A alternately emits a left-eye image and a right-eye image at 120 Hz.
  • the monitor is provided with an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing at which the image is switched.
  • the infrared light emitted from the infrared light emitting unit is received by the infrared light receiving unit of the shutter glasses shown in FIG. 2A.
  • a shutter is attached to each of the left and right frames of the shutter glasses, and the shutter glasses alternately switch the transmission state and the light shielding state of the left and right shutters according to the timing when the infrared light receiving unit receives the infrared rays.
  • the switching process between the transmission state and the light shielding state in the shutter will be described.
  • each shutter has an incident-side polarizing plate and an output-side polarizing plate, and further has a liquid crystal phase between the incident-side polarizing plate and the output-side polarizing plate.
  • the incident-side polarizing plate and the outgoing-side polarizing plate are orthogonal to each other.
  • the light passing through the incident-side polarizing plate is rotated 90 degrees by the action of the liquid crystal layer, and the outgoing-side polarizing plate is To Penetrate. That is, a shutter to which no voltage is applied is in a transmissive state.
  • the infrared emitting unit emits infrared rays while the image for the left eye is displayed on the monitor.
  • the infrared light receiving unit applies a voltage to the right-eye shutter without applying a voltage to the left-eye shutter during a period of receiving the infrared light.
  • the right-eye shutter is in a light-shielding state and the left-eye shutter is in a transmissive state, so that an image for the left eye enters the left eye of the observer.
  • the infrared ray emitting unit stops emitting infrared rays while the right-eye image is displayed on the monitor.
  • the infrared light receiving unit applies a voltage to the left-eye shutter without applying a voltage to the right-eye shutter during a period in which no infrared light is received. Accordingly, the left-eye shutter is in a light-shielding state and the right-eye shutter is in a transmissive state, so that an image for the right eye enters the right eye of the observer.
  • the stereoscopic display monitor illustrated in FIGS. 2A and 2B displays an image that can be viewed stereoscopically by the observer by switching the image displayed on the monitor and the state of the shutter in conjunction with each other.
  • a monitor adopting a polarized glasses method is also known in addition to the shutter method described above.
  • a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens.
  • a light controller such as a lenticular lens.
  • Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.
  • FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display with nine parallax images.
  • a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel.
  • a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller.
  • the vertical lenticular sheet 201 is pasted so that the convex portion of the vertical lenticular sheet 201 becomes the front surface, but the convex portion of the vertical lenticular sheet 201 is pasted so as to face the display surface 200. There may be.
  • the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels, red (R), green (G), and blue (B), are arranged in the vertical direction. 202 are arranged in a matrix.
  • the stereoscopic display monitor shown in FIG. 3 converts a nine-parallax image composed of nine images into an intermediate image arranged in a predetermined format (for example, a lattice shape), and then outputs it to the display surface 200. That is, the stereoscopic display monitor shown in FIG. 3 assigns and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202. As shown in FIG. 3, the nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images having different parallax angles.
  • the nine-parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201.
  • an LED Light Emitting Diode
  • the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position). That is, the parallax angle between the parallax image incident on the right eye and the parallax image incident on the left eye differs depending on the viewing angle of the observer.
  • the observer can visually recognize the photographing object in three dimensions at each of the nine positions shown in FIG. 3, for example.
  • the observer can view the image three-dimensionally in a state of facing the object to be imaged at the position “5” shown in FIG. 3, and at each position other than “5” shown in FIG. It can be visually recognized in a three-dimensional manner with the direction of the object changed.
  • the stereoscopic display monitor shown in FIG. 3 is merely an example.
  • the stereoscopic display monitor that displays a nine-parallax image may be a horizontal stripe liquid crystal of “RRR..., GGG..., BBB. .. ”” May be used.
  • the stereoscopic display monitor shown in FIG. 3 may be a vertical lens system in which the lenticular sheet is vertical as shown in FIG. 3 or a diagonal lens system in which the lenticular sheet is diagonal. There may be.
  • the configuration example of the image processing system 1 according to the first embodiment has been briefly described.
  • the image processing system 1 described above is not limited to the case where PACS is introduced.
  • the image processing system 1 may be a case where an electronic medical chart system that manages an electronic medical chart to which a medical image is attached is introduced.
  • the image storage device 120 is a database that stores electronic medical records.
  • the image processing system 1 may be a case where HIS (Hospital Information System) and RIS (Radiology Information System) are introduced.
  • HIS Hospital Information System
  • RIS Radiology Information System
  • the image processing system 1 is not limited to the configuration example described above. The functions and sharing of each device may be changed as appropriate according to the form of operation.
  • FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment.
  • the “stereoscopic image” is a group of stereoscopic images generated by performing volume rendering processing on volume data.
  • the “parallax image” is an individual image constituting the “stereoscopic image”. That is, the “stereoscopic image” is composed of a plurality of “parallax images” having different “parallax angles”.
  • the “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor.
  • the “parallax angle” is an angle determined by the interval between the positions of the viewpoints set for generating the “stereoscopic image” and the position of the volume data.
  • the “9 parallax image” described below is a “stereoscopic image” composed of nine “parallax images”.
  • a “two-parallax image” described below is a “stereoscopic image” composed of two “parallax images”.
  • the workstation 130 is a high-performance computer suitable for image processing and the like, and as illustrated in FIG. 4, an input unit 131, a display unit 132, a communication unit 133, and a storage unit 134. And a control unit 135 and a rendering processing unit 136.
  • the input unit 131 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the workstation 130 from the operator. Specifically, the input unit 131 according to the first embodiment receives input of information for acquiring volume data to be subjected to rendering processing from the image storage device 120. For example, the input unit 131 receives input of a patient ID, an examination ID, a device ID, a series ID, and the like. Further, the input unit 131 according to the first embodiment receives an input of a condition regarding rendering processing (hereinafter, rendering condition).
  • rendering condition a condition regarding rendering processing
  • the display unit 132 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various types of information. Specifically, the display unit 132 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a stereoscopic image, and the like.
  • GUI Graphic User Interface
  • the display unit 132 is the stereoscopic display monitor described with reference to FIG. 2 (hereinafter referred to as a 2-parallax monitor) or the stereoscopic display monitor described with reference to FIG. 5 (hereinafter referred to as a 9-parallax monitor). is there. Below, the case where the display part 132 is a 9 parallax monitor is demonstrated.
  • the communication unit 133 is a NIC (Network Interface Card) or the like, and communicates with other devices.
  • NIC Network Interface Card
  • the storage unit 134 is a hard disk, a semiconductor memory element, or the like, and stores various information. Specifically, the storage unit 134 according to the first embodiment stores volume data acquired from the image storage device 120 via the communication unit 133. In addition, the storage unit 134 according to the first embodiment stores volume data during rendering processing, stereoscopic images that have undergone rendering processing, and the like.
  • the control unit 135 is an integrated circuit such as an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the entire workstation 130. Take control.
  • a CPU Central Processing Unit
  • MPU Micro Processing Unit
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • control unit 135 controls the display of the GUI and the display of the parallax image group on the display unit 132.
  • the control unit 135 controls transmission / reception of volume data and a parallax image group performed with the image storage device 120 via the communication unit 133.
  • the control unit 135 controls the rendering process performed by the rendering processing unit 136.
  • the control unit 135 controls reading of volume data from the storage unit 134 and storage of the parallax image group in the storage unit 134.
  • the rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135, and generates a parallax image group. Specifically, the rendering processing unit 136 according to the first embodiment reads volume data from the storage unit 134 and first performs preprocessing on the volume data. Next, the rendering processing unit 136 performs volume rendering processing on the pre-processed volume data to generate a parallax image group. Subsequently, the rendering processing unit 136 generates a two-dimensional image in which various kinds of information (scale, patient name, examination item, etc.) are drawn, and superimposes it on each of the parallax image groups, thereby outputting 2 for output. Generate a dimensional image.
  • the rendering processing unit 136 stores the generated parallax image group and the output two-dimensional image in the storage unit 134.
  • the rendering process is the entire image process performed on the volume data, and the volume rendering process is a two-dimensional image (3D information reflecting three-dimensional information in the rendering process). (Volume rendering image) is generated.
  • FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG.
  • the rendering processing unit 136 includes a preprocessing unit 1361, a 3D image processing unit 1362, and a 2D image processing unit 1363.
  • the preprocessing unit 1361 performs preprocessing on the volume data.
  • the three-dimensional image processing unit 1362 generates a parallax image group from the preprocessed volume data.
  • the two-dimensional image processing unit 1363 generates a two-dimensional image for output in which various information is superimposed on the stereoscopic image.
  • each part is demonstrated in order.
  • the preprocessing unit 1361 is a processing unit that performs various types of preprocessing when rendering processing is performed on volume data, and includes an image correction processing unit 1361a, a three-dimensional object fusion unit 1361e, and a three-dimensional object display area setting. Part 1361f.
  • the image correction processing unit 1361a is a processing unit that performs image correction processing when processing two types of volume data as one volume data, and as shown in FIG. 5, a distortion correction processing unit 1361b, a body motion correction processing unit, 1361c and an inter-image registration processing unit 1361d.
  • the image correction processing unit 1361a performs image correction processing when processing volume data of the PET image and volume data of the X-ray CT image generated by the PET-CT apparatus as one volume data.
  • the image correction processing unit 1361a performs image correction processing when processing the volume data of the T1-weighted image and the volume data of the T2-weighted image generated by the MRI apparatus as one volume data.
  • the distortion correction processing unit 1361b corrects the data distortion caused by the collection condition when the medical image diagnostic apparatus 110 collects data in each volume data. Further, the body motion correction processing unit 1361c corrects the movement caused by the body motion of the subject at the time of collecting the data used for generating the individual volume data. Further, the inter-image registration processing unit 1361d performs registration (Registration) using, for example, a cross-correlation method between the two volume data subjected to the correction processing by the distortion correction processing unit 1361b and the body motion correction processing unit 1361c. ).
  • the three-dimensional object fusion unit 1363e fuses a plurality of volume data that has been aligned by the inter-image registration processing unit 1361d. Note that the processing of the image correction processing unit 1361a and the three-dimensional object fusion unit 1361e is omitted when rendering processing is performed on single volume data.
  • the three-dimensional object display area setting unit 1361f is a processing unit that sets a display area corresponding to a display target organ designated by the operator, and includes a segmentation processing unit 1361g.
  • the segmentation processing unit 1361g is a processing unit that extracts organs such as the heart, lungs, and blood vessels designated by the operator by, for example, a region expansion method based on pixel values (voxel values) of volume data.
  • segmentation processing unit 1361 g does not perform the segmentation processing when the display target organ is not designated by the operator.
  • the segmentation processing unit 1361g extracts a plurality of corresponding organs when a plurality of display target organs are designated by the operator. Further, the processing of the segmentation processing unit 1361g may be executed again in response to an operator fine adjustment request referring to the rendered image.
  • the 3D image processing unit 1362 performs volume rendering processing on the pre-processed volume data processed by the preprocessing unit 1361.
  • a three-dimensional image processing unit 1362 includes a projection method setting unit 1362a, a three-dimensional geometric transformation processing unit 1362b, a three-dimensional object appearance processing unit 1362f, and a three-dimensional virtual space rendering unit 1362k.
  • Projection method setting unit 1362a determines a projection method for generating a parallax image group. For example, the projection method setting unit 1362a determines whether to execute the volume rendering process by the parallel projection method or the perspective projection method.
  • the three-dimensional geometric transformation processing unit 1362b is a processing unit that determines information for transforming volume data on which volume rendering processing is performed into a three-dimensional geometrical structure.
  • the three-dimensional geometric transformation processing unit 1362b includes a parallel movement processing unit 1362c, a rotation processing unit 1362d, and an enlargement unit.
  • a reduction processing unit 1362e is included.
  • the parallel movement processing unit 1362c is a processing unit that determines the amount of movement to translate the volume data when the viewpoint position when performing the volume rendering processing is translated, and the rotation processing unit 1362d performs the volume rendering processing. This is a processing unit that determines the amount of movement by which the volume data is rotationally moved when the viewpoint position during the rotation is rotationally moved.
  • the enlargement / reduction processing unit 1362e is a processing unit that determines an enlargement rate or reduction rate of volume data when enlargement or reduction of a stereoscopic image is requested.
  • the 3D object appearance processing unit 1362f includes a 3D object color processing unit 1362g, a 3D object opacity processing unit 1362h, a 3D object material processing unit 1362i, and a 3D virtual space light source processing unit 1362j.
  • the three-dimensional object appearance processing unit 1362f performs a process of determining the display state of the displayed stereoscopic image in response to an operator's request, for example, using these processing units.
  • the three-dimensional object color processing unit 1362g is a processing unit that determines a color to be colored for each region segmented by the volume data.
  • the three-dimensional object opacity processing unit 1362h is a processing unit that determines the opacity (Opacity) of each voxel constituting each region segmented by volume data. It should be noted that the area behind the area where the opacity is set to “100%” in the volume data is not drawn in the stereoscopic image. In addition, an area in which the opacity is “0%” in the volume data is not drawn in the stereoscopic image.
  • the three-dimensional object material processing unit 1362i is a processing unit that determines the material of each region segmented by volume data and adjusts the texture when this region is rendered.
  • the three-dimensional virtual space light source processing unit 1362j is a processing unit that determines the position of the virtual light source installed in the three-dimensional virtual space and the type of the virtual light source when performing volume rendering processing on the volume data. Examples of the virtual light source include a light source that emits parallel light rays from infinity and a light source that emits radial light rays from the viewpoint.
  • the 3D virtual space rendering unit 1362k performs volume rendering processing on the volume data to generate a parallax image group.
  • the three-dimensional virtual space rendering unit 1362k performs various types of information determined by the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f as necessary when performing the volume rendering process. Is used.
  • the volume rendering processing by the three-dimensional virtual space rendering unit 1362k is performed according to the rendering conditions.
  • the rendering condition is “parallel projection method” or “perspective projection method”.
  • the rendering condition is “reference viewpoint position and parallax angle”.
  • the rendering conditions are “translation of viewpoint position”, “rotation movement of viewpoint position”, “enlargement of stereoscopic image”, and “reduction of stereoscopic image”.
  • the rendering conditions are “color to be colored”, “transparency”, “texture”, “position of virtual light source”, and “type of virtual light source”.
  • Such a rendering condition may be accepted from the operator via the input unit 131 or may be initially set.
  • the three-dimensional virtual space rendering unit 1362k receives a rendering condition from the control unit 135, and performs volume rendering processing on the volume data according to the received rendering condition. Further, when performing the volume rendering process, the above-described projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f determine various pieces of necessary information according to the rendering conditions. The space rendering unit 1362k generates a parallax image group using the determined various pieces of information.
  • FIG. 6A, 6B, and 6C are diagrams for explaining an example of the volume rendering process according to the first embodiment.
  • the three-dimensional virtual space rendering unit 1362k receives the parallel projection method as the rendering condition, and further receives the reference viewpoint position (5) and the parallax angle “1 degree”.
  • the three-dimensional virtual space rendering unit 1362k sets a light source that emits parallel light rays from infinity along the line-of-sight direction.
  • the three-dimensional virtual space rendering unit 1362k translates the position of the viewpoint from (1) to (9) so that the parallax angle is every “1 degree”, and the parallax angle is 1 degree by the parallel projection method.
  • Nine different parallax images are generated.
  • the three-dimensional virtual space rendering unit 1362k receives a perspective projection method as a rendering condition and further receives a reference viewpoint position (5) and a parallax angle “1 degree” as shown in FIG. 6B.
  • the three-dimensional virtual space rendering unit 1362k sets a point light source and a surface light source that radiate light three-dimensionally around the line-of-sight direction at each viewpoint.
  • the three-dimensional virtual space rendering unit 1362k sets the position of the viewpoint (1) to (9) so that the parallax angle is every “one degree” around the center (center of gravity) of the cut surface of the volume data.
  • the viewpoints (1) to (9) may be moved in parallel depending on the rendering conditions.
  • the line-of-sight direction is a direction from the viewpoint toward the center (center of gravity) of the cut surface of the volume data.
  • the three-dimensional virtual space rendering unit 1362k radiates light in a two-dimensional manner centered on the line-of-sight direction and is displayed with respect to the vertical direction of the displayed volume rendered image.
  • the volume rendering process that combines the parallel projection method and the perspective projection method can be performed by setting a light source that irradiates parallel rays from infinity along the viewing direction. Good.
  • the nine parallax images generated in this way are stereoscopic images.
  • nine parallax images are converted into, for example, an intermediate image arranged in a predetermined format (for example, a grid) by the control unit 135 and output to the display unit 132 that is a nine-parallax monitor. Then, the operator of the workstation 130 can perform an operation for generating a stereoscopic image while confirming a stereoscopically viewable medical image displayed on the stereoscopic display monitor.
  • the three-dimensional virtual space rendering unit 1362k generates a parallax image group while reflecting each rendering condition.
  • the 3D virtual space rendering unit 1362k has a function of reconstructing an MPR image from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction) in addition to volume rendering.
  • MPR Multi Planer Reconstruction
  • the three-dimensional virtual space rendering unit 1362k also has a function of performing “Curved MPR” and a function of performing “Intensity Projection”.
  • the parallax image group generated from the volume data by the three-dimensional image processing unit 1362 is an underlay.
  • an overlay (Overlay) on which various types of information (scale, patient name, examination item, etc.) are drawn is superimposed on the underlay, thereby obtaining a two-dimensional image for output.
  • the two-dimensional image processing unit 1363 is a processing unit that generates an output two-dimensional image by performing image processing on the overlay and the underlay. As illustrated in FIG. 3, the two-dimensional object drawing unit 1363 a, A two-dimensional geometric transformation processing unit 1363b and a luminance adjustment unit 1363c are included. For example, the two-dimensional image processing unit 1363 superimposes nine parallax images (underlays) on one overlay in order to reduce the load required for generating a two-dimensional image for output. , Nine output two-dimensional images are generated.
  • the two-dimensional object drawing unit 1363a is a processing unit that draws various information drawn on the overlay, and the two-dimensional geometric transformation processing unit 1363b performs parallel movement processing or rotational movement processing on the position of the various information drawn on the overlay. Or a processing unit that performs an enlargement process or a reduction process of various types of information drawn on the overlay.
  • the luminance adjustment unit 172c is a processing unit that performs luminance conversion processing, for example, for image processing such as gradation of an output destination monitor, window width (WW: Window Width), and window level (WL: Window Level).
  • the processing unit adjusts the brightness of the overlay and underlay according to the parameters.
  • the output two-dimensional image generated by the rendering processing unit 136 is temporarily stored in the storage unit 134 by the control unit 135, for example.
  • the output two-dimensional image generated by the rendering processing unit 136 according to the present embodiment is a stereoscopic two-dimensional image group in which each parallax image is an underlay, and the two-dimensional image group is a parallax image. Become a group.
  • the output two-dimensional image group (parallax image group) is transmitted to the image storage device 120 via the communication unit 133 by the control unit 135, for example.
  • control unit 135 performs control so that, for example, the parallax image group generated by the rendering processing unit 136 is stored in association with the volume data that is the generation source of the parallax image group.
  • the terminal device 140 is a device that allows a doctor or laboratory technician working in a hospital to view a medical image, and the rendering processing unit 136 from the image storage device 120.
  • the generated parallax image group (output two-dimensional image) is acquired.
  • FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment.
  • the terminal device 140 includes an input unit 141, a display unit 142, a communication unit 143, a storage unit 144, a control unit 145, and a two-dimensional image processing unit 146. And have.
  • the input unit 141 is a mouse, a keyboard, a trackball or the like, and receives input of various operations on the terminal device 140 from the operator. Specifically, the input unit 141 according to the first embodiment receives a stereoscopic request from the operator. For example, the input unit 141 accepts input of a patient ID, an examination ID, a device ID, a series ID, and the like for designating volume data for which the operator desires stereoscopic vision as a stereoscopic vision request.
  • the display unit 142 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 142 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a stereoscopic image, and the like.
  • the display unit 142 is the stereoscopic display monitor described with reference to FIG. 2 (hereinafter referred to as a 2-parallax monitor) or the stereoscopic display monitor described with reference to FIG. 5 (hereinafter referred to as a 9-parallax monitor). is there. Below, the case where the display part 142 is a 9 parallax monitor is demonstrated.
  • the communication unit 143 is a NIC (Network Interface Card) or the like, and communicates with other devices. Specifically, the communication unit 143 according to the first embodiment transmits the stereoscopic request received by the input unit 141 to the image storage device 120. In addition, the communication unit 143 according to the first embodiment receives a parallax image group transmitted by the image storage device 120 in response to a stereoscopic request.
  • NIC Network Interface Card
  • the storage unit 144 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 144 according to the first embodiment stores a parallax image group acquired from the image storage device 120 via the communication unit 143. The storage unit 144 also stores incidental information (number of parallaxes, resolution, etc.) of the parallax image group acquired from the image storage device 120 via the communication unit 143.
  • the control unit 145 is an integrated circuit such as an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the entire terminal device 140. Take control.
  • a CPU Central Processing Unit
  • MPU Micro Processing Unit
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • control unit 145 controls transmission / reception of a stereoscopic request and a parallax image group performed with the image storage device 120 via the communication unit 143.
  • control unit 145 controls storage of the parallax image group in the storage unit 144 and reading of the parallax image group from the storage unit 144.
  • control unit 145 controls the display of the GUI and the display of the parallax image group on the display unit 142.
  • the control unit 145 according to the first embodiment converts the stereoscopic image into an intermediate image arranged in a predetermined format (for example, a lattice shape) and displays the converted image on the display unit 142 which is a 9-parallax monitor.
  • control unit 145 controls image processing by the two-dimensional image processing unit 146.
  • the 2D image processing unit 146 has the same function as that of the 2D image processing unit 1363 described with reference to FIG. That is, the two-dimensional image processing unit 146 generates an overlay on the parallax image group as the underlay generated by the three-dimensional image processing unit 1362 and superimposes the two-dimensional image for output to the display unit 142. An image can be generated.
  • the two-dimensional image processing unit 146 has an interpolation function for generating a new parallax image from the two parallax images by interpolation processing using depth information of each of the two parallax images. .
  • the interpolation function of the two-dimensional image processing unit 146 will be described in detail later.
  • the rendering processing unit 136 generates a parallax image group from the volume data under the control of the control unit 135. Further, the terminal device 140 acquires a parallax image group from the image storage device 120 and displays it on the display unit 142. As a result, a doctor or laboratory technician who is an operator of the terminal device 140 can browse a stereoscopically viewable medical image in a state where various information (scale, patient name, examination item, etc.) is drawn.
  • the workstation 130 is required to have high image processing capability.
  • the workstation 130 according to the first embodiment performs rendering processing control of the control unit 135 so as to reduce the processing load required to generate a stereoscopic image from three-dimensional medical image data. It is.
  • the workstation 130 according to the first embodiment has an image group (parallax) equal to or greater than the number of parallaxes required for the rendering processing unit 136 to perform stereoscopic viewing on a predetermined stereoscopic monitor under the control of the control unit 135.
  • Image group is generated from the volume data.
  • the control unit 135 performs control so that the parallax image group generated by the rendering processing unit 136 is stored in the image storage device 120.
  • the stereoscopic monitor (for example, the display unit 142) is a stereoscopic image (for example, nine-parallax image) configured by selecting a parallax image having the number of parallaxes from the parallax image group stored in the image storage device 120. Is displayed.
  • a stereoscopic image for example, nine-parallax image
  • the operator of the workstation 130 acquires the maximum value of the number of parallaxes from information on the number of parallaxes required for each of the stereoscopic monitors included in the apparatus connected to the hospital LAN 2. Then, the operator sets a predetermined rendering condition including the number of parallaxes for the control unit 135 so that a parallax image group composed of parallax images equal to or greater than the acquired maximum value is generated.
  • a predetermined rendering condition including the number of parallaxes for the control unit 135 so that a parallax image group composed of parallax images equal to or greater than the acquired maximum value is generated.
  • the number of parallaxes “9” of the display unit 142 of the terminal device 140 is the maximum value will be described. This embodiment is applicable even when the maximum value is “18” or “2”.
  • control part 135 controls the rendering process of the rendering process part 136 based on the preset rendering conditions together with information on the number of parallaxes. That is, the control unit 135 causes the rendering processing unit 136 to generate a parallax image group by setting the viewpoint for executing the rendering process based on a straight line or a curve forming a figure having a predetermined shape to be equal to or greater than the number of parallaxes.
  • various rendering conditions set in the first embodiment will be described.
  • the figure having the predetermined shape set as the rendering condition of the present embodiment is roughly divided into the following two types depending on the positional relationship between the rendering area, which is an area to be rendered by the volume data, and the viewpoint. That is, under the first graphic condition, the control unit 135 sets a graphic having a predetermined shape so that the viewpoint is located outside the rendering area. Then, the control unit 135 causes the rendering processing unit 136 to generate a parallax image group using a straight line or a curve that forms the set figure. In the second graphic condition, the control unit 135 sets a graphic whose viewpoint is located in the rendering area as a graphic having a predetermined shape. Then, the control unit 135 causes the rendering processing unit 136 to generate a parallax image group using a straight line or a curve that forms the set figure.
  • the rendering conditions of the present embodiment are roughly classified into the following two types depending on the number of parallax images constituting the parallax image group. That is, under the first image number condition, the control unit 135 generates a parallax image group including parallax images having the number of parallaxes necessary for stereoscopic viewing. Also, under the second image number condition, the control unit 135 generates a parallax image group including a larger number of parallax images than the number of parallaxes required for stereoscopic viewing.
  • the first graphic condition is further roughly divided into the following two depending on the viewpoint setting method. That is, under the first viewpoint setting condition, the control unit 135 sets the viewpoint for executing the rendering process along the straight line or the curve forming the figure having a predetermined shape to be equal to or more than the number of parallaxes. Further, under the second viewpoint setting condition, the control unit 135 sets the viewpoint for executing the rendering process along the tangent line at the point set on the straight line or the curve that forms the graphic having the predetermined shape to be equal to or more than the number of parallaxes.
  • the rendering conditions include a parallax angle, a projection method, a segmentation condition, and the like.
  • the parallax angle can be set to an arbitrary value.
  • the parallax angle may be “0.5 degrees”, “0.1 degrees”, “3 degrees”, or the like.
  • 8A, 8B, and 8C are diagrams for explaining a rendering process that is executed based on the first graphic condition and the first image number condition.
  • the control unit 135 sets a perfect circle as illustrated in FIG. 8A as a graphic whose viewpoint is located outside the rendering area, based on the first graphic condition.
  • the control unit 135 acquires the position of the center of gravity of the rendering area extracted by the segmentation processing unit 1361g. And the control part 135 sets the perfect circle orthogonal to the rotating shaft which passes through a gravity center. However, the control unit 135 sets the radius of the perfect circle so that the perfect circle is located outside the rendering area.
  • the radius of the perfect circle may be determined by the control unit 135 based on the three-dimensional spatial coordinates of the rendering area, or may be determined by the operator of the workstation 130.
  • the center of the perfect circle is not limited to the center of gravity of the rendering area, and may be set at an arbitrary position by the operator of the workstation 130. For example, the center of the perfect circle may be set at a point of interest such as an affected area.
  • the operator of the workstation 130 refers to an MPR image obtained by cutting the volume data at an arbitrary cut surface, and sets the attention site of the affected area as the center of a perfect circle.
  • the workstation 130 for example, by using an apparatus equipped with a computer interpretation assistance diagnosis system (CAD: Computer Assisted Diagnosis) that automatically detects a candidate area of a lesion, the workstation 130 detects an attention site of the affected area.
  • CAD Computer Assisted Diagnosis
  • the rendering processing unit 136 generates a nine-parallax image with a parallax angle of “1 degree” under the control of the control unit 135.
  • the control unit 135 sets nine viewpoints so that the parallax angle is 1 degree along the circumference of the perfect circle as illustrated in FIG. 8B. .
  • the rendering processing unit 136 generates nine parallax images by the perspective projection method described with reference to FIG. 6B using the set nine viewpoints.
  • the positions of the nine viewpoints are set by the operator or the control unit 135.
  • the line-of-sight directions at the nine viewpoints must satisfy a condition that enables stereoscopic display. For example, as shown in FIGS. 6A and 6B, the line-of-sight directions at the nine viewpoints are set to be directed toward the center (center of gravity) of the cut surface of the volume data.
  • the control unit 135 sets a reference point in a perfect circle and has a parallax angle of 1 along the tangent line passing through the set reference point as illustrated in FIG. 8C.
  • Nine viewpoints are set so as to be degrees.
  • the rendering processing unit 136 generates nine parallax images by the parallel projection method described with reference to FIG. 6A using the set nine viewpoints.
  • the rendering processing unit 136 may generate a nine-parallax image by the projection method described with reference to FIG. 6C.
  • the position of the reference point is set by the operator or the control unit 135.
  • FIG. 9A, FIG. 9B, and FIG. 10 are diagrams for explaining a rendering process that is executed under the first graphic condition and the second image number condition.
  • the control unit 135 sets a perfect circle as a figure whose viewpoint is located outside the rendering area, as described with reference to FIG.
  • the number of parallaxes set according to the second image number condition is “10” or more.
  • the control unit 135 follows the circumference of the perfect circle as illustrated in FIG. 9A.
  • eleven viewpoints are set so that the parallax angle is 1 degree.
  • the rendering processing unit 136 generates a parallax image group composed of 11 parallax images using the set 11 viewpoints.
  • the control unit 135 follows the entire circumference of the perfect circle as illustrated in FIG. 9B.
  • 360 viewpoints are set so that the parallax angle is 1 degree.
  • the rendering processing unit 136 generates a parallax image group composed of 360 parallax images using the set 360 viewpoints.
  • the entire periphery parallax image generated for the rendering target is referred to as all-around data.
  • the control unit 135 performs rendering along each tangent direction at a plurality of points set on a straight line or a curve that forms a graphic having a predetermined shape.
  • Set the viewpoint for executing the process For example, when the second image number condition and the second viewpoint setting condition are set, the control unit 135 sets a plurality of reference points on a perfect circle as shown in FIG. Nine viewpoints are set so that the parallax angle is 1 degree along each tangent line passing through the plurality of set reference points. Then, the rendering processing unit 136 generates nine parallax images for each reference point by the parallel projection method described with reference to FIG. 6A using the nine viewpoints set for each tangent. Note that the rendering processing unit 136 may generate a nine-parallax image for each reference point by the projection method described with reference to FIG. 6C. Further, the position of each reference point is set by the operator or the control unit 135.
  • FIG. 11A, FIG. 11B, and FIG. 11C are diagrams for explaining a modification of the first graphic condition.
  • the figure having a predetermined shape set according to the first figure condition may be an ellipse as shown in FIG. 11A.
  • the graphic having a predetermined shape set by the first graphic condition may be a polygon, for example, a hexagon as shown in FIG. 11B.
  • the graphic of the predetermined shape set by the first graphic condition is not limited to a closed graphic consisting of a straight line or a curve.
  • the graphic having a predetermined shape set according to the first graphic condition may be a polyline or a spline curve.
  • control unit 135 may set a plurality of graphics having a predetermined shape according to the first graphic condition. For example, as illustrated in FIG. 11C, the control unit 135 sets three rotation circles passing through the center of gravity of the rendering area, thereby setting three circles so that a parallax image group is generated in each circle. You may control to.
  • a perfect circle as a figure in which a viewpoint is located.
  • a rendering image at an arbitrary viewpoint is not necessarily a parallax image at the viewpoint.
  • the figure where the viewpoint is located is a perfect circle
  • the rendered image at an arbitrary viewpoint on the perfect circle becomes a parallax image at the viewpoint. That is, by using a perfect circle as a figure where the viewpoint is located, the number of images generated as a parallax image group can be significantly reduced. As a result, the data amount of the parallax image group to be stored can be greatly reduced.
  • control unit 135 sets the parallax image group in an arbitrary combination of the first image number condition and the second image number condition, and the first viewpoint setting condition and the second viewpoint setting condition in the first graphic condition. Generate.
  • control unit 135 causes the image storage device 120 to store the parallax image group generated by the rendering processing unit 136 via the communication unit 133. Specifically, the control unit 135 causes the image storage device 120 to store the parallax image group generated by the rendering processing unit 136 in association with the volume data that is the generation source of the parallax image group.
  • the parallax image group is stored, and for example, the operator of the terminal device 140 can stereoscopically view the volume data on the display unit 142 only by specifying the volume data that the terminal device 140 wants to refer to. it can.
  • the control unit 145 of the terminal device 140 performs the following display control process. That is, the control unit 145 obtains a parallax image group of volume data designated by the operator from the image storage device 120. Specifically, the control unit 145 acquires a parallax image having the number of parallaxes from the image storage device 120 from the parallax image group generated from the volume data designated by the operator. For example, when the control unit 145 receives a stereoscopic request together with additional information such as “patient ID and examination ID” from the operator of the terminal device 140 via the input unit 141, the control unit 145 sends the additional information and the stereoscopic request to the image storage device 120. Send to. The image storage device 120 searches for volume data associated with the received supplementary information, and further retrieves a parallax image group associated with the retrieved volume data. Then, the image storage device 120 transmits the searched parallax image group to the terminal device 140.
  • control unit 145 performs control so that the stereoscopic image configured using the acquired parallax images of the number of parallaxes is displayed on the display unit 142 which is a 9-parallax monitor.
  • 12 to 14 are diagrams for explaining display control in the terminal device.
  • the control unit 145 displays 9 parallaxes as illustrated in FIG.
  • the image is converted into an intermediate image arranged in a 3 ⁇ 3 grid, and then output to the display unit 142 for display.
  • the format of the intermediate image is not limited to a lattice shape.
  • the intermediate image may be in a format in which 9 parallax images are rearranged in a pixel arrangement according to the specifications of the 9 parallax monitor.
  • the specifications of the 9-parallax monitor include a vertical stripe liquid crystal, a horizontal stripe liquid crystal, a vertical lens system, an oblique lens system, an angle of an oblique lens, and the like.
  • the control unit 145 performs the process described below. That is, when the number of parallax image groups acquired from the image storage device 120 is larger than the number of parallaxes, the control unit 145 displays the image groups for the number of parallaxes selected from the acquired parallax image groups on the display unit 142. To control.
  • the control unit 145 selects nine parallax images with continuous viewpoint positions and converts them into a grid-like intermediate image when acquiring all-around data, and then displays the display unit 142. Output to and display.
  • the 9-parallax image selection process may be performed by an operator of the terminal device 140.
  • the 9-parallax image selection process may be performed by the workstation 130 in advance.
  • the selection process of nine parallax images is not limited to the case of selecting nine parallax images with continuous viewpoint positions.
  • the nine-parallax image selection process may be performed by selecting every two consecutive viewpoint positions or every third viewpoint position.
  • control unit 145 causes the display unit 142 to display image groups for the number of parallaxes sequentially selected from the acquired parallax image groups. Control to display sequentially. Specifically, the control unit 145 controls the display unit 142 to sequentially display a plurality of stereoscopic images by sequentially selecting parallax images having the number of parallaxes.
  • the control unit 145 sequentially selects nine parallax images having consecutive viewpoint positions while shifting them several by one when acquiring all-around data. Then, as illustrated in FIG. 14, the control unit 145 sequentially converts the selected nine parallax images into intermediate images, and then sequentially outputs and displays them on the display unit 142. As a result, the display unit 142 can display a stereoscopic image that allows the operator to observe stereoscopically while rotating the volume data.
  • the 9-parallax image selection process may be performed by an operator of the terminal device 140.
  • the 9-parallax image selection process may be performed by the workstation 130 in advance.
  • an image generated by the rendering processing unit 136 as a parallax image group does not necessarily have to be “the number of parallaxes or more”. Specifically, in the case of generating a parallax image of “greater than or equal to the number of parallaxes” from the parallax image of “less than the number of parallaxes” generated by the rendering processing unit 136 using the interpolation function of the two-dimensional image processing unit 146 described above. There may be.
  • the two-dimensional image processing unit 146 generates a parallax image “more than the number of parallaxes” by generating an image that can be substituted as a parallax image by interpolation processing from two parallax images with adjacent viewpoint positions. Also good.
  • the two-dimensional image processing unit 146 performs interpolation processing based on “less than the number of parallaxes” by controlling the control unit 145 from the “less than the number of parallaxes” generated by the rendering processing unit 136 under the control of the control unit 135. May be generated.
  • the interpolation function of the two-dimensional image processing unit 146 will be described in detail later.
  • FIG. 15 is a diagram for explaining the second graphic condition.
  • the second figure condition is when a virtual endoscopy (VE) display method widely used as a display method (CTC: CT Colonography) of a three-dimensional X-ray CT image obtained by photographing the large intestine is executed. Is a graphic condition applied to.
  • VE virtual endoscopy
  • CTC CT Colonography
  • the segmentation processing unit 1361 g extracts the lumen region of the large intestine. Further, the segmentation processing unit 1361g extracts the core line of the lumen region as shown in FIG.
  • the core line extracted by the segmentation processing unit 1361g is a graphic having a predetermined shape used under the second graphic condition. Then, as shown in FIG. 15, the segmentation processing unit 1361g further sets a plurality of reference points at predetermined intervals on the extracted core line (see white circles in the figure).
  • the control unit 135 that has acquired such information sets a viewpoint at a location where each reference point of the core line is located, and in a plane that passes through the viewpoint and is perpendicular to the core line, A line-of-sight direction for observing the inner wall of the large intestine (inner lumen wall) around one is set.
  • the rendering processing unit 136 By rotating the line-of-sight direction 360 degrees around the reference point, the rendering processing unit 136 generates all-around data that enables stereoscopic viewing of the inner wall of the large intestine (inner lumen wall) at each reference point.
  • the VE display method parallax image group generated in this way is stored in the image storage device 120.
  • the control unit 145 acquires a set of parallax images in the VE display method from the image storage device 120 and causes the display unit 142 to display the set. That is, the control unit 145 converts the nine parallax images selected from the all-around data generated at each reference point into an intermediate image and outputs the intermediate image to the display unit 142.
  • the first graphic condition limits the viewpoint position outside the rendering area, and the second graphic condition limits the viewpoint position within the rendering area, but the viewpoint set in the first embodiment. The position of is not limited to these.
  • the parallax used for the stereoscopic image by the third graphic condition in which the graphic is set so that a part of the viewpoint is located within the rendering area and the part of the viewpoint is located outside the rendering area. It may be a case where an image group is generated.
  • the graphic set under the third graphic condition may be any of a perfect circle, an ellipse, a polygon, a straight line, a polyline, and a spline curve.
  • FIG. 16 is a diagram for explaining image storage processing of the image processing system according to the first embodiment.
  • FIG. 17 is a diagram for explaining image display processing of the image processing system according to the first embodiment.
  • the workstation 130 of the image processing system 1 determines whether or not volume data to be processed is designated (step S101).
  • the workstation 130 waits until the volume data is designated.
  • the control unit 135 acquires the designated volume data from the image storage device 120 (Step S102). Then, the control unit 135 determines whether or not a rendering condition for the acquired volume data has been received (step S103).
  • the rendering conditions are the graphic condition, the image number condition, and the viewpoint position condition described above in addition to the parallax angle and the segmentation condition.
  • the control unit 135 waits until the rendering condition is accepted. On the other hand, when the rendering condition is received (Yes at Step S103), the rendering processing unit 136 generates a parallax image group from the volume data based on the rendering condition under the control of the control unit 135 (Step S104).
  • control unit 135 controls the image storage device 120 to store the parallax image group (step S105), and ends the process.
  • the terminal device 140 of the image processing system 1 determines whether or not the volume data to be processed is designated by the operator (step S201).
  • the terminal device 140 stands by until the volume data is designated.
  • the control unit 145 obtains a parallax image group associated with the designated volume data (Step S202), and the obtained parallax image group has nine parallax images. It is determined whether or not (step S203). The control unit 145 stores the acquired parallax image group in the storage unit 144.
  • the control unit 145 converts the nine-parallax image into an intermediate image (Step S205), and displays it on the display unit 142 (Step S206). ), The process is terminated.
  • the control unit 145 selects nine parallax images and converts them into intermediate images (Step S204). Are displayed (step S206), and the process is terminated. Note that, when the rotation display illustrated in FIG. 14 is performed, the control unit 145 repeatedly executes the processes of step S204 and step S206.
  • a stereoscopic image is stored.
  • a stereoscopically viewable image group can be provided without performing volume rendering processing in real time. Therefore, in the first embodiment, it is not necessary to install a workstation 130 having high image processing capability, and the processing load required to generate a stereoscopic image from three-dimensional medical image data can be reduced. Can do.
  • FIGS. FIG. 18A and FIG. 18B are diagrams for explaining a first modification example according to the first embodiment.
  • the first modification according to the first embodiment is to change the stereoscopic effect of the stereoscopically viewed image in response to the request of the operator of the terminal device 140. For example, when comparing a 9-parallax image with a parallax angle of 1 degree and a 9-parallax image with a parallax angle of 2 degrees, it is known that a 9-parallax image with a parallax angle of 2 degrees has a higher stereoscopic effect. Therefore, the control unit 145 according to the first modification causes the display unit 142 to change the parallax angles of the image groups for the number of parallaxes to be output for stereoscopic viewing.
  • control unit 145 changes the parallax angle between parallax images having a predetermined number of parallaxes to be selected.
  • the input unit 141 has a slide bar for adjusting the stereoscopic level, and the position of the slide bar is associated with the value of the parallax angle.
  • the control unit 145 displays the image group of “parallax angle: 2 degrees” as “parallax angle”. It is determined that selection is possible from all surrounding data of “1 degree”. Then, as illustrated in FIG. 18A, the control unit 145 selects nine parallax images every other so that the “parallax angle: 2 degrees” is obtained from the all-around data of “parallax angle: 1 degree”. The nine selected images are output to the display unit 142.
  • the control unit 145 displays all the image groups having “parallax angle: 0.5 degree”. Are determined not to be selectable from all-around data of “parallax angle: 1 degree”. That is, the control unit 145 determines that there is no parallax image at the viewpoint position indicated by the black circle illustrated in FIG. 18B. Therefore, the control unit 145 uses the interpolation function of the two-dimensional image processing unit 146.
  • the two-dimensional image processing unit 146 has an interpolation function for generating a new parallax image from the two parallax images by interpolation processing using the depth information of each of the two parallax images.
  • a specific example of the interpolation process executed by the two-dimensional image processing unit 146 will be described below. For example, when generating an image C positioned between the image A and the image B, the two-dimensional image processing unit 146 displays “Warp Field between the image A and the image B” indicating the direction from the image A to the image B. Calculated by “Mutual Information Method”.
  • the two-dimensional image processing unit 146 generates an image C by integrating the intermediate point (half of the vector from the image A to the image B) of each pixel vector in the “Warp Field” with the image A. For example, when the image C at the angular position “2: 1” is required instead of the image located between the images A and B, the two-dimensional image processing unit 146 selects “2: 1”. The image C is generated by using the vector pixels from the image A to the image B located at the ratio. When the angular interval between the image A and the image B is narrow, the two-dimensional image processing unit 146 simply adds the image A and the image B and halves the pixel value without using the depth information. An appropriate interpolation process may be performed.
  • the control unit 145 controls the two-dimensional image processing unit 146 so as to generate a parallax image at the viewpoint position indicated by a black circle illustrated in FIG. 18B from two adjacent acquired parallax images by interpolation processing. That is, the two-dimensional image processing unit 146 uses the depth information of each of the two parallax images generated by the two viewpoints adjacent to the viewpoint position indicated by the black circle, and corresponds to the viewpoint position indicated by the black circle by interpolation processing. A new parallax image is generated. Accordingly, the control unit 145 causes the display unit 142 to output nine images having “parallax angle: 0.5 degree”.
  • the stereoscopic effect of the stereoscopically viewed image can be changed according to the operator's request without re-execution of the rendering process.
  • FIG. 19A and FIG. 19B are diagrams for explaining a second modification example according to the first embodiment.
  • control unit 135 that performs the rendering control process performs the rendering process so that the resolution of each image constituting the parallax image group is higher than the resolution of the stereoscopic display monitor (display unit 142) to be output.
  • the unit 136 is controlled.
  • control unit 135 acquires in advance from the terminal device 40 that the resolution of the display unit 142 is “512 pixels ⁇ 512 pixels”. In such a case, for example, the control unit 135 instructs the rendering processing unit 136 to generate a volume rendering image having a resolution of “1024 pixels ⁇ 1024 pixels”.
  • the control unit 145 of the terminal device 140 acquires a 9-parallax image of “1024 pixels ⁇ 1024 pixels” as illustrated in FIG. 19A.
  • the control unit 145 uses the enlargement / reduction function of the two-dimensional image processing unit 146 in order to output the nine-parallax image acquired on the display unit 142.
  • the two-dimensional image processing unit 146 performs nine parallaxes of “1024 pixels ⁇ 1024 pixels” as illustrated in FIG. 19A by interpolation processing that calculates an average value of pixel values of adjacent pixels.
  • the image is a nine-parallax image of “512 pixels ⁇ 512 pixels”.
  • control unit 145 converts the “512 pixels ⁇ 512 pixels” 9-parallax image into an intermediate image arranged in a grid and outputs the intermediate image to the display unit 142.
  • the control unit 145 instructs the 2-dimensional image processing unit 146 to enlarge the 9-parallax image. It will be.
  • the storage unit 144 of the terminal device 140 stores nine parallax images of “1024 pixels ⁇ 1024 pixels” that are original images.
  • the two-dimensional image processing unit 146 cuts out an area of “768 pixels ⁇ 768 pixels” from the original image and reduces it to “512 pixels ⁇ 512 pixels”, thereby outputting 9 for output.
  • a parallax image can be generated. The resolution of the 9-parallax image is not lowered as compared with the case where the original image is a 9-parallax image of “512 pixels ⁇ 512 pixels”.
  • the third modification by generating a high-resolution parallax image group, it is possible to avoid a low resolution when a stereoscopic image is enlarged and displayed on a stereoscopic monitor as a display destination. can do.
  • FIG. 20 is a diagram for explaining a third modification example according to the first embodiment.
  • the first embodiment is applicable even when the display unit 142 is the two-parallax monitor described with reference to FIG. .
  • the control unit 145 has acquired a 9-parallax image having a “parallax angle of 1 degree” as a parallax image group associated with volume data designated by the operator.
  • the control unit 145 selects a 2-parallax image having a “parallax angle: 2 degrees” requested by the operator from 9 parallax images, and outputs the selected image to the display unit 142.
  • a stereoscopic image is displayed according to the stereoscopic specification of the stereoscopic monitor. Can be made.
  • the control unit 135 generates a plurality of parallax image groups along the time series. Then, the control unit 135 causes the image storage device 120 to store a plurality of parallax image groups in association with 4D data. Then, the control unit 145 acquires a plurality of parallax image groups associated with the 4D data designated by the operator, divides the acquired plurality of parallax image groups into individual stereoscopic images along a time series. Thus, the display unit 142 displays the video as a stereoscopically viewable video.
  • control unit 135 of the workstation 130 performs the storage control process based on a standard for transmitting and receiving medical images as an image storage device using a parallax image group as moving image data in moving image format. It controls to store in 120.
  • control unit 135 uses the fact that the image processing system 1 is a PACS compliant with the DICOM standard, which is a parallax image.
  • the data format for storing the group is controlled to be stored in the image storage device 120 as moving image data compliant with DICOM.
  • control unit 135 assigns a private tag as incidental information indicating that the image group stored as moving image data is a stereoscopic image group (parallax image group).
  • the control unit 145 of the terminal device 140 acquires the moving image data of the volume data specified by the operator from the image storage device 120, and the acquired moving image data Whether or not the moving image data is a parallax image group is determined based on the incidental information given to.
  • the control unit 145 of the terminal device 140 can convert the acquired moving image data into a stereoscopic data format when the operator presses the “stereoscopic display button” of the input unit 131. It is determined whether or not there is. When it is determined that conversion is possible, the control unit 145 converts the moving image data into a stereoscopic data format and outputs the converted data to the display unit 142. On the other hand, when it is determined that the conversion is impossible, the control unit 145 causes the display unit 142 to display the moving image data as a moving image.
  • FIG. 21A, FIG. 21B, FIG. 22 and FIG. 23 are diagrams for explaining private tags attached to moving image data.
  • the control unit 135 combines nine images as one long image, thereby converting nine parallax images into moving image data. Then, as shown in FIG. 21A, the control unit 135 assigns “private tag: stereoscopic vision” to the moving image data as supplementary information.
  • the control unit 145 determines that the acquired moving image data is a parallax image group because “private tag: stereoscopic vision” is assigned. Then, as illustrated in FIG. 21A, the control unit 145 converts the image group stored in the moving image data into a grid-like intermediate image and outputs it to the display unit 142.
  • the private tag to be added to the 9-parallax image may be parallax angle information as shown in FIG. 21B.
  • the control unit 135 adds “parallax angle: 1 degree” to the moving image data as incidental information. Since the information on the parallax angle is given, the control unit 145 determines that the acquired moving image data is a stereoscopic image group (parallax image group).
  • the operator of the terminal device 140 may set in advance a threshold value of the parallax angle at which the operator can stereoscopically view the stereoscopic image displayed for stereoscopic viewing so that the stereoscopic vision can be avoided. For example, if the operator has previously set information that “parallax angle: within 2 degrees”, the control unit 145, for example, if “parallax angle: 5 degrees” is given to the acquired moving image data. It is determined that stereoscopic viewing is impossible.
  • the control unit 135 sets the 360 pieces of surrounding data as one moving image data. Then, as shown in FIG. 22, the control unit 135 assigns “private tag: all-around data” to the moving image data as incidental information. For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “private tag: all-around data” is assigned. Then, as illustrated in FIG. 22, the control unit 145 converts the nine parallax images selected from the image group stored in the moving image data into a lattice-shaped intermediate image and outputs the image to the display unit 142.
  • the control unit 135 assigns the private tag shown in FIG. That is, as shown in FIG. 23, the control unit 135 adds “private tag: stereoscopic view” and “private tag: all-around data” to the moving image data as supplementary information. Further, as shown in FIG. 23, the control unit 135, as supplementary information for dividing the moving image data into all-around data for each reference point, sets “reference point flag” at the position before the start of all-around data at different reference points. Is inserted.
  • control unit 145 determines that the acquired moving image data is a parallax image group. Then, the control unit 145 divides the moving image data for each flag, converts the stereoscopic image of the VE display method for stereoscopic viewing, and outputs the stereoscopic image to the display unit 142.
  • a parallax image group can be transmitted and received as moving image data compliant with the DICOM standard in a hospital where PACS is introduced.
  • a private tag it is necessary to add a function for causing the terminal device 140 as a viewer to recognize the private tag.
  • adding various private tag recognition functions to the image processing system 1 operated as a PACS requires a system change.
  • control unit 135 converts the parallax image group into moving image data in a moving image format in conformity with the DICOM standard, and further adds incidental information used in the standard (DICOM standard) to the moving image data. Then, control is performed so that the image is stored in the image storage device 120. Then, the control unit 145 according to the second embodiment acquires the moving image data of the volume data designated by the operator from the image storage device 120, and based on the incidental information given to the acquired moving image data, the moving image It is determined whether or not the data is a parallax image group.
  • DICOM standard incidental information used in the standard
  • FIGS. 24 and 25 are diagrams for explaining supplementary information compliant with the DICOM standard assigned to moving image data.
  • the control unit 135 combines nine images with one long image, thereby converting nine parallax images into moving image data. Then, as shown in FIG. 24, the control unit 135 normally adds “number of sheets: 9”, which is incidental information as an existing tag provided in the DICOM standard, to the moving image data. For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “number of sheets: 9” is assigned. Then, the control unit 145 converts the nine parallax images stored in the moving image data into a grid-like intermediate image and outputs the converted image to the display unit 142.
  • the control unit 135 sets the 360 pieces of surrounding data as one moving image data. Then, as shown in FIG. 25, the control unit 135 normally adds “number of sheets: 360”, which is incidental information as an existing tag given in the DICOM standard, to the moving image data. For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “number of sheets: 360” is assigned. Then, as illustrated in FIG.
  • the control unit 145 converts the nine parallax images selected from the parallax image group stored in the moving image data into a lattice-shaped intermediate image and outputs the converted image to the display unit 142.
  • the control unit 145 converts nine parallax images sequentially selected from the parallax image group stored in the moving image data into a grid-like intermediate image and sequentially outputs the converted images to the display unit 142.
  • the control unit 145 converts the sequentially selected nine parallax images from a group of parallax images stored in the moving image data into a lattice-shaped intermediate image and sequentially outputs them to the display unit 142.
  • the control unit 145 converts nine parallax images sequentially selected from the “first to 180th” parallax images of 360 surrounding data stored in the moving image data into a grid-like intermediate image. Are sequentially output to the display unit 142.
  • FIG. 26 is a diagram for explaining image display processing of the image processing system according to the second embodiment.
  • the control unit 135 sets the parallax image group as moving image data compliant with the DICOM standard, and the moving image data Since it is the same except that the supplementary information is added to and stored in the image storage device 120, the description is omitted.
  • the terminal device 140 of the image processing system 1 determines whether or not the volume data to be processed is specified by the operator (step S301).
  • the terminal device 140 stands by until the volume data is specified.
  • Step S301 when volume data is designated (Yes at Step S301), the control unit 145 acquires moving image data associated with the designated volume data (Step S302), and determines whether or not the stereoscopic display button has been pressed. Determination is made (step S303). If the stereoscopic display button is not pressed (No at Step S303), the control unit 145 waits until the stereoscopic display button is pressed.
  • Step S303 when the stereoscopic display button is pressed (Yes at Step S303), the control unit 145 refers to the accompanying information and determines whether or not the stereoscopic image can be converted into an intermediate image that is a stereoscopic data format (Step S303). S304). If it is determined that conversion is not possible (No at Step S304), the control unit 135 displays the acquired moving image data as a moving image (Step S307), and ends the process.
  • Step S304 when it is determined that conversion is possible (Yes at Step S304), the control unit 135 converts the moving image data into an intermediate image (Step S305). Then, the control unit 135 outputs the intermediate image to the display unit 142 to display stereoscopically (step S306), and ends the process.
  • the stereoscopic image selected from the parallax image group in the DICOM standard hospital system currently most popular by handling the parallax image group as moving image data of the DICOM standard. Can be displayed. Further, in the second embodiment, since it is possible to determine and display whether or not stereoscopic viewing is possible using an existing tag compliant with the DICOM standard, a currently popular DICOM standard in-hospital system is provided. Without being changed, it can be operated as a system for displaying a stereoscopic image selected from the parallax image group as it is. In the above description, the case where the determination process by the control unit 145 is performed by pressing the stereoscopic display button has been described.
  • the operation by the stereoscopic display button is not triggered by the determination process, but the determination process by the control unit 145 may be performed when moving image data is acquired.
  • the moving image data determined to be unconvertible by the control unit 145 is recognized as a moving image and displayed as a moving image.
  • the second embodiment may be a case in which, for example, 360 pieces of data such as all-around data are used as still image data that conforms to 360 DICOM standards as standardized data that conforms to the DICOM standard. .
  • the control unit 135 adds, for example, an existing tag of “number of sheets: 360” to data including 360 DICOM still image data. Then, the control unit 145 selects nine parallax images from 360 pieces of DICOM still image data and outputs them to the display unit 142. For example, when the stereoscopic display button is pressed, the control unit 145 adds an existing tag of “number of sheets: 360” to data including 360 DICOM still image data. It determines with it being an image group, selects 9 parallax images, and outputs them to the display unit 142.
  • the image processing system 1 can process 4D data, and a plurality of parallax image groups along the time series generated by the control unit 135 are: It can be handled as moving image data compliant with the DICOM standard.
  • control unit 135 when a plurality of volume data is generated in time series, the control unit 135 generates a plurality of parallax image groups in time series from each volume data.
  • the rendering processing unit 136 is controlled so that
  • control part 135 makes the several parallax image group which the rendering process part 136 produced
  • a private tag or an existing tag can be added to the moving image data as incidental information.
  • FIG. 27A and FIG. 27B are diagrams for explaining a private tag attached to moving image data in a modification according to the second embodiment.
  • the control unit 135 sets each of a plurality of 9 parallax images along the time series as moving image data.
  • the control unit 135 assigns “private tag: stereoscopic vision” to each moving image data.
  • control unit 135 gives time information that is an existing tag to each moving image data.
  • the time information is the time when the volume data that is the generation source of the moving image data is captured, for example, the time information that is recorded in milliseconds.
  • the control unit 135 assigns the existing tags “time: t1”, “time: t2”, “time: t3”,...
  • the moving image data group is stored in the image storage device 120 in association with the generation source 4D data by the storage control of the control unit 135.
  • control part 145 acquires the moving image data group matched with 4D data which the operator designated collectively, and "private tag: stereoscopic view" is provided to all the acquired moving image data. It is determined that stereoscopic viewing is possible. Furthermore, since the time of the existing tag given to the acquired moving image data group is, for example, the time recorded in units of milliseconds, the control unit 145 follows the time series for moving image display. It determines with it being a several parallax image group.
  • control unit 145 sets a plurality of moving image data groups along the time series of “time: t1,” “time: t2,” “time: t3”,. Are output to the display unit 142.
  • control unit 135 sets a plurality of 9 parallax images in time series as one moving image data. For example, as illustrated in FIG. 27B, the control unit 135 sets 50 nine-parallax images in time series as one moving image data. However, the control unit 135 sets 50 “9 time parallax images” “time: t1”, “time: t2”, “time: t3”,... “Time: t50” for each viewpoint position. To divide.
  • the control unit 135 arranges the parallax images of the viewpoint (1) from “time: t1” to “time: t50” in time series (“1 (t1), 1 (t2) in FIG. Similarly, the control unit 135 arranges the parallax images of the viewpoint (2) from “time: t1” to “time: t50” in time series (“ 2 (t1), 2 (t2), ..., 2 (t50) ”) Similarly, the control unit 135 performs the parallax image of the viewpoint (3) from" time: t1 "to” time: t50 ". (Refer to “3 (t1), 3 (t2)... 3 (t50)” in the figure.) The control unit 135 views the rearrangement processing from the viewpoint (4). The same applies to the viewpoint (9).
  • control unit 135 assigns “private tag: 4D (50)” indicating the parallax image group for moving image display to the moving image data.
  • the private tag “50” is information indicating that 50 nine-parallax images in time series are stored as 4D data.
  • control unit 145 acquires moving image data associated with the 4D data designated by the operator, and “private tag: 4D (50)” is added to the acquired moving image data, so that stereoscopic viewing is possible. And a plurality of parallax image groups for moving image display.
  • control unit 145 converts the moving image data into a plurality of time series of ““ time: t1 ”,“ time: t2 ”,“ time: t3 ”,...
  • the image is converted into an intermediate image and output to the display unit 142.
  • control unit 135 performs control so that incidental information (existing tag) compliant with the DICOM standard is attached to the moving image data and then stored in the image storage device 120.
  • FIG. 28 is a diagram for explaining incidental information compliant with the DICOM standard attached to moving image data in a modification according to the second embodiment.
  • the control unit 135 sets each of a plurality of nine parallax images along the time series as moving image data. Further, the control unit 135 gives “9” indicating the number of sheets as an existing tag to each moving image data. Further, the control unit 135 gives time information that is an existing tag to each moving image data. For example, the control unit 135 assigns the existing tags “time: t1”, “time: t2”, “time: t3”,...
  • the moving image data group is stored in the image storage device 120 in association with the generation source 4D data by the storage control of the control unit 135.
  • control unit 145 acquires the moving image data of the 4D data designated by the operator from the image storage device 120, and when the moving image data is for moving image display based on the incidental information given to the acquired moving image data. It is determined whether or not there are a plurality of parallax image groups along the series.
  • the control unit 145 determines that stereoscopic viewing is possible because the existing tag indicating that the number of sheets is “9” is assigned to all the acquired moving image data. Furthermore, since the time of the existing tag given to the acquired moving image data group is the time recorded in milliseconds, the control unit 145 has a plurality of moving image data groups in time series for moving image display. It determines with it being a parallax image group.
  • the control unit 145 converts the moving image data into a plurality of time series of ““ time: t1 ”,“ time: t2 ”,“ time: t3 ”,...
  • the image is converted into an intermediate image and output to the display unit 142.
  • the contents described with reference to FIGS. 27A, 27B, and 28 are applicable even when the parallax image group is 360-round peripheral data.
  • a stereoscopic image is displayed as it is without changing the hospital system of the most popular DICOM standard. It can be operated as a system.
  • the workstation 130 performs generation control and storage control of the parallax image group by the control unit 135, and the terminal device 140 performs acquisition and display control of the stereoscopic image by the control unit 145.
  • the workstation 130 may perform parallax image group acquisition and display control as well as parallax image group generation control and storage control.
  • the medical image diagnostic apparatus 110 and the terminal apparatus 140 may perform the generation control and storage control of the parallax image group, and the acquisition and display control of the parallax image group.
  • the medical image diagnostic apparatus 110 may perform generation control and storage control of the parallax image group, and the workstation 130 and the terminal apparatus 140 may acquire and display the parallax image group.
  • the storage destination of the parallax image group is the image storage device 120
  • the embodiment is not limited to this.
  • the target of storage control by the device that has performed generation control of the parallax image group may be the storage unit of the device itself.
  • the terminal device 40 acquires a parallax image group from the workstation 130, for example.
  • the processing of the rendering processing unit 136, the control unit 135, the control unit 145, and the image storage device 120 described in the above embodiment is performed according to various loads and usage conditions of each device included in the image processing system 1. It can be configured to be functionally or physically distributed and integrated in arbitrary units. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • the image processing method described in the above embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation.
  • This image processing program can be distributed via a network such as the Internet.
  • the program is recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, Blu-ray Disc (registered trademark), and read from the recording medium by the computer.
  • FD hard disk
  • CD-ROM compact disc
  • MO Compact Disc
  • Blu-ray Disc registered trademark
  • the modified example according to the first embodiment, the modified example according to the second embodiment and the second embodiment stereoscopic vision is obtained from three-dimensional medical image data. It is possible to reduce the processing load required to generate the image for use.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 実施形態の画像処理システムは、ワークステーション(130)のレンダリング処理部(136)及び制御部(135)を備える。レンダリング処理部(136)は、3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なう。制御部(135)は、端末装置(140)が有する立体表示モニタにて立体視するために必要となる視差数以上の視差画像群をボリュームデータから生成させるようにレンダリング処理部(136)を制御し、レンダリング処理部136が生成した視差画像群を画像保管装置(120)に格納するように制御する。端末装置(140)が有する立体表示モニタは、画像保管装置(120)に格納された視差画像群の中から視差数の視差画像を選択して構成される立体視画像を表示する。

Description

画像処理システム、装置、方法及びプログラム
 本発明の実施形態は、画像処理システム、装置、方法及びプログラムに関する。
 従来、立体視用メガネ等の専用機器を用いて、2つの視点から撮影された2視差画像を立体視可能なモニタが実用化されている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9視差画像)を裸眼にて立体視可能なモニタが実用化されている。なお、立体視可能なモニタにて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。
 一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。医用画像診断装置により生成されたボリュームデータからは、任意の視差角にて任意の視差数のボリュームレンダリング画像(視差画像)を生成することができる。そこで、ボリュームデータから生成された2次元のボリュームレンダリング画像を、近年実用化された立体視可能なモニタにて立体的に表示させることが検討されている。
 しかし、ボリュームレンダリング処理を観察者の要求に応じてリアルタイムに実行させるためには、ボリュームレンダリング処理を行なう装置に対して高い画像処理能力が要求される。
特開2005-86414号公報
 本発明が解決しようとする課題は、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減することができる画像処理システム、装置、方法及びプログラムを提供することである。
 実施形態の画像処理システムは、立体表示装置と、画像処理装置とを備える。立体表示装置は、所定の視差数の視差画像を用いて構成される立体視画像を表示可能な装置である。画像処理装置は、3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部、前記所定の視差数以上の視差画像群を前記ボリュームデータから生成させるように前記レンダリング処理部を制御するレンダリング処理制御部、及び前記レンダリング処理部が生成した前記視差画像群を記憶部に格納させる格納制御部を備える。前記立体表示装置は、前記記憶部に格納された前記視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示する。
図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。 図2Aは、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図(1)である。 図2Bは、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図(2)である。 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。 図6Aは、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図(1)である。 図6Bは、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図(2)である。 図6Cは、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図(3)である。 図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。 図8Aは、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明するための図(1)である。 図8Bは、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明するための図(2)である。 図8Cは、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明するための図(3)である。 図9Aは、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図(1)である。 図9Bは、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図(2)である。 図10は、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図(3)である。 図11Aは、第1図形条件の変形例を説明するための図(1)である。 図11Bは、第1図形条件の変形例を説明するための図(2)である。 図11Cは、第1図形条件の変形例を説明するための図(3)である。 図12は、端末装置における表示制御を説明するための図(1)である。 図13は、端末装置における表示制御を説明するための図(2)である。 図14は、端末装置における表示制御を説明するための図(3)である。 図15は、第2図形条件を説明するための図である。 図16は、第1の実施形態に係る画像処理システムの画像格納処理を説明するための図である。 図17は、第1の実施形態に係る画像処理システムの画像表示処理を説明するための図である。 図18Aは、第1の実施形態に係る第1の変形例を説明するための図(1)である。 図18Bは、第1の実施形態に係る第1の変形例を説明するための図(2)である。 図19Aは、第1の実施形態に係る第2の変形例を説明するための図(1)である。 図19Bは、第1の実施形態に係る第2の変形例を説明するための図(2)である。 図20は、第1の実施形態に係る第3の変形例を説明するための図である。 図21Aは、動画データに付与されるプライベートタグを説明するための図(1)である。 図21Bは、動画データに付与されるプライベートタグを説明するための図(2)である。 図22は、動画データに付与されるプライベートタグを説明するための図(3)である。 図23は、動画データに付与されるプライベートタグを説明するための図(4)である。 図24は、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図(1)である。 図25は、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図(2)である。 図26は、第2の実施形態に係る画像処理システムの画像表示処理を説明するための図である。 図27Aは、第2の実施形態に係る変形例にて、動画データに付与されるプライベートタグを説明するための図(1)である。 図27Bは、第2の実施形態に係る変形例にて、動画データに付与されるプライベートタグを説明するための図(2)である。 図28は、第2の実施形態に係る変形例にて、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図である。
 以下、添付図面を参照して、画像処理システムの実施形態を詳細に説明する。なお、以下の実施形態で用いる用語について説明する。「視差画像」とは、「立体視画像」を構成する個々の画像のことである。すなわち、「立体視画像」は、「視差角」が異なる複数の「視差画像」から構成される。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、「視差角」とは、「立体視画像」を生成するために設定された各視点の位置の間隔とボリュームデータの位置とにより定まる角度のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「立体視画像」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「立体視画像」のことである。
(第1の実施形態)
 まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
 図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。
 かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから立体視画像として利用可能な視差画像群を生成し、この視差画像群から選択して構成される立体視画像を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。ここで、立体視画像とは、一般的には、複数の視点から撮影された視差角の異なる複数の画像のことである。第1の実施形態においては、ワークステーション130が、ボリュームデータに対して種々の画像処理を行ない、視差画像群を生成する。また、第1の実施形態においては、ワークステーション130及び端末装置140が、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群から選択して構成される立体視画像をこのモニタに表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。すなわち、ワークステーション130や端末装置140は、画像保管装置120からボリュームデータや視差画像群を取得し、これを処理したり、モニタに表示したりする。以下、各装置を順に説明する。
 医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT-CT装置、PET装置とX線CT装置とが一体化されたPET-CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。
 具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像を再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像を再構成する。この500枚のアキシャル面の医用画像群が、ボリュームデータとなる。なお、医用画像診断装置110により撮影された被検体の投影データやMR信号等自体をボリュームデータとしても良い。
 また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。
 画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110から送信されたボリュームデータを記憶部に格納し、これを保管する。また、第1の実施形態においては、ワークステーション130が、ボリュームデータから視差画像群を生成し、生成した視差画像群を画像保管装置120に送信する。画像保管装置120は、ワークステーション130から送信された視差画像群を記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であっても良い。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であっても良い。
 なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。ワークステーション130や端末装置140は、操作者が入力した患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、操作者が必要とするボリュームデータや視差画像群を画像保管装置120から取得する。
 ワークステーション130は、医用画像に対して画像処理を行なう画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。視差画像群とは、視差角の異なる複数の画像のことであり、例えば、9視差画像を裸眼にて立体視可能なモニタにて表示される立体視画像とは、視差角の異なる9枚の画像(視差画像)のことである。
 また、第1の実施形態に係るワークステーション130は、表示部として、立体視可能なモニタ(以下、立体表示モニタ)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。
 また、ワークステーション130は、生成した視差画像群を画像保管装置120に送信する。なお、ワークステーション130は、視差画像群を画像保管装置120に送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。また、視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466×350画素」)等がある。
 端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、画像保管装置120から視差画像群を取得し、取得した視差画像群、又、取得した視差画像群から選択して構成される立体視画像を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。
 ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。
 一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。
 図2A及び図2Bは、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2A及び図2Bに示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2Aに示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2Aに示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。
 また、赤外線出射部から出射された赤外線は、図2Aに示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。
 各シャッターは、図2Bに示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶相を有する。また、入射側の偏光板と出射側の偏光板とは、図2Bに示すように、互いに直交している。ここで、図2Bに示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。
 一方、図2Bに示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。
 そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2Aに示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2A及び図2Bに示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。
 更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。
 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であっても良い。
 表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、図3に示すように、視差角の異なる9つの画像を同時に表示する単位画素群203となる。
 表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。
 ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合に限定されるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合であっても良い。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合であっても良い。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されて良い。
 次に、第1の実施形態に係るワークステーション130の構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下で用いる用語について、改めて説明すると、「立体視画像」とは、ボリュームデータに対してボリュームレンダリング処理を行なうことで生成された立体視用の画像群のことである。また、「視差画像」とは、「立体視画像」を構成する個々の画像のことである。すなわち、「立体視画像」は、「視差角」が異なる複数の「視差画像」から構成される。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、「視差角」とは、「立体視画像」を生成するために設定された各視点の位置の間隔とボリュームデータの位置とにより定まる角度のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「立体視画像」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「立体視画像」のことである。
 第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136とを有する。
 入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(以下、レンダリング条件)の入力を受け付ける。
 表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部132は、図2を用いて説明した立体表示モニタ(以下、2視差モニタと記載する)や、図5を用いて説明した立体表示モニタ(以下、9視差モニタと記載する)である。以下では、表示部132が9視差モニタである場合について説明する。
 通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。
 記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理が行なわれた立体視画像等を記憶する。
 制御部135は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行なう。
 例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行なわれるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。
 レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行なう。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行なう画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像(ボリュームレンダリング画像)を生成する処理のことである。
 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361は、ボリュームデータに対する前処理を行なう。3次元画像処理部1362は、前処理後のボリュームデータから視差画像群を生成する。2次元画像処理部1363は、立体視画像に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。
 前処理部1361は、ボリュームデータに対してレンダリング処理を行なう際に、種々の前処理を行なう処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。
 画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行なう処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET-CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。
 歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行なわれた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行なう。
 3次元物体フュージョン部1363eは、画像間位置合わせ処理部1361dにより位置合わせが行なわれた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行なう場合、省略される。
 3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。
 なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行なわない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。
 3次元画像処理部1362は、前処理部1361が処理を行なった前処理後のボリュームデータに対してボリュームレンダリング処理を行なう。ボリュームレンダリング処理を行なう処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。
 投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。
 3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行なう際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行なう際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、立体視画像の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。
 3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される立体視画像の表示状態を決定する処理を行なう。
 3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、立体視画像において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、立体視画像において描出されないこととなる。
 3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行なう際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行な光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。
 3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行なう際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。
 ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行なわれることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置及び視差角」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「立体視画像の拡大」、「立体視画像の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、受け付けたレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行なう。また、ボリュームレンダリング処理を行なう際、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。
 図6A、図6B及び図6Cは、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6Aに示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6Aに示すように、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。そして、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)~(9)に平行移動して、平行投影法により視差角が1度ずつ異なる9つの視差画像を生成する。
 或いは、3次元仮想空間レンダリング部1362kが、図6Bに示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6Bに示すように、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。そして、3次元仮想空間レンダリング部1362kは、例えば、ボリュームデータの切断面の中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)~(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング条件によっては、視点(1)~(9)は、平行移動される場合であってもよい。なお、視線方向は、図6A及び図6Bに示すように、視点からボリュームデータの切断面の中心(重心)に向かう方向となる。
 或いは、3次元仮想空間レンダリング部1362kは、図6Cに示すように、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。
 このようにして生成された9つの視差画像が、立体視画像である。第1の実施形態において、9つの視差画像は、例えば、制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、9視差モニタである表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、立体視画像生成のための操作を行なうことができる。
 なお、図6A、図6B及び図6Cの例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。
 また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する機能も有する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行なう機能や、「Intensity Projection」を行なう機能も有する。
 続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行なうことで、出力用の2次元画像を生成する処理部であり、図3に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、1枚のオーバーレイに対して9枚の視差画像(アンダーレイ)をそれぞれ重畳することで、出力用の2次元画像を9枚、生成する。
 2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。
 また、輝度調整部172cは、輝度変換処理を行なう処理部であり、例えば、出力先のモニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。
 レンダリング処理部136が生成した出力用の2次元画像は、例えば制御部135により一旦記憶部134に格納される。なお、本実施形態に係るレンダリング処理部136が生成した出力用の2次元画像は、各視差画像をアンダーレイとする立体視用の2次元画像群であり、かかる2次元画像群が、視差画像群となる。
 また、出力用の2次元画像群(視差画像群)は、図4に示すように、例えば制御部135により、通信部133を介して画像保管装置120に送信される。
 なお、制御部135は、例えば、レンダリング処理部136が生成した視差画像群が、当該視差画像群の生成元であるボリュームデータに対応付けて格納されるように制御する。
 そして、第1の実施形態に係る端末装置140は、上述したように、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置であり、画像保管装置120からレンダリング処理部136が生成した視差画像群(出力用の2次元画像)を取得する。図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。
 第1の実施形態に係る端末装置140は、図7に示すように、入力部141と、表示部142と、通信部143と、記憶部144と、制御部145と、2次元画像処理部146とを有する。
 入力部141は、マウス、キーボード、トラックボール等であり、端末装置140に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部141は、操作者から立体視要求を受け付ける。例えば、入力部141は、立体視要求として、操作者が立体視を要望するボリュームデータを指定するための患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。
 表示部142は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部142は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部142は、図2を用いて説明した立体表示モニタ(以下、2視差モニタと記載する)や、図5を用いて説明した立体表示モニタ(以下、9視差モニタと記載する)である。以下では、表示部142が9視差モニタである場合について説明する。
 通信部143は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。具体的には、第1の実施形態に係る通信部143は、入力部141が受け付けた立体視要求を画像保管装置120に送信する。また、第1の実施形態に係る通信部143は、立体視要求に応じて画像保管装置120が送信した視差画像群を受信する。
 記憶部144は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部144は、通信部143を介して画像保管装置120から取得した視差画像群を記憶する。また、記憶部144は、通信部143を介して画像保管装置120から取得した視差画像群の付帯情報(視差数や解像度等)も記憶する。
 制御部145は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、端末装置140の全体制御を行なう。
 例えば、制御部145は、画像保管装置120との間で通信部143を介して行なわれる立体視要求や視差画像群の送受信を制御する。また、例えば、制御部145は、視差画像群の記憶部144への格納や、視差画像群の記憶部144からの読み込みを制御する。  
 また、第1の実施形態に係る制御部145は、表示部142に対するGUIの表示や視差画像群の表示を制御する。第1の実施形態に係る制御部145は、立体視画像を所定フォーマット(例えば格子状)に配置した中間画像に変換した上で9視差モニタである表示部142に表示する。
 また、第1の実施形態に係る制御部145は、2次元画像処理部146による画像処理を制御する。
 2次元画像処理部146は、図5を用いて説明した2次元画像処理部1363と同様の機能を有する。すなわち、2次元画像処理部146は、3次元画像処理部1362により生成されたアンダーレイとしての視差画像群に対して、オーバーレイを生成して重畳することで、表示部142に対する出力用の2次元画像を生成することができる。
 更に、第1の実施形態に係る2次元画像処理部146は、2つの視差画像それぞれの奥行き情報を用いて、補間処理により、当該2つの視差画像から新たな視差画像を生成する補間機能を有する。なお、2次元画像処理部146の補間機能については、後に詳述する。
 さて、上述したように、レンダリング処理部136は、制御部135による制御の下、ボリュームデータから視差画像群を生成する。また、端末装置140は、画像保管装置120から視差画像群を取得して表示部142に表示する。これにより、端末装置140の操作者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。
 しかし、端末装置140からの立体視要求に応じて、リアルタイムでレンダリング処理部136がボリュームレンダリング処理を行なって視差画像群を生成するためには、ワークステーション130に高い画像処理能力が要求される。
 そこで、第1の実施形態に係るワークステーション130は、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減するように、制御部135のレンダリング処理制御が行なわれる。すなわち、第1の実施形態に係るワークステーション130は、制御部135の制御の下、レンダリング処理部136が所定の立体視モニタにて立体視するために必要となる視差数以上の画像群(視差画像群)をボリュームデータから生成する。そして、第1の実施形態に係るワークステーション130は、制御部135が、レンダリング処理部136が生成した視差画像群を画像保管装置120に格納するように制御する。そして、立体視モニタ(例えば、表示部142)は、画像保管装置120に格納された視差画像群の中から視差数の視差画像を選択して構成される立体視画像(例えば、9視差画像)を表示する。
 例えば、第1の実施形態に係るワークステーション130の操作者は、院内LAN2に接続される装置が有する立体視モニタそれぞれが必要とする視差数の情報から、視差数の最大値を取得する。そして、この操作者は、取得した最大値以上の視差画像から構成される視差画像群が生成されるように、制御部135に対して視差数を含む所定のレンダリング条件を設定する。以下では、端末装置140の表示部142の視差数「9」が最大値である場合について説明する。なお、本実施形態は、最大値が「18」や「2」である場合であっても適用可能である。
 そして、制御部135は、視差数の情報とともに、予め設定されたレンダリング条件に基づいて、レンダリング処理部136のレンダリング処理を制御する。すなわち、制御部135は、所定形状の図形を形成する直線若しくは曲線に基づいてレンダリング処理を実行するための視点を視差数以上設定することで、視差画像群をレンダリング処理部136に生成させる。以下、第1の実施形態において設定される種々のレンダリング条件について説明する。
 本実施形態のレンダリング条件として設定される上記の所定形状の図形は、ボリュームデータのレンダリング対象となる領域であるレンダリング領域と視点との位置関係により、以下の2つに大別される。すなわち、第1図形条件では、制御部135は、レンダリング領域外に視点が位置されるように所定形状の図形を設定する。そして、制御部135は、設定した図形を形成する直線若しくは曲線を用いて視差画像群をレンダリング処理部136に生成させる。また、第2図形条件では、制御部135は、所定形状の図形として、レンダリング領域内に視点が位置される図形を設定する。そして、制御部135は、設定した図形を形成する直線若しくは曲線を用いて視差画像群をレンダリング処理部136に生成させる。
 また、本実施形態のレンダリング条件としては、視差画像群を構成する視差画像の数により、以下の2つに大別される。すなわち、第1画像数条件では、制御部135は、立体視されるために必要となる視差数の視差画像から構成される視差画像群を生成させる。また、第2画像数条件では、制御部135は、立体視されるために必要となる視差数より大きい数の視差画像から構成される視差画像群を生成させる。
 ここで、本実施形態のレンダリング条件として第1図形条件が設定されている場合、第1図形条件は、更に、視点の設定法により、以下の2つに大別される。すなわち、第1視点設定条件では、制御部135は、所定形状の図形を形成する直線若しくは曲線に沿ってレンダリング処理を実行するための視点を視差数以上設定する。また、第2視点設定条件では、制御部135は、所定形状の図形を形成する直線若しくは曲線上に設定された点における接線に沿ってレンダリング処理を実行するための視点を視差数以上設定する。
 なお、レンダリング条件としては、上述したように、視差角や、投影法、セグメンテーション条件等がある。以下では、視差角が「1度」と設定されている場合を説明する。ただし、視差角は、任意の値を設定することができる。例えば、視差角は、「0.5度」や「0.1度」、「3度」等であっても良い。
 まず、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明する。図8A、図8B及び図8Cは、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明するための図である。例えば、制御部135は、第1図形条件により、レンダリング領域外に視点が位置される図形として、図8Aに示すように、正円を設定する。
 例えば、制御部135は、セグメンテーション処理部1361gが抽出したレンダリング領域の重心の位置を取得する。そして、制御部135は、重心を通る回転軸に対して直交する正円を設定する。ただし、制御部135は、正円がレンダリング領域の外部に位置するように、正円の半径を設定する。正円の半径は、制御部135がレンダリング領域の3次元空間座標に基づいて決定する場合であっても良いし、ワークステーション130の操作者が決定する場合であっても良い。また、正円の中心は、レンダリング領域の重心に限定されるものではなく、ワークステーション130の操作者により任意の位置に設定される場合であっても良い。例えば、正円の中心は、患部等の注目箇所に設定される場合であっても良い。かかる場合、ワークステーション130の操作者は、例えば、ボリュームデータを任意の切断面で切断したMPR画像を参照して患部の注目箇所を正円の中心として設定する。或いは、ワークステーション130として、例えば、病変部の候補領域を自動検出するコンピュータ読影支援診断システム(CAD:Computer Assisted Diagnosis)を搭載した装置を用いることで、ワークステーション130が患部の注目箇所を検出して、正円の中心を設定する場合であっても良い。
 そして、レンダリング処理部136は、制御部135の制御の下、視差角が「1度」となる9視差画像を生成する。
 例えば、制御部135は、第1視点設定条件が設定されている場合、図8Bに示すように、正円の周囲に沿って、視差角が1度となるように9個の視点を設定する。そして、第1視点設定条件が設定されている場合、レンダリング処理部136は、設定された9個の視点を用いて、図6Bで説明した透視投影法により9視差画像を生成する。なお、9個の視点の位置は、操作者、又は、制御部135により設定される。ただし、9個の視点における視線方向は、立体視表示が可能な条件を満たす必要がある。9個の視点における視線方向それぞれは、例えば、図6A及び図6Bに示すように、ボリュームデータの切断面の中心(重心)に向かう方向となるように設定される。
 また、制御部135は、第2視点設定条件が設定されている場合、図8Cに示すように、正円に基準点を設定し、設定した基準点を通る接線に沿って、視差角が1度となるように9個の視点を設定する。そして、第2視点設定条件が設定されている場合、レンダリング処理部136は、設定された9個の視点を用いて、図6Aで説明した平行投影法により9視差画像を生成する。なお、第2視点設定条件が設定されている場合、レンダリング処理部136は、図6Cで説明した投影法により9視差画像を生成しても良い。また、基準点の位置は、操作者、又は、制御部135により設定される。
 続いて、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明する。図9A、図9B及び図10は、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図である。まず、例えば、制御部135は、第1図形条件により、図8で説明したように、レンダリング領域外に視点が位置される図形として正円を設定する。そして、第2画像数条件により設定される視差数は、「10」以上となる。
 ここで、制御部135は、第2画像数条件により視差数「11」が設定され、かつ、第1視点設定条件が設定されている場合、図9Aに示すように、正円の周囲に沿って、視差角が1度となるように11個の視点を設定する。そして、レンダリング処理部136は、設定された11個の視点を用いて、11個の視差画像から構成される視差画像群を生成する。
 また、制御部135は、第2画像数条件により視差数「360」が設定され、かつ、第1視点設定条件が設定されている場合、図9Bに示すように、正円の全周囲に沿って、視差角が1度となるように360個の視点を設定する。なお、図9Bでは、作図の都合上、42個しか視点が描出されていないが、実際には、360個の視点が設定されている。そして、レンダリング処理部136は、設定された360個の視点を用いて、360個の視差画像から構成される視差画像群を生成する。以下、図9Bに示すように、レンダリング対象に対して生成された全周囲の視差画像のことを全周囲データと記載する。
 また、制御部135は、第2画像数条件及び第2視点設定条件が設定されている場合、所定形状の図形を形成する直線若しくは曲線上に設定された複数の点における各接線方向沿ってレンダリング処理を実行するための視点を設定する。例えば、制御部135は、第2画像数条件及び第2視点設定条件が設定されている場合、図10に示すように、正円に複数個の基準点を設定し(図中の斜線付きの丸を参照)、設定した複数の基準点を通る接線それぞれに沿って、視差角が1度となるように9個の視点を設定する。そして、レンダリング処理部136は、各接線において設定された9個の視点を用いて、図6Aで説明した平行投影法により9視差画像を基準点ごとに生成する。なお、レンダリング処理部136は、図6Cで説明した投影法により、基準点ごとの9視差画像を生成しても良い。また、各基準点の位置は、操作者、又は、制御部135により設定される。
 なお、第1図形条件により設定される所定形状の図形は正円に限定されるものではない。図11A、図11B及び図11Cは、第1図形条件の変形例を説明するための図である。
 例えば、第1図形条件により設定される所定形状の図形は、図11Aに示すように、楕円である場合であっても良い。また、第1図形条件により設定される所定形状の図形は、多角形であっても良く、例えば、図11Bに示すように、6角形である場合であっても良い。
 更に、第1図形条件により設定される所定形状の図形は、直線や曲線からなる閉じた図形である場合に限定されるものではない。例えば、第1図形条件により設定される所定形状の図形は、ポリライン(polyline)やスプライン(spline)曲線である場合でもよい。
 また、制御部135は、第1図形条件により、所定形状の図形を複数設定する場合であっても良い。例えば、制御部135は、図11Cに示すように、レンダリング領域の重心を通る回転軸を3つ設定することで、3つの正円を設定し、各正円において視差画像群が生成されるように制御しても良い。なお、視点が位置される図形として正円を用いることで、以下に説明する利点がある。一般的には、任意視点におけるレンダリング画像は、必ずしも、当該視点における視差画像とはならない。しかし、例えば、視点が位置される図形が正円の場合、視差角の条件を適切に設定することで、正円上の任意視点におけるレンダリング画像は、当該視点における視差画像となる。すなわち、視点が位置される図形として正円を用いることで、視差画像群として生成する画像数を大幅に低減することができる。その結果、保存する視差画像群のデータ量を大幅に低減することができる。
 このように、制御部135は、第1図形条件において、第1画像数条件及び第2画像数条件と、第1視点設定条件及び第2視点設定条件との任意の組み合わせにて視差画像群を生成させる。
 そして、制御部135は、レンダリング処理部136が生成した視差画像群を、通信部133を介して、画像保管装置120に格納させる。具体的には、制御部135は、レンダリング処理部136が生成した視差画像群を、当該視差画像群の生成元であるボリュームデータに対応付けて画像保管装置120に格納させる。
 かかる処理により、視差画像群が格納された状態となり、例えば、端末装置140の操作者は、自身が参照したいボリュームデータを指定するだけで、当該ボリュームデータを表示部142にて立体視することができる。
 そこで、端末装置140の制御部145は、以下の表示制御処理を行なう。すなわち、制御部145は、操作者が指定したボリュームデータの視差画像群を画像保管装置120から取得する。具体的には、制御部145は、操作者が指定したボリュームデータから生成された視差画像群から視差数の視差画像を画像保管装置120から取得する。例えば、制御部145は、端末装置140の操作者から入力部141を介して「患者ID、検査ID」等の付帯情報とともに立体視要求を受け付けると、付帯情報及び立体視要求を画像保管装置120に送信する。画像保管装置120は、受信した付帯情報に対応付けられたボリュームデータを検索し、更に、検索したボリュームデータに対応付けられた視差画像群を検索する。そして、画像保管装置120は、検索した視差画像群を端末装置140に送信する。
 そして、制御部145は、取得した視差数の視差画像を用いて構成される立体視画像を9視差モニタである表示部142にて表示させるように制御する。図12~図14は、端末装置における表示制御を説明するための図である。
 例えば、図8を用いて説明した第1図形条件及び第1画像数条件により生成された視差画像群(9視差画像)を取得した場合、制御部145は、図12に示すように、9視差画像を3行3列の格子状に配列した中間画像に変換したうえで、表示部142に出力し、表示させる。なお、中間画像のフォーマットは、格子状に限定されるものではない。例えば、中間画像は、9視差画像を9視差モニタの仕様に応じた画素配置に並べ替えたフォーマットであれば良い。ここで、9視差モニタの仕様としては、縦ストライプ液晶、横ストライプ液晶、縦レンズ方式、斜めレンズ方式、斜めレンズの角度等が挙げられる。
 一方、図9及び図10を用いて説明した第1図形条件及び第2画像数条件により生成された視差画像群を取得した場合、制御部145は、以下に説明する処理を行なう。すなわち、制御部145は、画像保管装置120から取得した視差画像群の画像数が視差数より大きい場合、当該取得した視差画像群から選択された視差数分の画像群を表示部142にて表示させるように制御する。
 例えば、制御部145は、図13に示すように、全周囲データを取得した場合、視点位置が連続する9枚の視差画像を選択して格子状の中間画像に変換したうえで、表示部142に出力し、表示させる。なお、9視差画像の選択処理は、端末装置140の操作者により行なわれる場合であっても良い。また、9視差画像の選択処理は、予め、ワークステーション130により行なわれている場合であっても良い。なお、9視差画像の選択処理は、視点位置が連続する9枚の視差画像を選択する場合に限定されるものではない。例えば、9視差画像の選択処理は、連続する視点位置を2つごとに選択したり、3つごとに選択したりすることで行なわれる場合であっても良い。
 或いは、制御部145は、画像保管装置120から取得した視差画像群の画像数が視差数より大きい場合、当該取得した視差画像群から順次選択された視差数分の画像群を表示部142にて順次表示させるように制御する。具体的には、制御部145は、視差数の視差画像を順次選択することにより複数の立体視画像を表示部142にて順次表示させるように制御する。
 例えば、制御部145は、図14に示すように、全周囲データを取得した場合、視点位置が連続する9枚の視差画像を、数枚ずつずらして順次選択する。そして、制御部145は、図14に示すように、選択した9視差画像を順次中間画像に変換したうえで、表示部142に順次出力し、表示させる。その結果、表示部142は、操作者がボリュームデータを回転させながら立体視観察ができる立体視画像を表示することができる。なお、9視差画像の選択処理は、端末装置140の操作者により行なわれる場合であっても良い。また、9視差画像の選択処理は、予め、ワークステーション130により行なわれている場合であっても良い。なお、視差画像群としてレンダリング処理部136が生成する画像は、必ずしも「視差数以上」である必要はない。具体的には、レンダリング処理部136が生成した「視差数未満」の視差画像から、上述した2次元画像処理部146の補間機能を用いて、「視差数以上」の視差画像を生成する場合であっても良い。例えば、2次元画像処理部146が、視点位置が隣接する2つの視差画像から補間処理により視差画像として代用できる画像を生成することで、「視差数以上」の視差画像を生成する場合であっても良い。すなわち、本実施形態は、制御部135の制御によりレンダリング処理部136が生成した「視差数未満」の視差画像から、制御部145の制御により2次元画像処理部146が補間処理により「視差数以上」の視差画像を生成する場合であっても良い。なお、2次元画像処理部146の補間機能については、後に詳述する。
 次に、第2図形条件について説明する。第2図形条件では、制御部135は、レンダリング領域内に視点が位置されるように所定形状の図形を設定する。図15は、第2図形条件を説明するための図である。例えば、第2図形条件は、大腸を撮影した3次元X線CT画像の表示法(CTC:CT Colonography)として広く用いられている仮想内視鏡(VE:Virtual Endoscopy)表示法が実行される場合に適用される図形条件である。
 例えば、セグメンテーション処理部1361gは、大腸の管腔領域を抽出する。更に、セグメンテーション処理部1361gは、図15に示すように、管腔領域の芯線を抽出する。セグメンテーション処理部1361gにより抽出された芯線が第2図形条件にて用いられる所定形状の図形となる。そして、セグメンテーション処理部1361gは、図15に示すように、更に、抽出した芯線に所定間隔で複数の基準点を設定する(図中の白抜きの丸を参照)。
 かかる情報を取得した制御部135は、図15に示すように、芯線の各基準点が位置する場所に視点を設定し、視点を通り芯線に垂直となる平面において、設定した視点を中心として放射状に大腸内壁(管腔内壁)を1周囲で観察するための視線方向を設定する。基準点を中心に視線方向を360度回転させることにより、レンダリング処理部136は、各基準点において、大腸内壁(管腔内壁)を1周囲で立体視できる全周囲データを生成する。
 このようにして生成されたVE表示法の視差画像群は、画像保管装置120に格納される。そして、制御部145は、VE表示法の視差画像群のセットを画像保管装置120から取得して、表示部142に表示させる。すなわち、制御部145は、各基準点にて生成された全周囲データから選択された9視差画像を中間画像に変換したうえで、表示部142に出力する。なお、第1図形条件は、視点の位置をレンダリング領域外に限定し、第2図形条件は、視点の位置をレンダリング領域内に限定したものであるが、第1の実施形態において設定される視点の位置は、これらに限定されるものではない。例えば、第1の実施形態は、視点の一部がレンダリング領域内に位置し、視点の一部がレンダリング領域外に位置するように図形を設定する第3図形条件により立体視画像に用いられる視差画像群が生成される場合であっても良い。なお、第3図形条件にて設定される図形は、正円や楕円、多角形、直線、ポリラインやスプライン曲線のいずれの場合であっても良い。
 次に、図16及び図17を用いて第1の実施形態に係る画像処理システム1の処理について説明する。図16は、第1の実施形態に係る画像処理システムの画像格納処理を説明するための図である。また、図17は、第1の実施形態に係る画像処理システムの画像表示処理を説明するための図である。
 図16に示すように、第1の実施形態に係る画像処理システム1のワークステーション130は、処理対象となるボリュームデータが指定されたか否かを判定する(ステップS101)。ここで、ボリュームデータが指定されない場合(ステップS101否定)、ワークステーション130は、ボリュームデータが指定されるまで待機する。
 一方、ボリュームデータが指定された場合(ステップS101肯定)、制御部135は、指定されたボリュームデータを画像保管装置120から取得する(ステップS102)。そして、制御部135は、取得したボリュームデータに対するレンダリング条件を受け付けたか否かを判定する(ステップS103)。ここでレンダリング条件は、視差角、セグメンテーション条件等の他に、上述した図形条件、画像数条件、視点位置条件となる。
 レンダリング条件を受け付けない場合(ステップS103否定)、制御部135は、レンダリング条件を受け付けるまで待機する。一方、レンダリング条件を受け付けた場合(ステップS103肯定)、制御部135の制御により、レンダリング処理部136は、レンダリング条件に基づいて、ボリュームデータから視差画像群を生成する(ステップS104)。
 そして、制御部135は、画像保管装置120が視差画像群を格納するように制御し(ステップS105)、処理を終了する。
 その後、図17に示すように、第1の実施形態に係る画像処理システム1の端末装置140は、操作者により処理対象となるボリュームデータが指定されたか否かを判定する(ステップS201)。ここで、ボリュームデータが指定されない場合(ステップS201否定)、端末装置140は、ボリュームデータが指定されるまで待機する。
 一方、ボリュームデータが指定された場合(ステップS201肯定)、制御部145は、指定されたボリュームデータに対応付けられた視差画像群を取得し(ステップS202)、取得した視差画像群が9視差画像であるか否かを判定する(ステップS203)。なお、制御部145は、取得した視差画像群を記憶部144に格納する。
 ここで、取得した視差画像群が9視差画像である場合(ステップS203肯定)、制御部145は、9視差画像を中間画像に変換し(ステップS205)、表示部142にて表示させ(ステップS206)、処理を終了する。
 一方、取得した視差画像群が10枚以上の視差画像群である場合(ステップS203否定)、制御部145は、9視差画像を選択して中間画像に変換し(ステップS204)、表示部142にて表示させ(ステップS206)、処理を終了する。なお、図14で例示した回転表示を行なう場合、制御部145は、ステップS204及びSステップ206の処理を繰り返して実行する。
 上述してきたように、第1の実施形態では、第1図形条件や、第2図形条件等の様々なレンダリング条件により、予め、ボリュームデータから視差画像群を生成し記憶させておくことで、立体視要求を受け付けた場合に、リアルタイムでボリュームレンダリング処理を行なうことなく、立体視可能な画像群を提供することができる。従って、第1の実施形態では、高い画像処理能力を有するワークステーション130を設置する必要がなく、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減することができる。
 なお、上記の第1の実施形態は、以下に説明する3つの変形例を行なっても良い。以下、図18~図20を用いて第1の実施形態の変形例について説明する。図18A及び図18Bは、第1の実施形態に係る第1の変形例を説明するための図である。
 第1の実施形態に係る第1の変形例は、端末装置140の操作者の要望に応じて立体視される画像の立体感を変更させるものである。例えば、視差角が1度の9視差画像と視差角が2度の9視差画像とを比較すると、視差角が2度の9視差画像の方が、立体感が増すことが知られている。そこで、第1の変形例に係る制御部145は、表示部142に対して立体視用に出力する視差数分の画像群の視差角を変更させる。すなわち、制御部145は、選択する所定数の視差数の視差画像相互間の視差角を変更させる。例えば、入力部141は、立体感レベルを調整するためのスライドバーを有し、スライドバーの位置は、視差角の値と対応付けられているとする。
 ここで、操作者から立体感を向上させるためにスライドさせたバーの位置が「視差角:2度」である場合、制御部145は、「視差角:2度」の画像群を「視差角:1度」の全周囲データから選択可能であると判定する。そして、制御部145は、図18Aに示すように、「視差角:1度」の全周囲データから、「視差角:2度」となるように、1つおきに視差画像を9枚選択し、選択した9枚の画像を表示部142に出力させる。
 また、操作者から立体感を低下させるためにスライドさせたバーの位置が「視差角:0.5度」である場合、制御部145は、「視差角:0.5度」の画像群全てを「視差角:1度」の全周囲データから選択不可であると判定する。すなわち、制御部145は、図18Bに示す黒丸で示す視点位置の視差画像が存在しないと判定する。そこで、制御部145は、2次元画像処理部146の補間機能を利用する。すなわち、2次元画像処理部146は、上述したように、2つの視差画像それぞれの奥行き情報用いて、補間処理により、当該2つの視差画像から新たな視差画像を生成する補間機能を有する。2次元画像処理部146が実行する補間処理の具体例について、以下、説明する。例えば、画像Aと画像Bとの中間に位置する画像Cを生成する場合、2次元画像処理部146は、画像Aから画像Bへの方向を示す「画像Aと画像BとのWarp Field」を「Mutual Information法」によって算出する。そして、2次元画像処理部146は、「Warp Field」における各画素ベクトルの中間点(画像Aから画像Bへのベクトルの半分)を画像Aに積算することで、画像Cを生成する。また、画像Aと画像Bとの中間に位置する画像ではなく、例えば、「2:1」の角度位置の画像Cが必要な場合は、2次元画像処理部146は、「2:1」の比率に位置する画像Aから画像Bへのベクトルの画素を用いて画像Cを生成する。なお、画像Aと画像Bとの角度間隔が狭い場合、2次元画像処理部146は、奥行き情報を用いずに、画像Aと画像Bとを足し合わせた後に、画素値を半分にするといった単純な補間処理を行なっても良い。
 制御部145は、図18Bに示す黒丸で示す視点位置の視差画像を隣接する取得済みの2つの視差画像から補間処理により生成するように2次元画像処理部146を制御する。すなわち、2次元画像処理部146は、黒丸で示す視点位置に隣接する2つ視点により生成されている2つの視差画像それぞれの奥行き情報を用いて、補間処理により、黒丸で示す視点位置に対応する新たな視差画像を生成する。これにより、制御部145は、「視差角:0.5度」となる9枚の画像を表示部142に出力させる。
 このように、第1の実施形態に係る第1の変形例では、レンダリング処理を再実行させることなく、操作者の要望に応じて立体視される画像の立体感を変更することができる。
 次に、第1の実施形態に係る第2の変形例について図19A及び図19Bを用いて説明する。図19A及び図19Bは、第1の実施形態に係る第2の変形例を説明するための図である。
 第2の変形例において、レンダリング制御処理を行なう制御部135は、視差画像群を構成する各画像の解像度が、出力対象の立体表示モニタ(表示部142)の解像度より高くなるように、レンダリング処理部136を制御する。
 例えば、制御部135は、予め、端末装置40から表示部142の解像度が「512ピクセル×512ピクセル」であることを取得する。かかる場合、制御部135は、例えば、レンダリング処理部136に対して「1024ピクセル×1024ピクセル」の解像度となるボリュームレンダリング画像を生成するように指示する。
 これにより、端末装置140の制御部145は、図19Aに示すように、「1024ピクセル×1024ピクセル」の9視差画像を取得する。制御部145は、表示部142に取得した9視差画像を出力するために、2次元画像処理部146が有する拡大縮小機能を利用する。例えば、制御部145の指示により、2次元画像処理部146は、近接する画素の画素値の平均値を算出する補間処理により、図19Aに示すように、「1024ピクセル×1024ピクセル」の9視差画像を「512ピクセル×512ピクセル」の9視差画像とする。
 そして、制御部145は、図19Aに示すように、「512ピクセル×512ピクセル」の9視差画像を格子状に配置した中間画像に変換して表示部142に出力する。
 このように、高解像度の画像を低解像度に変換することで、以下の効果が奏することができる。すなわち、「512ピクセル×512ピクセル」の9視差画像を参照した操作者が拡大表示要求を要求した場合、制御部145は、2次元画像処理部146に対して9視差画像の拡大処理を指示することとなる。ここで、端末装置140の記憶部144には、原画像である「1024ピクセル×1024ピクセル」の9視差画像が格納されている。
 例えば、拡大要求された領域が原画像において「768ピクセル×768ピクセル」のサイズであるとする。かかる場合、2次元画像処理部146は、図19Bに示すように、原画像から「768ピクセル×768ピクセル」の領域を切り出して、「512ピクセル×512ピクセル」に縮小することで出力用の9視差画像を生成することができる。かかる9視差画像は、原画像が「512ピクセル×512ピクセル」の9視差画像である場合と比較して、解像度が低下していない。
 すなわち、第3の変形例では、高解像度の視差画像群を生成しておくことで、表示先の立体視用のモニタにて立体視画像が拡大表示された場合に低解像度となることを回避することができる。
 次に、第1の実施形態に係る第3の変形例について図20を用いて説明する。図20は、第1の実施形態に係る第3の変形例を説明するための図である。
 上記では、表示部142が9視差モニタである場合について説明したが、第1の実施形態は、表示部142が図2を用いて説明した2視差モニタである場合であっても適用可能である。例えば、制御部145が、図20に示すように、操作者が指定したボリュームデータに対応付けられた視差画像群として「視差角:1度」の9視差画像を取得したとする。かかる場合、制御部145は、図20に示すように、例えば、操作者が要求する「視差角:2度」となる2視差画像を9視差画像から選択し、表示部142に出力する。
 このように、制御部135の制御により、最大視差数以上の視差画像から構成される視差画像群を生成しておくことで、立体視モニタの立体視仕様に応じて立体視用の画像を表示させることができる。
 なお、上述した第1の実施形態及び第1の実施形態に係る変形例は、時系列に沿った複数のボリュームデータ(4Dデータ)が処理対象となる場合であっても適用可能である。かかる場合、制御部135は、時系列に沿った複数の視差画像群を生成させる。そして、制御部135は、複数の視差画像群を、4Dデータに対応付けて画像保管装置120に格納させる。そして、制御部145は、操作者が指定した4Dデータに対応付けられた複数の視差画像群を取得し、取得した複数の視差画像群を時系列に沿って個々の立体視画像に分割したうえで、表示部142にて立体視可能な動画として表示させることとなる。
(第2の実施形態)
 第2の実施形態では、視差画像群を格納する際のデータ形式について説明する。
 第2の実施形態において、ワークステーション130の制御部135は、格納制御処理を行なう際に、医用画像を送受信するための標準規格に基づいて、視差画像群を動画形式の動画データとして画像保管装置120に格納するように制御する。
 すなわち、第2の実施形態に係る制御部135は、図1を用いて説明したように、画像処理システム1が、標準規格であるDICOM規格に準拠したPACSであることを利用して、視差画像群を格納する際のデータ形式を、DICOM準拠の動画データとして画像保管装置120に格納するように制御する。
 更に、第2の実施形態に係る制御部135は、動画データとして格納した画像群が立体視用の画像群(視差画像群)であることを示す付帯情報として、プライベートタグを付与する。かかるプライベートタグが付与されることで、第2の実施形態に係る端末装置140の制御部145は、操作者が指定したボリュームデータの動画データを画像保管装置120から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが視差画像群であるか否かを判定する。
 例えば、第2の実施形態に係る端末装置140の制御部145は、入力部131が有する「立体表示ボタン」を操作者が押下した場合、取得した動画データが立体視用データ形式に変換可能であるか否かを判定する。変換可能であると判定した場合、制御部145は、立体視用のデータ形式に動画データを変換して表示部142に出力する。一方、変換不可であると判定した場合、制御部145は、動画データを表示部142にて動画表示させる。
 図21A、図21B、図22及び図23は、動画データに付与されるプライベートタグを説明するための図である。例えば、制御部135は、図21Aに示すように、9つの画像を1つの長尺画像として結合することで、9視差画像を動画データとする。そして、制御部135は、図21Aに示すように、「プライベートタグ:立体視」を付帯情報として動画データに付与する。
 制御部145は、例えば、立体表示ボタンが押下された場合、「プライベートタグ:立体視」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、図21Aに示すように、動画データに格納されている画像群を格子状の中間画像に変換して表示部142に出力する。
 或いは、9視差画像に付与するプライベートタグとしては、図21Bに示すように、視差角の情報であっても良い。例えば、制御部135は、図21Bに示すように、「視差角:1度」を付帯情報として動画データに付与する。制御部145は、視差角の情報が付与されていることから、取得した動画データが立体視用の画像群(視差画像群)であると判定する。
 なお、端末装置140の操作者は、立体視用に表示された立体視画像を立体視できないことが回避できるように、自身が立体視できる視差角の閾値を予め設定しておいても良い。例えば、操作者が「視差角:2度以内」とする情報を予め設定していた場合、制御部145は、例えば、取得した動画データに「視差角:5度」が付与されているならば、立体視不可として判定する。
 また、図22に示すように、例えば、視差画像群が360枚の全周囲データである場合、制御部135は、360枚の全周囲データを1つの動画データとする。そして、制御部135は、図22に示すように、「プライベートタグ:全周囲データ」を付帯情報として動画データに付与する。制御部145は、例えば、立体表示ボタンが押下された場合、「プライベートタグ:全周囲データ」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、図22に示すように、動画データに格納されている画像群から選択した9視差画像を格子状の中間画像に変換して表示部142に出力する。
 或いは、図15を用いて説明した第2図形条件により生成された視差画像群を動画データとして保存する場合、制御部135は、図23に示すプライベートタグを付与する。すなわち、制御部135は、図23に示すように、「プライベートタグ:立体視」及び「プライベートタグ:全周囲データ」を付帯情報として動画データに付与する。更に、制御部135は、図23に示すように、動画データを基準点ごとの全周囲データに分割するための付帯情報として、異なる基準点の全周囲データの開始前の位置に「基準点フラグ」を挿入する。
 かかる付帯情報により、制御部145は、取得した動画データが視差画像群であると判定する。そして、制御部145は、フラグごとに動画データを分割して、VE表示法の立体視画像を立体視用に変換して表示部142に出力する。
 このように、プライベートタグを用いることで、PACSが導入されている病院内で、DICOM規格に準拠した動画データとして視差画像群を送受信することができる。しかし、プライベートタグを用いる場合、ビューアである端末装置140にプライベートタグを認識させるための機能を付加する必要がある。しかし、PACSとして運用されている画像処理システム1に様々なプライベートタグ認識機能を追加することは、システムの変更が必要となる。
 そこで、第2の実施形態に係る制御部135は、視差画像群をDICOM規格に準拠して動画形式の動画データとし、更に、標準規格(DICOM規格)にて用いられる付帯情報を当該動画データに付与したうえで、画像保管装置120に格納するように制御する。そして、第2の実施形態に係る制御部145は、操作者が指定したボリュームデータの動画データを画像保管装置120から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが視差画像群であるか否かを判定する。
 以下、図24及び図25を用いて、視差画像群であると判定可能なDICOM規格に準拠した付帯情報の一例について説明する。図24及び図25は、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図である。
 例えば、制御部135は、図24に示すように、9つの画像を1つの長尺画像と結合することで、9視差画像を動画データとする。そして、制御部135は、図24に示すように、通常、DICOM規格にて付与される既存タグとしての付帯情報である「枚数:9」を動画データに付与する。制御部145は、例えば、立体表示ボタンが押下された場合、「枚数:9」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、動画データに格納されている9視差画像を格子状の中間画像に変換して表示部142に出力する。
 或いは、制御部135は、図25に示すように、視差画像群が360枚の全周囲データである場合、360枚の全周囲データを1つの動画データとする。そして、制御部135は、図25に示すように、通常、DICOM規格にて付与される既存タグとしての付帯情報である「枚数:360」を動画データに付与する。制御部145は、例えば、立体表示ボタンが押下された場合、「枚数:360」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、図25に示すように、動画データに格納されている視差画像群から選択した9視差画像を格子状の中間画像に変換して表示部142に出力する。或いは、制御部145は、動画データに格納されている視差画像群から順次選択した9視差画像を格子状の中間画像に変換して表示部142に順次出力する。或いは、制御部145は、動画データに格納されている視差画像群から、特定範囲の連続データにおいて、順次選択した9視差画像を格子状の中間画像に変換して表示部142に順次出力する。例えば、制御部145は、動画データに格納されている360枚の全周囲データの「1枚目から180枚目」の視差画像群から順次選択した9視差画像を格子状の中間画像に変換して表示部142に順次出力する。
 次に、図26を用いて第2の実施形態に係る画像処理システム1の処理について説明する。図26は、第2の実施形態に係る画像処理システムの画像表示処理を説明するための図である。なお、第2の実施形態に係る画像処理システム1の画像格納処理は、図16を用いて説明したステップS105において、制御部135が視差画像群をDICOM規格に準拠した動画データとし、当該動画データに付帯情報を付与したうえで、画像保管装置120に格納させる以外は同様であるので説明を省略する。
 図26に示すように、第2の実施形態に係る画像処理システム1の端末装置140は、操作者により処理対象となるボリュームデータが指定されたか否かを判定する(ステップS301)。ここで、ボリュームデータが指定されない場合(ステップS301否定)、端末装置140は、ボリュームデータが指定されるまで待機する。
 一方、ボリュームデータが指定された場合(ステップS301肯定)、制御部145は、指定されたボリュームデータに対応付けられた動画データを取得し(ステップS302)、立体表示ボタンが押下されたか否かを判定する(ステップS303)。ここで、立体表示ボタンが押下されない場合(ステップS303否定)、制御部145は、立体表示ボタンが押下されるまで待機する。
 一方、立体表示ボタンが押下された場合(ステップS303肯定)、制御部145は、付帯情報を参照して、立体視用データ形式である中間画像に変換可能であるか否かを判定する(ステップS304)。ここで、変換不可と判定した場合(ステップS304否定)、制御部135は、取得した動画データを動画表示させ(ステップS307)、処理を終了する。
 一方、変換可能と判定した場合(ステップS304肯定)、制御部135は、動画データを中間画像に変換する(ステップS305)。そして、制御部135は、中間画像を表示部142に出力することで、立体視表示させ(ステップS306)、処理を終了する。
 上述してきたように、第2の実施形態では、視差画像群をDICOM規格の動画データとして取り扱うことで、現在最も普及しているDICOM規格の院内システムにて、視差画像群から選択した立体視画像を表示可能とすることができる。また、第2の実施形態では、DICOM規格に準拠した既存タグを用いて立体視可能であるか否かを判定して表示させることができるので、現在最も普及しているDICOM規格の院内システムを変更させることなく、そのまま視差画像群から選択した立体視画像を表示するためのシステムとして運用することができる。なお、上記では、立体表示ボタンが押下されることで、制御部145による判定処理が行なわれる場合について説明した。しかし、第2の実施形態は、立体表示ボタンによる操作を判定処理の契機とするのではなく、動画データを取得した時点で制御部145による判定処理が行なわれる場合であっても良い。かかる場合、通常のDICOM規格に準拠したビューアを搭載する端末装置140において、制御部145により変換不可と判定された動画データは、動画として認識され、動画表示されることとなる。また、上記では、視差画像群をDICOM規格に準拠した動画データとする場合について説明した。しかし、第2の実施形態は、DICOM規格に準拠した規格化データとして、例えば、全周囲データ等の360枚のデータを360枚のDICOM規格に準拠した静止画データとする場合であっても良い。かかる場合、制御部135は、360枚のDICOM静止画データを含むデータに、例えば、「枚数:360」の既存タグを付与する。そして、制御部145は、360枚のDICOM静止画データから、9視差画像を選択して、表示部142に出力する。例えば、制御部145は、立体表示ボタンが押下された場合、360枚のDICOM静止画データを含むデータに「枚数:360」の既存タグが付与されていることから、当該静止画データ群が視差画像群であると判定し、9視差画像を選択して、表示部142に出力する。
 なお、上記の第2の実施形態は、以下に説明する変形例を行なっても良い。すなわち、第1の実施形態で説明したように、画像処理システム1は、4Dデータに対しても処理が可能であり、制御部135が生成させた時系列に沿った複数の視差画像群は、DICOM規格に準拠した動画データとして取り扱うことが可能である。
 まず、制御部135は、第1の実施形態で説明したように、複数のボリュームデータが時系列に沿って生成されている場合、各ボリュームデータから時系列に沿った複数の視差画像群を生成させるようにレンダリング処理部136を制御する。
 そして、第2の実施形態に係る変形例では、制御部135は、レンダリング処理部136が生成した複数の視差画像群をDICOM規格に準拠した動画形式の動画データとする。ここで、第2の実施形態に係る変形例においても、付帯情報として、プライベートタグ、又は、既存タグを動画データに付与することができる。
 まず、図8Bを用いて説明したレンダリング条件により時系列に沿った9視差画像群が生成された場合に付与されるプライベートタグの一例を、図27A及び図27Bを用いて説明する。図27A及び図27Bは、第2の実施形態に係る変形例にて、動画データに付与されるプライベートタグを説明するための図である。例えば、制御部135は、図27Aに示すように、時系列に沿った複数の9視差画像それぞれを、動画データとする。更に、制御部135は、各動画データに「プライベートタグ:立体視」を付与する。
 また、制御部135は、各動画データに既存タグである時間情報を付与する。ここで、時間情報とは、動画データの生成元となったボリュームデータが撮影された時間であり、例えば、ミリ秒単位で刻まれた時刻の情報である。例えば、制御部135は、各動画データに既存タグである『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』を付与する。かかる動画データ群は、制御部135の格納制御により、生成元の4Dデータに対応付けて画像保管装置120に格納される。
 そして、制御部145は、操作者が指定した4Dデータに対応付けられた動画データ群を一括して取得し、取得した各動画データ全てに「プライベートタグ:立体視」が付与されていることから、立体視可能であると判定する。更に、制御部145は、取得した動画データ群に付与された既存タグの時間が、例えば、ミリ秒単位で刻まれた時刻であることから、動画データ群が動画表示用の時系列に沿った複数の視差画像群であると判定する。
 そして、制御部145は、図27Aに示すように、動画データ群を『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』の時系列に沿った複数の中間画像に変換し、表示部142に出力する。
 或いは、制御部135は、時系列に沿った複数の9視差画像を1つの動画データとする。例えば、制御部135は、図27Bに示すように、時系列に沿った50個の9視差画像を1つの動画データとする。ただし、制御部135は、『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・「時間:t50」』の50個の9視差画像を、視点位置ごとに分割する。
 そして、制御部135は、「時間:t1」~「時間:t50」の視点(1)の視差画像を時系列に沿って並べる(図中の「1(t1)、1(t2)・・・・、1(t50)」を参照」。同様に、制御部135は、「時間:t1」~「時間:t50」の視点(2)の視差画像を時系列に沿って並べる(図中の「2(t1)、2(t2)・・・・、2(t50)」を参照)。同様に、制御部135は、「時間:t1」~「時間:t50」の視点(3)の視差画像を時系列に沿って並べる(図中の「3(t1)、3(t2)・・・・、3(t50)」を参照)。制御部135は、かかる並べ替えの処理を視点(4)~視点(9)についても同様に行なう。
 そして、制御部135は、動画データに対して、動画表示用の視差画像群であることを示す「プライベートタグ:4D(50)」を付与する。なお、プライベートタグの「50」は、時系列に沿った50個の9視差画像が4D用のデータとして格納されていることを示す情報である。
 そして、制御部145は、操作者が指定した4Dデータに対応付けられた動画データを取得し、取得した動画データに「プライベートタグ:4D(50)」が付与されていることから、立体視可能であり、かつ、動画表示用の複数の視差画像群であると判定する。
 そして、制御部145は、図27Bに示すように、動画データを『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』の時系列に沿った複数の中間画像に変換し、表示部142に出力する。
 ただし、上述したように、PACSとして運用されている画像処理システム1に様々なプライベートタグ認識機能を追加することは、システムの変更が必要となる。
 そこで、本変形例においても、制御部135は、DICOM規格に準拠した付帯情報(既存タグ)を動画データに付与したうえで、画像保管装置120に格納するように制御する。図28は、第2の実施形態に係る変形例にて、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図である。
 例えば、制御部135は、図28に示すように、時系列に沿った複数の9視差画像それぞれを、動画データとする。更に、制御部135は、各動画データに既存タグとして枚数を示す「9」を付与する。更に、制御部135は、各動画データに既存タグである時間情報を付与する。例えば、制御部135は、各動画データに既存タグである『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』を付与する。かかる動画データ群は、制御部135の格納制御により、生成元の4Dデータに対応付けて画像保管装置120に格納される。
 そして、制御部145は、操作者が指定した4Dデータの動画データを画像保管装置120から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが動画表示用の時系列に沿った複数の視差画像群であるか否かを判定する。
 制御部145は、取得した各動画データ全てに枚数が「9」であることを示す既存タグが付与されていることから、立体視可能であると判定する。更に、制御部145は、取得した動画データ群に付与された既存タグの時間が、ミリ秒単位で刻まれた時刻であることから、動画データ群が動画表示用の時系列に沿った複数の視差画像群であると判定する。
 そして、制御部145は、図28に示すように、動画データを『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』の時系列に沿った複数の中間画像に変換し、表示部142に出力する。なお、図27A、図27B及び図28を用いて説明した内容は、視差画像群が360枚の全周囲データである場合であっても適用可能である。
 このように、第2の実施形態に係る変形例では、4Dデータを取り扱う場合であっても、現在最も普及しているDICOM規格の院内システムを変更させることなく、そのまま立体視画像を表示するためのシステムとして運用することができる。
 なお、上記実施形態においては、ワークステーション130が、制御部135により、視差画像群の生成制御及び格納制御を行ない、端末装置140が、制御部145により、立体視画像の取得及び表示制御を行なう場合について説明した。しかしながら、実施形態はこれに限られるものではない。例えば、ワークステーション130が、視差画像群の生成制御及び格納制御とともに、視差画像群の取得及び表示制御を行なう場合であっても良い。また、医用画像診断装置110や端末装置140が、視差画像群の生成制御及び格納制御と、視差画像群の取得及び表示制御とを行なう場合であっても良い。
 また、医用画像診断装置110が視差画像群の生成制御及び格納制御を行ない、ワークステーション130や端末装置140が視差画像群の取得及び表示制御を行なう場合であってあっても良い。
 また、上記実施形態においては、視差画像群の格納先が画像保管装置120である場合について説明した。しかしながら、実施形態はこれに限られるものではない。例えば、視差画像群の生成制御を行なった装置が格納制御を行なう対象は、自装置の記憶部である場合であっても良い。かかる場合、端末装置40は、例えば、ワークステーション130から視差画像群を取得する。
 すなわち、上記の実施形態で説明したレンダリング処理部136、制御部135、制御部145及び画像保管装置120の処理は、画像処理システム1に含まれる各装置の各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 なお、上記の実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD、Blu-ray Disc(登録商標)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
 以上、説明したとおり、第1の実施形態、第1の実施形態に係る変形例、第2の実施形態及び第2の実施形態に係る変形例によれば、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (18)

  1.  所定の視差数の視差画像を用いて構成される立体視画像を表示可能な立体表示装置と、
     3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部、前記所定の視差数以上の視差画像群を前記ボリュームデータから生成させるように前記レンダリング処理部を制御するレンダリング処理制御部、及び前記レンダリング処理部が生成した前記視差画像群を記憶部に格納させる格納制御部を備えた画像処理装置と、
     を備え、
     前記立体表示装置は、前記記憶部に格納された前記視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示する、画像処理システム。
  2.  操作者が指定したボリュームデータから生成された前記視差画像群から前記所定の視差数の視差画像を前記記憶部から取得し、当該取得した前記所定の視差数の視差画像を用いて構成される立体視画像を前記立体表示装置にて表示させるように制御する表示制御部、
     を更に備える、請求項1に記載の画像処理システム。
  3.  前記レンダリング処理制御部は、所定形状の図形を形成する直線若しくは曲線に基づいてレンダリング処理を実行するための視点を前記視差数以上設定することで、前記視差画像群を前記レンダリング処理部に生成させる、請求項1に記載の画像処理システム。
  4.  前記レンダリング処理制御部は、前記ボリュームデータのレンダリング対象となる領域であるレンダリング領域外に視点が位置されるように前記所定形状の図形を設定し、当該設定した図形を形成する直線若しくは曲線に基づいて前記視差画像群を前記レンダリング処理部に生成させる、請求項3に記載の画像処理システム。
  5.  前記レンダリング処理制御部は、前記所定形状の図形を形成する直線若しくは曲線に沿ってレンダリング処理を実行するための視点を前記視差数以上設定する、請求項4に記載の画像処理システム。
  6.  前記レンダリング処理制御部は、前記所定形状の図形を形成する直線若しくは曲線上に設定された点における接線に沿ってレンダリング処理を実行するための視点を前記視差数以上設定する、請求項4に記載の画像処理システム。
  7.  前記レンダリング処理制御部は、前記所定形状の図形を形成する直線若しくは曲線上に設定された複数の点における各接線方向沿ってレンダリング処理を実行するための視点を設定する、請求項4に記載の画像処理システム。
  8.  前記レンダリング処理制御部は、前記ボリュームデータのレンダリング対象となる領域であるレンダリング領域内に視点が位置されるように前記所定形状の図形を設定し、当該設定した図形を形成する直線若しくは曲線に基づいて前記視差画像群を前記レンダリング処理部に生成させる、請求項3に記載の画像処理システム。
  9.  前記レンダリング処理制御部は、前記所定形状の図形を複数設定する、請求項3に記載の画像処理システム。
  10.  前記表示制御部は、前記記憶部から前記所定の視差数の視差画像を順次選択することにより複数の立体視画像を前記立体表示装置にて順次表示させるように制御する、請求項2に記載の画像処理システム。
  11.  前記表示制御部は、選択する前記所定数の視差数の視差画像相互間の視差角を変更させる、請求項2に記載の画像処理システム。
  12.  前記レンダリング処理制御部は、前記視差画像群を構成する各画像の解像度が、前記所定の立体表示装置の解像度より高くなるように、前記レンダリング処理部を制御する、請求項1に記載の画像処理システム。
  13.  前記レンダリング処理制御部は、前記視差画像群を、医用画像を送受信するための標準規格に基づく形式に規格化した規格化データとし、更に、格納制御部は、前記標準規格にて用いられる付帯情報を当該規格化データに付与したうえで、前記記憶部に格納するように制御し、
     前記表示制御部は、操作者が指定したボリュームデータの規格化データを前記記憶部から取得し、当該取得した規格化データに付与された付帯情報に基づいて、当該規格化データが前記視差画像群であるか否かを判定する、請求項2に記載の画像処理システム。
  14.  前記レンダリング処理制御部は、前記標準規格に基づいて、前記視差画像群を動画形式の動画データとし、更に、格納制御部は、前記標準規格にて用いられる付帯情報を当該動画データに付与したうえで、前記記憶部に格納するように制御し、
     前記表示制御部は、操作者が指定したボリュームデータの動画データを前記記憶部から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが前記視差画像群であるか否かを判定する、請求項13に記載の画像処理システム。
  15.  前記レンダリング処理制御部は、複数のボリュームデータが時系列に沿って生成されている場合、各ボリュームデータから時系列に沿った複数の視差画像群を生成させるように前記レンダリング処理部を制御し、前記レンダリング処理部が生成した前記複数の視差画像群を前記標準規格にて用いられる動画形式の動画データとし、更に、格納制御部は、前記標準規格にて用いられる付帯情報を当該動画データに付与したうえで、前記記憶部に格納するように制御し、
     前記表示制御部は、操作者が指定した複数のボリュームデータの動画データを前記記憶部から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが動画表示用の時系列に沿った複数の視差画像群であるか否かを判定する、請求項14に記載の画像処理システム。
  16.  所定の視差数の視差画像を用いて構成される立体視画像を表示可能な立体表示装置と、
     3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部と、
     前記所定の視差数以上の視差画像群を前記ボリュームデータから生成させるように前記レンダリング処理部を制御するレンダリング処理制御部と、
    前記レンダリング処理部が生成した前記視差画像群を記憶部に格納させる格納制御部と、
     を備え、
     前記立体表示装置は、前記記憶部に格納された前記視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示する、画像処理装置。
  17.  画像処理装置が、3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部を、所定の視差数以上の視差画像群を前記ボリュームデータから生成させるように制御し、前記レンダリング処理部が生成した前記視差画像群を記憶部に格納させるステップ、
     を含み、
     前記所定の視差数の視差画像を用いて構成される立体視画像を表示可能な立体表示装置が、前記記憶部に格納された前記視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示するステップ、
     を含む、画像処理方法。
  18.  3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部を、所定の視差数以上の視差画像群を前記ボリュームデータから生成させるように制御し、前記レンダリング処理部が生成した前記視差画像群を記憶部に格納させる手順、
     をコンピュータとしての画像処理装置に実行させ、
     前記記憶部に格納された前記視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示する手順、
     を前記所定の視差数の視差画像を用いて構成される立体視画像を表示可能な立体表示装置に接続されるコンピュータに実行させる、画像処理プログラム。
PCT/JP2012/059200 2011-04-07 2012-04-04 画像処理システム、装置、方法及びプログラム WO2012137821A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2012800005659A CN102821695A (zh) 2011-04-07 2012-04-04 图像处理系统、装置、方法以及程序
US14/039,936 US9445082B2 (en) 2011-04-07 2013-09-27 System, apparatus, and method for image processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011085838A JP2012217591A (ja) 2011-04-07 2011-04-07 画像処理システム、装置、方法及びプログラム
JP2011-085838 2011-04-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/039,936 Continuation US9445082B2 (en) 2011-04-07 2013-09-27 System, apparatus, and method for image processing

Publications (1)

Publication Number Publication Date
WO2012137821A1 true WO2012137821A1 (ja) 2012-10-11

Family

ID=46969215

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059200 WO2012137821A1 (ja) 2011-04-07 2012-04-04 画像処理システム、装置、方法及びプログラム

Country Status (4)

Country Link
US (1) US9445082B2 (ja)
JP (1) JP2012217591A (ja)
CN (2) CN107595313A (ja)
WO (1) WO2012137821A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186439A1 (ja) * 2014-06-03 2015-12-10 株式会社 日立メディコ 画像処理装置及び立体視表示方法
US9928610B2 (en) * 2014-06-27 2018-03-27 Samsung Electronics Co., Ltd. Motion based adaptive rendering
US11049269B2 (en) 2014-06-27 2021-06-29 Samsung Electronics Co., Ltd. Motion based adaptive rendering
US10610179B2 (en) * 2017-06-05 2020-04-07 Biosense Webster (Israel) Ltd. Augmented reality goggles having X-ray protection
US10722210B2 (en) * 2017-12-14 2020-07-28 Siemens Healthcare Gmbh Method for memorable image generation for anonymized three-dimensional medical image workflows
CN112955929A (zh) * 2018-11-07 2021-06-11 株式会社东芝 图像处理装置、图像处理方法以及程序
US11538214B2 (en) * 2020-11-09 2022-12-27 Meta Platforms Technologies, Llc Systems and methods for displaying stereoscopic rendered image data captured from multiple perspectives
US20220319707A1 (en) * 2021-02-05 2022-10-06 University Of Virginia Patent Foundation System, Method and Computer Readable Medium for Video-Based Facial Weakness Analysis for Detecting Neurological Deficits

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体
JP2007531554A (ja) * 2003-11-03 2007-11-08 ブラッコ イメージング エス.ピー.エー. 管状構造を立体的に表示するディスプレイ及び該ディスプレイのための改善された技術(「ステレオ・ディスプレイ」)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5822436A (en) * 1996-04-25 1998-10-13 Digimarc Corporation Photographic products and methods employing embedded information
JPH09186957A (ja) 1995-12-28 1997-07-15 Canon Inc 画像記録再生装置
JP3420504B2 (ja) 1998-06-30 2003-06-23 キヤノン株式会社 情報処理方法
JP2003348621A (ja) * 2002-05-27 2003-12-05 Canon Inc 二視点カメラの設定手段
JP4228646B2 (ja) * 2002-10-02 2009-02-25 株式会社セガ 立体視画像生成方法および立体視画像生成装置
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
JP4652727B2 (ja) * 2004-06-14 2011-03-16 キヤノン株式会社 立体画像生成システムおよびその制御方法
JP2010250457A (ja) * 2009-04-14 2010-11-04 Fujifilm Corp 医用画像管理装置および方法
US8924864B2 (en) * 2009-11-23 2014-12-30 Foresight Imaging LLC System and method for collaboratively communicating on images and saving those communications and images in a standard known format
JP5421828B2 (ja) * 2010-03-17 2014-02-19 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007531554A (ja) * 2003-11-03 2007-11-08 ブラッコ イメージング エス.ピー.エー. 管状構造を立体的に表示するディスプレイ及び該ディスプレイのための改善された技術(「ステレオ・ディスプレイ」)
JP2006101329A (ja) * 2004-09-30 2006-04-13 Kddi Corp 立体視画像観察装置ならびにその共有サーバ、クライアント端末およびピア・ツー・ピア端末、レンダリング画像生成方法および立体視画像表示方法ならびにそのプログラムおよび記憶媒体

Also Published As

Publication number Publication date
CN107595313A (zh) 2018-01-19
CN102821695A (zh) 2012-12-12
US9445082B2 (en) 2016-09-13
US20140028669A1 (en) 2014-01-30
JP2012217591A (ja) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5909055B2 (ja) 画像処理システム、装置、方法及びプログラム
JP6211764B2 (ja) 画像処理システム及び方法
JP6058290B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP5808146B2 (ja) 画像処理システム、装置及び方法
JP6058306B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP6005905B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
JP5818531B2 (ja) 画像処理システム、装置及び方法
WO2012137821A1 (ja) 画像処理システム、装置、方法及びプログラム
JP6430149B2 (ja) 医用画像処理装置
JP5972533B2 (ja) 画像処理システム及び方法
JP5797485B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP5921102B2 (ja) 画像処理システム、装置、方法及びプログラム
JP5784379B2 (ja) 画像処理システム、装置及び方法
JP2013034197A (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP6017124B2 (ja) 画像処理システム、画像処理装置、医用画像診断装置、画像処理方法及び画像処理プログラム
JP6005913B2 (ja) 報知装置、報知方法及び医用画像診断装置
JP5813986B2 (ja) 画像処理システム、装置、方法及びプログラム
JP6087618B2 (ja) 画像処理システムおよび画像処理方法
JP6104982B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP2012244420A (ja) 画像処理システム、装置及び方法
JP5868051B2 (ja) 画像処理装置、画像処理方法、画像処理システム及び医用画像診断装置
JP5835980B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280000565.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12767884

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12767884

Country of ref document: EP

Kind code of ref document: A1