JP2013022247A - Image processing system, device and method, and medical image diagnostic apparatus - Google Patents

Image processing system, device and method, and medical image diagnostic apparatus Download PDF

Info

Publication number
JP2013022247A
JP2013022247A JP2011160072A JP2011160072A JP2013022247A JP 2013022247 A JP2013022247 A JP 2013022247A JP 2011160072 A JP2011160072 A JP 2011160072A JP 2011160072 A JP2011160072 A JP 2011160072A JP 2013022247 A JP2013022247 A JP 2013022247A
Authority
JP
Japan
Prior art keywords
display
image
observer
unit
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011160072A
Other languages
Japanese (ja)
Other versions
JP5835980B2 (en
Inventor
Shinsuke Tsukagoshi
伸介 塚越
Takashi Tsutsumi
高志 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011160072A priority Critical patent/JP5835980B2/en
Publication of JP2013022247A publication Critical patent/JP2013022247A/en
Application granted granted Critical
Publication of JP5835980B2 publication Critical patent/JP5835980B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system, device and method, allowing display of images corresponding to the number of observers.SOLUTION: In this image processing device, a display part displays a parallax image grope to cause a display object to be stereoscopically viewed. An observer detection part detects the observers of the display object drawn by the display part. A display control part changes a display method of the parallax image group by the display part according to the number of the observers detected by the observer detection part.

Description

本発明の実施形態は、画像処理システム、装置、方法及び医用画像診断装置に関する。   Embodiments described herein relate generally to an image processing system, apparatus, method, and medical image diagnostic apparatus.

従来、立体視用メガネ等の専用機器を用いて、2つの視点から撮影された2視差画像を立体視可能なモニタが実用化されている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9視差画像)を裸眼にて立体視可能なモニタが実用化されている。なお、立体視可能なモニタにて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。   Conventionally, a monitor capable of stereoscopically viewing a two-parallax image taken from two viewpoints using a dedicated device such as stereoscopic glasses has been put into practical use. In recent years, monitors that can stereoscopically view multi-parallax images (for example, 9 parallax images) taken from a plurality of viewpoints using a light beam controller such as a lenticular lens have been put into practical use. Note that a 2-parallax image or a 9-parallax image displayed on a stereoscopically viewable monitor may be generated by estimating the depth information of an image taken from one viewpoint and performing image processing using the estimated information. .

一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。従来、かかる医用画像診断装置により生成されたボリュームデータは、種々の画像処理により2次元画像とされ、汎用モニタ上にて2次元表示される。例えば、医用画像診断装置により生成されたボリュームデータは、ボリュームレンダリング処理により3次元の情報を反映した2次元画像とされ、汎用モニタ上にて2次元表示される。しかしながら、従来技術では、観察者の人数に応じた画像を表示することが困難であった。   On the other hand, a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus is practically capable of generating three-dimensional medical image data (hereinafter referred to as volume data). It has become. Conventionally, volume data generated by such a medical image diagnostic apparatus is converted into a two-dimensional image by various image processing and displayed two-dimensionally on a general-purpose monitor. For example, volume data generated by a medical image diagnostic apparatus is converted into a two-dimensional image reflecting three-dimensional information by volume rendering processing, and is displayed two-dimensionally on a general-purpose monitor. However, with the conventional technology, it is difficult to display an image corresponding to the number of observers.

特開2005−86414号公報JP 2005-84414 A

本発明が解決しようとする課題は、観察者の人数に応じた画像を表示することができる画像処理システム、装置、方法及び医用画像診断装置を提供することである。   The problem to be solved by the present invention is to provide an image processing system, apparatus, method, and medical image diagnostic apparatus capable of displaying an image according to the number of observers.

実施形態の画像処理システムは、表示手段と、検出手段と、出力制御手段とを備える。表示手段は、視差画像群を表示することで表示対象物を立体視させる。検出手段は、前記表示手段によって描出された前記表示対象物の観察者を検出する。表示制御手段は、前記検出手段によって検出された観察者の人数に応じて、前記表示手段による前記視差画像群の表示方法を変更する。   The image processing system according to the embodiment includes display means, detection means, and output control means. The display means stereoscopically displays the display target object by displaying the parallax image group. The detection means detects an observer of the display object drawn by the display means. The display control unit changes a display method of the parallax image group by the display unit according to the number of observers detected by the detection unit.

図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment. 図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. 図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. 図7は、第1の実施形態に係る制御部の構成例を説明するための図である。FIG. 7 is a diagram for explaining a configuration example of a control unit according to the first embodiment. 図8は、第1の実施形態に係る観察者検出部による観察者の位置の情報を取得する処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of processing for acquiring information on the position of the observer by the observer detection unit according to the first embodiment. 図9は、第1の実施形態に係る視域を説明するための図である。FIG. 9 is a diagram for explaining a viewing zone according to the first embodiment. 図10は、第1の実施形態に係る表示制御部による第1の表示処理の一例を説明するため図である。FIG. 10 is a diagram for explaining an example of the first display process by the display control unit according to the first embodiment. 図11は、第1の実施形態に係る表示制御部による視域の調整方法の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of a viewing zone adjustment method by the display control unit according to the first embodiment. 図12は、第1の実施形態に係る表示制御部による第2の表示処理の一例を説明するため図である。FIG. 12 is a diagram for explaining an example of second display processing by the display control unit according to the first embodiment. 図13は、第1の実施形態に係る表示制御部による第3の表示処理の一例を説明するため図である。FIG. 13 is a diagram for explaining an example of a third display process by the display control unit according to the first embodiment. 図14は、第1の実施形態に係る表示制御部による同一表示モードの視域調節を説明するための図である。FIG. 14 is a diagram for explaining viewing zone adjustment in the same display mode by the display control unit according to the first embodiment. 図15は、第1の実施形態に係る記憶部によって記憶される情報の一例を示す図である。FIG. 15 is a diagram illustrating an example of information stored by the storage unit according to the first embodiment. 図16は、第1の実施形態に係るワークステーションによる処理の手順を示すフローチャートである。FIG. 16 is a flowchart illustrating a processing procedure performed by the workstation according to the first embodiment. 図17は、第2の実施形態に係る表示制御部による視域の調整方法の一例を説明するための図である。FIG. 17 is a diagram for explaining an example of a viewing zone adjustment method by the display control unit according to the second embodiment. 図18は、第2の実施形態に係る記憶部によって記憶される情報の一例を示す図である。FIG. 18 is a diagram illustrating an example of information stored by the storage unit according to the second embodiment.

以下、添付図面を参照して、画像処理システム、装置、方法及び医用画像診断装置の実施形態を詳細に説明する。なお、以下では、画像処理装置としての機能を有するワークステーションを含む画像処理システムを実施形態として説明する。ここで、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行なうことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置とボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。   Hereinafter, embodiments of an image processing system, an apparatus, a method, and a medical image diagnostic apparatus will be described in detail with reference to the accompanying drawings. In the following, an image processing system including a workstation having a function as an image processing apparatus will be described as an embodiment. Here, the terms used in the following embodiments will be described. The “parallax image group” is an image generated by performing volume rendering processing by moving the viewpoint position by a predetermined parallax angle with respect to volume data. It is a group. That is, the “parallax image group” includes a plurality of “parallax images” having different “viewpoint positions”. The “parallax angle” is a predetermined position in the space represented by the volume data and an adjacent viewpoint position among the viewpoint positions set to generate the “parallax image group” (for example, the center of the space) It is an angle determined by. The “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor. The “9 parallax images” described below is a “parallax image group” composed of nine “parallax images”. The “two-parallax image” described below is a “parallax image group” composed of two “parallax images”.

(第1の実施形態)
まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
(First embodiment)
First, a configuration example of the image processing system according to the first embodiment will be described. FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.

図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a medical image diagnostic apparatus 110, an image storage apparatus 120, a workstation 130, and a terminal apparatus 140. Each apparatus illustrated in FIG. 1 is in a state where it can communicate with each other directly or indirectly by, for example, an in-hospital LAN (Local Area Network) 2 installed in a hospital. For example, when a PACS (Picture Archiving and Communication System) is introduced into the image processing system 1, each apparatus transmits and receives medical images and the like according to DICOM (Digital Imaging and Communications in Medicine) standards.

かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから視差画像群を生成し、この視差画像群を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。具体的には、第1の実施形態においては、ワークステーション130が、ボリュームデータに対して種々の画像処理を行ない、視差画像群を生成する。また、ワークステーション130及び端末装置140が、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群をこのモニタに表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。すなわち、ワークステーション130や端末装置140は、この画像保管装置120からボリュームデータや視差画像群を取得し、これを処理したり、モニタに表示したりする。以下、各装置を順に説明する。   The image processing system 1 generates a parallax image group from volume data that is three-dimensional medical image data generated by the medical image diagnostic apparatus 110, and displays the parallax image group on a stereoscopically viewable monitor. Provide medical images that can be viewed stereoscopically to doctors and laboratory technicians working in hospitals. Specifically, in the first embodiment, the workstation 130 performs various image processing on the volume data to generate a parallax image group. In addition, the workstation 130 and the terminal device 140 have a monitor that can be viewed stereoscopically, and displays a parallax image group generated by the workstation 130 on the monitor. Further, the image storage device 120 stores the volume data generated by the medical image diagnostic device 110 and the parallax image group generated by the workstation 130. That is, the workstation 130 and the terminal device 140 acquire volume data and a parallax image group from the image storage device 120, process them, and display them on a monitor. Hereinafter, each device will be described in order.

医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。   The medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission computed Tomography). ) Apparatus, a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses. Further, the medical image diagnostic apparatus 110 according to the first embodiment can generate three-dimensional medical image data (volume data).

具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像データを再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像データを再構成する。この500枚のアキシャル面の医用画像データ群が、ボリュームデータである。なお、医用画像診断装置110により撮影された被検体の投影データやMR信号等自体をボリュームデータとしても良い。   Specifically, the medical image diagnostic apparatus 110 according to the first embodiment generates volume data by imaging a subject. For example, the medical image diagnostic apparatus 110 collects data such as projection data and MR signals by imaging the subject, and medical image data of a plurality of axial surfaces along the body axis direction of the subject from the collected data. By reconfiguring, volume data is generated. For example, the medical image diagnostic apparatus 110 reconstructs 500 pieces of medical image data on the axial plane. The 500 axial medical image data groups are volume data. In addition, the projection data of the subject imaged by the medical image diagnostic apparatus 110, the MR signal, or the like may be used as volume data.

また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。   Further, the medical image diagnostic apparatus 110 according to the first embodiment transmits the generated volume data to the image storage apparatus 120. The medical image diagnostic apparatus 110 identifies, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and the medical image diagnostic apparatus 110 as supplementary information when transmitting volume data to the image storage apparatus 120. A device ID, a series ID for identifying one shot by the medical image diagnostic device 110, and the like are transmitted.

画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110から送信されたボリュームデータを記憶部に格納し、これを保管する。また、第1の実施形態においては、ワークステーション130が、ボリュームデータから視差画像群を生成し、生成した視差画像群を画像保管装置120に送信する。このため、画像保管装置120は、ワークステーション130から送信された視差画像群を記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であっても良い。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であっても良い。   The image storage device 120 is a database that stores medical images. Specifically, the image storage device 120 according to the first embodiment stores the volume data transmitted from the medical image diagnostic device 110 in a storage unit and stores it. In the first embodiment, the workstation 130 generates a parallax image group from the volume data, and transmits the generated parallax image group to the image storage device 120. Therefore, the image storage device 120 stores the parallax image group transmitted from the workstation 130 in the storage unit and stores it. In the present embodiment, the workstation 130 illustrated in FIG. 1 and the image storage device 120 may be integrated by using the workstation 130 that can store a large-capacity image. That is, this embodiment may be a case where volume data or a parallax image group is stored in the workstation 130 itself.

なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。このため、ワークステーション130や端末装置140は、患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、必要なボリュームデータや視差画像群を画像保管装置120から取得する。   In the first embodiment, the volume data and the parallax image group stored in the image storage device 120 are stored in association with the patient ID, examination ID, device ID, series ID, and the like. Therefore, the workstation 130 and the terminal device 140 acquire necessary volume data and a parallax image group from the image storage device 120 by performing a search using a patient ID, an examination ID, a device ID, a series ID, and the like.

ワークステーション130は、医用画像に対して画像処理を行なう画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。視差画像群とは、複数の視点から撮影された複数の視差画像のことであり、例えば、9視差画像を裸眼にて立体視可能なモニタにて表示される視差画像群とは、視点位置が異なる9つの視差画像のことである。   The workstation 130 is an image processing apparatus that performs image processing on medical images. Specifically, the workstation 130 according to the first embodiment performs various rendering processes on the volume data acquired from the image storage device 120 to generate a parallax image group. A parallax image group is a plurality of parallax images taken from a plurality of viewpoints. For example, a parallax image group displayed on a monitor capable of stereoscopically viewing nine parallax images with the naked eye has a viewpoint position. It is nine different parallax images.

また、第1の実施形態に係るワークステーション130は、表示部として、立体視可能なモニタ(以下、立体表示モニタ)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   In addition, the workstation 130 according to the first embodiment includes a stereoscopically visible monitor (hereinafter, stereoscopic display monitor) as a display unit. The workstation 130 generates a parallax image group and displays the generated parallax image group on the stereoscopic display monitor. As a result, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically visible medical image displayed on the stereoscopic display monitor.

また、ワークステーション130は、生成した視差画像群を画像保管装置120に送信する。なお、ワークステーション130は、視差画像群を画像保管装置120に送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。また、視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466×350画素」)等がある。   Further, the workstation 130 transmits the generated parallax image group to the image storage device 120. In addition, when transmitting the parallax image group to the image storage device 120, the workstation 130 transmits, for example, a patient ID, an examination ID, a device ID, a series ID, and the like as incidental information. Further, the incidental information transmitted when transmitting the parallax image group to the image storage device 120 includes incidental information regarding the parallax image group. The incidental information regarding the parallax image group includes the number of parallax images (for example, “9”), the resolution of the parallax images (for example, “466 × 350 pixels”), and the like.

端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、画像保管装置120から視差画像群を取得し、取得した視差画像群を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。   The terminal device 140 is a device that allows a doctor or laboratory technician working in a hospital to view a medical image. For example, the terminal device 140 is a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or laboratory technician working in a hospital. Specifically, the terminal device 140 according to the first embodiment includes a stereoscopic display monitor as a display unit. In addition, the terminal device 140 acquires a parallax image group from the image storage device 120 and displays the acquired parallax image group on the stereoscopic display monitor. As a result, a doctor or laboratory technician who is an observer can view a medical image that can be viewed stereoscopically.

ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。   Here, the stereoscopic display monitor included in the workstation 130 and the terminal device 140 will be described. A general-purpose monitor that is most popular at present displays a two-dimensional image in two dimensions, and cannot display a two-dimensional image in three dimensions. If an observer requests stereoscopic viewing on a general-purpose monitor, an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there. Alternatively, an apparatus that outputs an image to a general-purpose monitor, for example, uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.

一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。   On the other hand, as a stereoscopic display monitor, there is a stereoscopic display monitor that enables a stereoscopic view of a two-parallax image (also referred to as a binocular parallax image) by using dedicated equipment such as stereoscopic glasses.

図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2に示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2の(A)に示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2の(A)に示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。   FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. An example shown in FIG. 2 is a stereoscopic display monitor that performs stereoscopic display by a shutter method, and shutter glasses are used as stereoscopic glasses worn by an observer who observes the monitor. Such a stereoscopic display monitor emits two parallax images alternately on the monitor. For example, the monitor shown in FIG. 2A alternately emits a left-eye image and a right-eye image at 120 Hz. Here, as shown in FIG. 2A, the monitor is provided with an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing at which the image is switched.

また、赤外線出射部から出射された赤外線は、図2の(A)に示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。   Moreover, the infrared rays emitted from the infrared ray emitting portion are received by the infrared ray receiving portion of the shutter glasses shown in FIG. A shutter is attached to each of the left and right frames of the shutter glasses, and the shutter glasses alternately switch the transmission state and the light shielding state of the left and right shutters according to the timing when the infrared light receiving unit receives the infrared rays. Hereinafter, the switching process between the transmission state and the light shielding state in the shutter will be described.

各シャッターは、図2の(B)に示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶層を有する。また、入射側の偏光板と出射側の偏光板とは、図2の(B)に示すように、互いに直交している。ここで、図2の(B)に示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。   As shown in FIG. 2B, each shutter has an incident-side polarizing plate and an output-side polarizing plate, and a liquid crystal layer between the incident-side polarizing plate and the output-side polarizing plate. Have Further, as shown in FIG. 2B, the incident-side polarizing plate and the outgoing-side polarizing plate are orthogonal to each other. Here, as shown in FIG. 2B, in the “OFF” state where no voltage is applied, the light that has passed through the polarizing plate on the incident side is rotated by 90 ° by the action of the liquid crystal layer, and is emitted on the outgoing side. Is transmitted through the polarizing plate. That is, a shutter to which no voltage is applied is in a transmissive state.

一方、図2の(B)に示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。   On the other hand, as shown in FIG. 2B, in the “ON” state where a voltage is applied, the polarization rotation action caused by the liquid crystal molecules in the liquid crystal layer disappears. It will be blocked by the polarizing plate on the exit side. That is, the shutter to which the voltage is applied is in a light shielding state.

そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2の(A)に示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2に示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。   Therefore, for example, the infrared emitting unit emits infrared rays during a period in which an image for the left eye is displayed on the monitor. The infrared light receiving unit applies a voltage to the right-eye shutter without applying a voltage to the left-eye shutter during a period of receiving the infrared light. Accordingly, as shown in FIG. 2A, the right-eye shutter is in a light-shielding state and the left-eye shutter is in a transmissive state, so that an image for the left eye is incident on the left eye of the observer. On the other hand, the infrared ray emitting unit stops emitting infrared rays while the right-eye image is displayed on the monitor. The infrared light receiving unit applies a voltage to the left-eye shutter without applying a voltage to the right-eye shutter during a period in which no infrared light is received. Accordingly, the left-eye shutter is in a light-shielding state and the right-eye shutter is in a transmissive state, so that an image for the right eye enters the right eye of the observer. As described above, the stereoscopic display monitor illustrated in FIG. 2 displays an image that can be viewed stereoscopically by the observer by switching the image displayed on the monitor and the state of the shutter in conjunction with each other. As a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image, a monitor adopting a polarized glasses method is also known in addition to the shutter method described above.

更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。   Furthermore, as a stereoscopic display monitor that has been put into practical use in recent years, there is a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens. . Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.

図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。   FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. In the stereoscopic display monitor shown in FIG. 3, a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel. For example, in the stereoscopic display monitor shown in FIG. 3, a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller.

表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。   As shown in FIG. 3, the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels, red (R), green (G), and blue (B), are arranged in the vertical direction. 202 are arranged in a matrix. The stereoscopic display monitor shown in FIG. 3 converts a nine-parallax image composed of nine images into an intermediate image arranged in a predetermined format (for example, a lattice shape), and then outputs it to the display surface 200. That is, the stereoscopic display monitor shown in FIG. 3 assigns and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202. The nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images with different viewpoint positions.

表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。   The nine parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201. As the light of each pixel of the nine-parallax image is emitted in multiple directions, the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position). That is, the parallax angle between the parallax image incident on the right eye and the parallax image incident on the left eye differs depending on the viewing angle of the observer. Thereby, the observer can visually recognize the photographing object in three dimensions at each of the nine positions shown in FIG. 3, for example. In addition, for example, the observer can view the image three-dimensionally in a state of facing the object to be imaged at the position “5” shown in FIG. 3, and at each position other than “5” shown in FIG. It can be visually recognized in a three-dimensional manner with the direction of the object changed. Note that the stereoscopic display monitor shown in FIG. 3 is merely an example. As shown in FIG. 3, the stereoscopic display monitor that displays a nine-parallax image may be a horizontal stripe liquid crystal of “RRR..., GGG..., BBB. .. ”” May be used. The stereoscopic display monitor shown in FIG. 3 may be a vertical lens system in which the lenticular sheet is vertical as shown in FIG. 3 or a diagonal lens system in which the lenticular sheet is diagonal. There may be.

ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合にその適用が限られるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合にも、同様に適用される。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合にも、同様に適用される。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されてよい。   So far, the configuration example of the image processing system 1 according to the first embodiment has been briefly described. Note that the application of the image processing system 1 described above is not limited when PACS is introduced. For example, the image processing system 1 is similarly applied when an electronic medical chart system that manages an electronic medical chart to which a medical image is attached is introduced. In this case, the image storage device 120 is a database that stores electronic medical records. Further, for example, the image processing system 1 is similarly applied when a HIS (Hospital Information System) and a RIS (Radiology Information System) are introduced. The image processing system 1 is not limited to the configuration example described above. The functions and sharing of each device may be appropriately changed according to the operation mode.

次に、第1の実施形態に係るワークステーションの構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下において、「視差画像群」とは、ボリュームデータに対してボリュームレンダリング処理を行なうことで生成された立体視用の画像群のことである。また、「視差画像」とは、「視差画像群」を構成する個々の画像のことである。すなわち、「視差画像群」は、視点位置が異なる複数の「視差画像」から構成される。   Next, a configuration example of the workstation according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. In the following description, the “parallax image group” is a group of stereoscopic images generated by performing volume rendering processing on volume data. Further, the “parallax image” is an individual image constituting the “parallax image group”. That is, the “parallax image group” includes a plurality of “parallax images” having different viewpoint positions.

第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136と、検出部137とを有する。なお、以下では、ワークステーション130が画像処理等に適した高性能なコンピュータである場合を用いて説明するが、これに限定されるものではなく、任意の情報処理装置であって良い。例えば、任意のパーソナルコンピュータであっても良い。   The workstation 130 according to the first embodiment is a high-performance computer suitable for image processing and the like, and as illustrated in FIG. 4, an input unit 131, a display unit 132, a communication unit 133, and a storage unit 134. A control unit 135, a rendering processing unit 136, and a detection unit 137. In the following, a case where the workstation 130 is a high-performance computer suitable for image processing or the like will be described. However, the present invention is not limited to this, and may be any information processing apparatus. For example, any personal computer may be used.

入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(以下、レンダリング条件)の入力を受け付ける。   The input unit 131 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the workstation 130 from an operator. Specifically, the input unit 131 according to the first embodiment receives input of information for acquiring volume data to be subjected to rendering processing from the image storage device 120. For example, the input unit 131 receives input of a patient ID, an examination ID, a device ID, a series ID, and the like. Further, the input unit 131 according to the first embodiment receives an input of a condition regarding rendering processing (hereinafter, rendering condition).

表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、視差画像群等を表示する。通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。   The display unit 132 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 132 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a parallax image group, and the like. The communication unit 133 is a NIC (Network Interface Card) or the like, and performs communication with other devices.

記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理により生成された視差画像群、及び、2次元表示用の画像等を記憶する。   The storage unit 134 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 134 according to the first embodiment stores volume data acquired from the image storage device 120 via the communication unit 133. In addition, the storage unit 134 according to the first embodiment stores volume data during rendering processing, a parallax image group generated by rendering processing, an image for two-dimensional display, and the like.

制御部135は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行なう。   The control unit 135 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the entire workstation 130. Take control.

例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行なわれるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。   For example, the control unit 135 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 132. For example, the control unit 135 controls transmission / reception of volume data and a parallax image group performed with the image storage device 120 via the communication unit 133. For example, the control unit 135 controls the rendering process performed by the rendering processing unit 136. For example, the control unit 135 controls reading of volume data from the storage unit 134 and storage of the parallax image group in the storage unit 134.

レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。なお、レンダリング処理部136の処理については、後に詳述する。   The rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135 to generate a parallax image group. The processing of the rendering processing unit 136 will be described in detail later.

検出部137は、表示部132に対する視差画像の観察者の位置を検出する。具体的には、検出部137は、表示部132に対する観察者の立ち位置、観察者の顔の位置、観察者の視線位置などを検出する。検出部137としては、例えば、カメラを用いたヘッドトラッキング装置や、光学式又は磁気式の位置センサーや、機械式のモーションキャプチャシステムなどである。なお、第1の実施形態では、検出部137として、カメラを用いたヘッドトラッキング装置を利用する場合について説明するが、その説明については、後述する。   The detection unit 137 detects the position of the observer of the parallax image with respect to the display unit 132. Specifically, the detection unit 137 detects an observer's standing position with respect to the display unit 132, an observer's face position, an observer's gaze position, and the like. Examples of the detection unit 137 include a head tracking device using a camera, an optical or magnetic position sensor, and a mechanical motion capture system. In the first embodiment, a case where a head tracking device using a camera is used as the detection unit 137 will be described. The description thereof will be described later.

レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行なう。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行なう画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像を生成する処理のことである。レンダリング処理により生成される医用画像とは、例えば、視差画像が該当する。   The rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135 to generate a parallax image group. Specifically, the rendering processing unit 136 according to the first embodiment reads volume data from the storage unit 134 and first performs preprocessing on the volume data. Next, the rendering processing unit 136 performs volume rendering processing on the pre-processed volume data to generate a parallax image group. Subsequently, the rendering processing unit 136 generates a two-dimensional image in which various kinds of information (scale, patient name, examination item, etc.) are drawn, and superimposes it on each of the parallax image groups, thereby outputting 2 for output. Generate a dimensional image. Then, the rendering processing unit 136 stores the generated parallax image group and the output two-dimensional image in the storage unit 134. In the first embodiment, the rendering process is the entire image process performed on the volume data. The volume rendering process is a two-dimensional image reflecting three-dimensional information in the rendering process. It is a process to generate. For example, a parallax image corresponds to the medical image generated by the rendering process.

図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361が、ボリュームデータに対する前処理を行い、3次元画像処理部1362が、前処理後のボリュームデータから視差画像群を生成し、2次元画像処理部1363が、視差画像群に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。   FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. As illustrated in FIG. 5, the rendering processing unit 136 includes a preprocessing unit 1361, a 3D image processing unit 1362, and a 2D image processing unit 1363. The preprocessing unit 1361 performs preprocessing on the volume data, the 3D image processing unit 1362 generates a parallax image group from the preprocessed volume data, and the 2D image processing unit 1363 stores various information on the parallax image group. A two-dimensional image for output on which is superimposed is generated. Hereinafter, each part is demonstrated in order.

前処理部1361は、ボリュームデータに対してレンダリング処理を行なう際に、種々の前処理を行なう処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。   The preprocessing unit 1361 is a processing unit that performs various types of preprocessing when rendering processing is performed on volume data, and includes an image correction processing unit 1361a, a three-dimensional object fusion unit 1361e, and a three-dimensional object display area setting. Part 1361f.

画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行なう処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET−CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。   The image correction processing unit 1361a is a processing unit that performs image correction processing when processing two types of volume data as one volume data, and as shown in FIG. 5, a distortion correction processing unit 1361b, a body motion correction processing unit, 1361c and an inter-image registration processing unit 1361d. For example, the image correction processing unit 1361a performs image correction processing when processing volume data of a PET image generated by a PET-CT apparatus and volume data of an X-ray CT image as one volume data. Alternatively, the image correction processing unit 1361a performs image correction processing when processing the volume data of the T1-weighted image and the volume data of the T2-weighted image generated by the MRI apparatus as one volume data.

また、歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行なわれた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行なう。   In addition, the distortion correction processing unit 1361b corrects the data distortion caused by the collection conditions at the time of data collection by the medical image diagnostic apparatus 110 in each volume data. Further, the body motion correction processing unit 1361c corrects the movement caused by the body motion of the subject at the time of collecting the data used for generating the individual volume data. Further, the inter-image registration processing unit 1361d performs registration (Registration) using, for example, a cross-correlation method between the two volume data subjected to the correction processing by the distortion correction processing unit 1361b and the body motion correction processing unit 1361c. ).

3次元物体フュージョン部1361eは、画像間位置合わせ処理部1361dにより位置合わせが行なわれた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行なう場合、省略される。   The three-dimensional object fusion unit 1361e fuses a plurality of volume data that has been aligned by the inter-image registration processing unit 1361d. Note that the processing of the image correction processing unit 1361a and the three-dimensional object fusion unit 1361e is omitted when rendering processing is performed on single volume data.

3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。   The three-dimensional object display region setting unit 1361f is a processing unit that sets a display region corresponding to the display target organ designated by the operator, and includes a segmentation processing unit 1361g. The segmentation processing unit 1361g is a processing unit that extracts organs such as the heart, lungs, and blood vessels designated by the operator by, for example, a region expansion method based on pixel values (voxel values) of volume data.

なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行なわない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。   Note that the segmentation processing unit 1361g does not perform the segmentation process when the display target organ is not designated by the operator. The segmentation processing unit 1361g extracts a plurality of corresponding organs when a plurality of display target organs are designated by the operator. Further, the processing of the segmentation processing unit 1361g may be executed again in response to an operator fine adjustment request referring to the rendered image.

3次元画像処理部1362は、前処理部1361が処理を行なった前処理後のボリュームデータに対してボリュームレンダリング処理を行なう。ボリュームレンダリング処理を行なう処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。   The 3D image processing unit 1362 performs volume rendering processing on the pre-processed volume data processed by the preprocessing unit 1361. As a processing unit that performs volume rendering processing, a three-dimensional image processing unit 1362 includes a projection method setting unit 1362a, a three-dimensional geometric transformation processing unit 1362b, a three-dimensional object appearance processing unit 1362f, and a three-dimensional virtual space rendering unit 1362k. Have

投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。   The projection method setting unit 1362a determines a projection method for generating a parallax image group. For example, the projection method setting unit 1362a determines whether to execute the volume rendering process by the parallel projection method or the perspective projection method.

3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行なう際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行なう際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、視差画像群の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。   The three-dimensional geometric transformation processing unit 1362b is a processing unit that determines information for transforming volume data on which volume rendering processing is performed into a three-dimensional geometrical structure. The three-dimensional geometric transformation processing unit 1362b includes a parallel movement processing unit 1362c, a rotation processing unit 1362d, and an enlargement unit. A reduction processing unit 1362e is included. The parallel movement processing unit 1362c is a processing unit that determines the amount of movement to translate the volume data when the viewpoint position when performing the volume rendering processing is translated, and the rotation processing unit 1362d performs the volume rendering processing. This is a processing unit that determines the amount of movement by which the volume data is rotationally moved when the viewpoint position during the rotation is rotationally moved. The enlargement / reduction processing unit 1362e is a processing unit that determines the enlargement rate or reduction rate of the volume data when enlargement or reduction of the parallax image group is requested.

3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される視差画像群の表示状態を決定する処理を行なう。   The three-dimensional object appearance processing unit 1362f includes a three-dimensional object color processing unit 1362g, a three-dimensional object opacity processing unit 1362h, a three-dimensional object material processing unit 1362i, and a three-dimensional virtual space light source processing unit 1362j. The three-dimensional object appearance processing unit 1362f performs a process of determining the display state of the displayed parallax image group in response to an operator's request, for example.

3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、視差画像群において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、視差画像群において描出されないこととなる。   The three-dimensional object color processing unit 1362g is a processing unit that determines a color to be colored for each region segmented by the volume data. The three-dimensional object opacity processing unit 1362h is a processing unit that determines the opacity (Opacity) of each voxel constituting each region segmented by volume data. It should be noted that the area behind the area having the opacity of “100%” in the volume data is not drawn in the parallax image group. In addition, an area in which the opacity is “0%” in the volume data is not drawn in the parallax image group.

3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行なう際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行な光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。   The three-dimensional object material processing unit 1362i is a processing unit that determines the material of each region segmented by volume data and adjusts the texture when the region is rendered. The three-dimensional virtual space light source processing unit 1362j is a processing unit that determines the position of the virtual light source installed in the three-dimensional virtual space and the type of the virtual light source when performing volume rendering processing on the volume data. Examples of the virtual light source include a light source that emits parallel light rays from infinity and a light source that emits radial light rays from the viewpoint.

3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行なう際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。   The three-dimensional virtual space rendering unit 1362k performs volume rendering processing on the volume data to generate a parallax image group. The three-dimensional virtual space rendering unit 1362k performs various types of information determined by the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f as necessary when performing the volume rendering process. Is used.

ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行なわれることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置及び視差角」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「視差画像群の拡大」、「視差画像群の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、このレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行なう。また、このとき、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。   Here, the volume rendering process by the three-dimensional virtual space rendering unit 1362k is performed according to the rendering conditions. For example, the rendering condition is “parallel projection method” or “perspective projection method”. For example, the rendering condition is “reference viewpoint position and parallax angle”. Further, for example, the rendering conditions are “translation of viewpoint position”, “rotational movement of viewpoint position”, “enlargement of parallax image group”, and “reduction of parallax image group”. Further, for example, the rendering conditions are “color to be colored”, “transparency”, “texture”, “position of virtual light source”, and “type of virtual light source”. Such a rendering condition may be accepted from the operator via the input unit 131 or may be initially set. In any case, the three-dimensional virtual space rendering unit 1362k receives a rendering condition from the control unit 135, and performs volume rendering processing on the volume data according to the rendering condition. At this time, the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f determine various pieces of necessary information according to the rendering conditions, so the three-dimensional virtual space rendering unit 1362k. Generates a parallax image group using the determined various pieces of information.

図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6の「9視差画像生成方式(1)」に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。なお、平行投影法を行なう場合、3次元仮想空間レンダリング部1362kは、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。   FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. For example, as shown in “9 parallax image generation method (1)” in FIG. 6, the three-dimensional virtual space rendering unit 1362k accepts the parallel projection method as a rendering condition, and further, the reference viewpoint position (5) and the parallax. Assume that the angle “1 degree” is received. In such a case, the three-dimensional virtual space rendering unit 1362k translates the position of the viewpoint from (1) to (9) so that the parallax angle is "1 degree", and the parallax angle (line of sight) is obtained by the parallel projection method. Nine parallax images with different degrees between directions are generated. When performing the parallel projection method, the three-dimensional virtual space rendering unit 1362k sets a light source that emits parallel light rays from infinity along the line-of-sight direction.

或いは、3次元仮想空間レンダリング部1362kが、図6の「9視差画像生成方式(2)」に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、ボリュームデータの中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、3次元仮想空間レンダリング部1362kは、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。また、透視投影法を行なう場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。   Alternatively, as shown in “9-parallax image generation method (2)” in FIG. 6, the three-dimensional virtual space rendering unit 1362k accepts a perspective projection method as a rendering condition, and further, the reference viewpoint position (5) and the parallax Assume that the angle “1 degree” is received. In such a case, the three-dimensional virtual space rendering unit 1362k rotates and moves the viewpoint position from (1) to (9) so that the parallax angle is every "1 degree" around the center (center of gravity) of the volume data. Thus, nine parallax images having different parallax angles by 1 degree are generated by the perspective projection method. When performing the perspective projection method, the three-dimensional virtual space rendering unit 1362k sets a point light source or a surface light source that radiates light three-dimensionally radially around the line-of-sight direction at each viewpoint. When performing the perspective projection method, the viewpoints (1) to (9) may be translated depending on rendering conditions.

なお、3次元仮想空間レンダリング部1362kは、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。   Note that the three-dimensional virtual space rendering unit 1362k radiates light two-dimensionally radially around the line-of-sight direction with respect to the vertical direction of the displayed volume rendered image, and the horizontal direction of the displayed volume rendered image. On the other hand, volume rendering processing using both the parallel projection method and the perspective projection method may be performed by setting a light source that irradiates parallel light rays from infinity along the viewing direction.

このようにして生成された9つの視差画像が、視差画像群である。第1の実施形態において、9つの視差画像は、例えば制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、立体表示モニタとしての表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   The nine parallax images generated in this way are a parallax image group. In the first embodiment, the nine parallax images are converted into intermediate images arranged in a predetermined format (for example, a lattice shape) by the control unit 135, for example, and are output to the display unit 132 as a stereoscopic display monitor. Then, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically viewable medical image displayed on the stereoscopic display monitor.

なお、図6の例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。   In the example of FIG. 6, the case where the projection method, the reference viewpoint position, and the parallax angle are received as the rendering conditions has been described. However, the three-dimensional virtual space is similarly applied when other conditions are received as the rendering conditions. The rendering unit 1362k generates a parallax image group while reflecting each rendering condition.

また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、任意の平面(例えば、アキシャル面、サジタル面、コロナル面など)の平面画像を再構成する。例えば、3次元仮想空間レンダリング部1362kは、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行なう機能や、「Intensity Projection」を行なう機能も有する。   The three-dimensional virtual space rendering unit 1362k reconstructs not only volume rendering but also a planar image of an arbitrary plane (for example, an axial plane, a sagittal plane, a coronal plane, etc.). For example, the three-dimensional virtual space rendering unit 1362k performs a cross-section reconstruction method (MPR: Multi Planer Reconstruction) to reconstruct an MPR image from volume data. The three-dimensional virtual space rendering unit 1362k also has a function of performing “Curved MPR” and a function of performing “Intensity Projection”.

続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行なうことで、出力用の2次元画像を生成する処理部であり、図5に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、9枚の視差画像(アンダーレイ)のそれぞれに対して1枚のオーバーレイを重畳することで、出力用の2次元画像を9枚、生成する。   Subsequently, the parallax image group generated from the volume data by the three-dimensional image processing unit 1362 is set as an underlay. Then, an overlay (Overlay) on which various types of information (scale, patient name, examination item, etc.) are drawn is superimposed on the underlay, thereby obtaining a two-dimensional image for output. The two-dimensional image processing unit 1363 is a processing unit that generates an output two-dimensional image by performing image processing on the overlay and the underlay. As illustrated in FIG. 5, the two-dimensional object drawing unit 1363a, A two-dimensional geometric transformation processing unit 1363b and a luminance adjustment unit 1363c are included. For example, the two-dimensional image processing unit 1363 superimposes one overlay on each of nine parallax images (underlays) in order to reduce the load required to generate a two-dimensional image for output. Thus, nine output two-dimensional images are generated.

2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。   The two-dimensional object drawing unit 1363a is a processing unit that draws various information drawn on the overlay, and the two-dimensional geometric transformation processing unit 1363b performs parallel movement processing or rotational movement processing on the position of the various information drawn on the overlay. Or a processing unit that performs an enlargement process or a reduction process of various types of information drawn on the overlay.

また、輝度調整部1363cは、輝度変換処理を行なう処理部であり、例えば、出力先の立体表示モニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。   The luminance adjustment unit 1363c is a processing unit that performs luminance conversion processing. For example, the gradation of an output destination stereoscopic display monitor, an image such as a window width (WW: Window Width), a window level (WL: Window Level), or the like. This is a processing unit that adjusts the brightness of the overlay and the underlay according to the processing parameters.

このようにして生成された出力用の2次元画像は、例えば制御部135により一旦記憶部134に格納され、その後、通信部133を介して画像保管装置120に送信される。例えば、端末装置140が、画像保管装置120からこの出力用の2次元画像を取得し、所定フォーマット(例えば格子状)に配置した中間画像に変換した上で立体表示モニタに表示すると、観察者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。   The output two-dimensional image generated in this way is temporarily stored in the storage unit 134 by the control unit 135, for example, and then transmitted to the image storage device 120 via the communication unit 133. For example, when the terminal device 140 acquires the two-dimensional image for output from the image storage device 120, converts it to an intermediate image arranged in a predetermined format (for example, a lattice shape), and displays it on a stereoscopic display monitor, A doctor or a laboratory technician can view a stereoscopically viewable medical image in a state where various types of information (scale, patient name, examination item, etc.) are drawn.

以上、第1の実施形態に係る画像処理システム1及びワークステーション130の構成について説明した。かかる構成のもと、第1の実施形態に係るワークステーション130は、以下、詳細に説明する制御部135の処理により、観察者の人数に応じた画像を表示することが可能となるように構成されている。具体的には、第1の実施形態に係るワークステーション130は、観察者の人数に応じて、表示部132による視差画像群の表示方法を変更する。   The configurations of the image processing system 1 and the workstation 130 according to the first embodiment have been described above. Based on such a configuration, the workstation 130 according to the first embodiment is configured to be able to display an image according to the number of observers by the processing of the control unit 135 described in detail below. Has been. Specifically, the workstation 130 according to the first embodiment changes the display method of the parallax image group by the display unit 132 according to the number of observers.

図7は、第1の実施形態に係る制御部135の構成例を説明するための図である。図7に示すように、制御部135は、観察者検出部1351と、表示制御部1352とを有し、ヘッドトラッキング装置1371と接続されている。ヘッドトラッキング装置1371は、表示部132によって表示された表示対象物の観察者を検出する。具体的には、ヘッドトラッキング装置1371は、観察者を撮影するためのカメラを有し、後述する観察者検出部1351の制御の下、観察者を撮影する。なお、ヘッドトラッキング装置1371は、図4に示す検出部137の一例である。   FIG. 7 is a diagram for explaining a configuration example of the control unit 135 according to the first embodiment. As shown in FIG. 7, the control unit 135 includes an observer detection unit 1351 and a display control unit 1352, and is connected to the head tracking device 1371. The head tracking device 1371 detects an observer of the display object displayed by the display unit 132. Specifically, the head tracking device 1371 has a camera for photographing an observer, and photographs the observer under the control of an observer detection unit 1351 described later. The head tracking device 1371 is an example of the detection unit 137 shown in FIG.

観察者検出部1351は、表示部132に対する表示対象物の観察者を検出する。具体的には、観察者検出部1351は、ヘッドトラッキング装置1371を制御して観察者を撮影させ、表示部132に表示された表示対象物を観察する観察者の人数及び位置を検出する。図8は、第1の実施形態に係る観察者検出部1351による観察者の位置の情報を取得する処理の一例を説明するための図である。   The observer detection unit 1351 detects the observer of the display object with respect to the display unit 132. Specifically, the observer detection unit 1351 controls the head tracking device 1371 to photograph the observer, and detects the number and positions of the observers who observe the display target displayed on the display unit 132. FIG. 8 is a diagram for explaining an example of processing for acquiring information on the position of the observer by the observer detection unit 1351 according to the first embodiment.

ここで、多視差(例えば、9視差)で描出した三次元の医用画像を用いた読影について、図8を用いて説明する。多視差で描出した視差画像を表示することで3次元として認識される医用画像を読影する場合には、観察者の視点位置に応じて観察される映像も変化する。例えば、図8に示すヘッドトラッキング装置1371のカメラの撮影領域内において、撮影領域の中央、左端及び右端とでは、それぞれ異なる視点方向からボリュームレンダリングされた視差画像が観察される。すなわち、例えば、複数の観察者が、それぞれ異なる位置から視差画像を観察した場合には、観察者は、それぞれ異なる画像を観察することとなる。   Here, interpretation using a three-dimensional medical image drawn with multiple parallaxes (for example, 9 parallaxes) will be described with reference to FIG. When a medical image that is recognized as three-dimensional is displayed by displaying a parallax image drawn with multiple parallaxes, the image that is observed changes according to the viewpoint position of the observer. For example, in the imaging region of the camera of the head tracking device 1371 shown in FIG. 8, parallax images that are volume-rendered from different viewpoint directions are observed at the center, left end, and right end of the imaging region. That is, for example, when a plurality of observers observe parallax images from different positions, the observers observe different images.

そこで、観察者検出部1351は、図8に示すように、ヘッドトラッキング装置1371のカメラにより撮影された映像から顔認識のパターンマッチングにより観察者の顔を特定し、観察者の人数及び位置を検出する。例えば、観察者検出部1351は、パターンマッチングにより顔として認識した領域の数を、観察者の人数として検出する。そして、観察者検出部1351は、カメラの撮影領域において顔認識した領域を観察者の位置として検出する。そして、観察者検出部1351は、表示部132の表示面の中心を原点とし、表示面と平行な横方向をX軸、縦方向をY軸、表示面に対して垂直方向をZ軸とした空間座標において、Z軸と顔認識した領域の座標などを算出する。また、観察者検出部1351は、予め記憶部134に記憶された顔の登録情報から、検出した観察者が誰であるかを特定する。   Therefore, as shown in FIG. 8, the observer detection unit 1351 identifies the observer's face by face matching pattern matching from the image captured by the camera of the head tracking device 1371, and detects the number and positions of the observers. To do. For example, the observer detection unit 1351 detects the number of areas recognized as faces by pattern matching as the number of observers. Then, the observer detection unit 1351 detects the area where the face is recognized in the imaging area of the camera as the position of the observer. The observer detection unit 1351 uses the center of the display surface of the display unit 132 as the origin, the horizontal direction parallel to the display surface as the X axis, the vertical direction as the Y axis, and the direction perpendicular to the display surface as the Z axis. In the space coordinates, the coordinates of the area recognized as the Z axis and the face are calculated. In addition, the observer detection unit 1351 identifies who is the detected observer from the registered face information stored in the storage unit 134 in advance.

図7に戻って、表示制御部1352は、観察者検出部1351によって検出された観察者の人数に応じて、表示部132による視差画像群の表示方法を変更する。具体的には、表示制御部1352は、観察者検出部1351によって一人以上の観察者が検出された場合に、観察者検出部1351によって検出された観察者の位置から表示対象物が立体視されるように視域を調整する。また、表示制御部1352は、観察者検出部1351によって一人以上の観察者が検出された場合に、当該観察者の位置に応じて、表示対象物に対して視点を変えて生成された視差画像群を表示部132にて表示させる。また、表示制御部1352は、観察者検出部1351によって複数の観察者が検出された場合に、当該複数の観察者に対して同一視点から生成された表示対象物の画像を表示部132にて表示させる。   Returning to FIG. 7, the display control unit 1352 changes the display method of the parallax image group by the display unit 132 according to the number of observers detected by the observer detection unit 1351. Specifically, when one or more observers are detected by the observer detection unit 1351, the display control unit 1352 can stereoscopically display the display object from the position of the observer detected by the observer detection unit 1351. Adjust the viewing zone so that In addition, when one or more observers are detected by the observer detection unit 1351, the display control unit 1352 generates a parallax image generated by changing the viewpoint with respect to the display object according to the position of the observer. The group is displayed on the display unit 132. In addition, when a plurality of observers are detected by the observer detection unit 1351, the display control unit 1352 uses the display unit 132 to display images of display objects generated from the same viewpoint for the plurality of observers. Display.

上述したように、表示制御部1352は、観察者の人数に応じて、表示部132における表示方法を変更するが、以下では、まず、表示制御部1352によって制御される3つの表示方法について説明し、その後、表示方法の変更の一例について説明する。   As described above, the display control unit 1352 changes the display method in the display unit 132 in accordance with the number of observers. In the following, first, three display methods controlled by the display control unit 1352 will be described. Then, an example of changing the display method will be described.

まず、観察者の人数に応じて視域を調整する表示方法(追従モード)について説明するが、それに先立ち表示部132の視域について説明する。視域とは、表示部132によって表示された表示対象物が立体視可能な領域である。図9は、第1の実施形態に係る視域を説明するための図である。図9においては、図9の(A)が9つの画素から構成される単位画素群とその前面に設置されたレンチキュラーレンズを示す。また、図9においては、図9の(B)が表示部132の前面に形成される視域を示す。   First, a display method (follow-up mode) for adjusting the viewing area according to the number of observers will be described. Prior to that, the viewing area of the display unit 132 will be described. The viewing area is an area in which the display object displayed by the display unit 132 can be viewed stereoscopically. FIG. 9 is a diagram for explaining a viewing zone according to the first embodiment. In FIG. 9, (A) in FIG. 9 shows a unit pixel group composed of nine pixels and a lenticular lens installed in front of the unit pixel group. In FIG. 9, (B) of FIG. 9 shows a viewing zone formed on the front surface of the display unit 132.

例えば、表示部132においては、図9の(A)に示すように、単位画素群から出力される画像が、正面に位置するレンチキュラーレンズに加えて、隣接する左右のレンチキュラーレンズにも入射される。その結果、表示部132の前面には、図9の(B)に示すように、3箇所の視域が形成されることとなる。すなわち、表示部132の前面には、図9の(B)に示すように、全画面の全ての単位画素群について、正面に位置するレンチキュラーレンズを介して見ることができる正面視域と、隣接する左右のレンチキュラーレンズを介して見ることができるサイドローブ視域とが形成される。これらの視域は、例えば、モニタの正面と±60度方向に存在し、各視域の範囲は±60度方向から±15度となる。   For example, in the display unit 132, as shown in FIG. 9A, the image output from the unit pixel group enters the adjacent left and right lenticular lenses in addition to the front lenticular lens. . As a result, three viewing zones are formed on the front surface of the display unit 132 as shown in FIG. That is, as shown in FIG. 9B, the front of the display unit 132 is adjacent to the front viewing area that can be viewed through the lenticular lens located in front of all the unit pixel groups of the entire screen. The side lobe viewing zone that can be seen through the left and right lenticular lenses is formed. These viewing zones exist, for example, in the direction of ± 60 ° from the front of the monitor, and the range of each viewing zone is ± 15 ° from the ± 60 ° direction.

例えば、表示制御部1352は、観察者検出部1351によって検出された観察者の人数が一人であった場合に、観察者の動きに応じて視域をシフトさせる。図10は、第1の実施形態に係る表示制御部1352による第1の表示処理の一例を説明するため図である。   For example, when the number of observers detected by the observer detection unit 1351 is one, the display control unit 1352 shifts the viewing zone according to the movement of the observer. FIG. 10 is a diagram for explaining an example of the first display processing by the display control unit 1352 according to the first embodiment.

例えば、観察者が、図10の矢印301の方向に移動すると、表示制御部1352は、図10の矢印302の方向に視域をシフトさせる。すなわち、表示制御部1352は、観察者が表示対象物を常に立体視できるように視域を調整する。その結果、観察者は、観察位置を気にすることなく、表示対象物を観察することが可能である。第1の実施形態に係るワークステーション130は、上述した視域の調整を行う処理を、例えば、図10に示すように、<追従モード>として設定される。   For example, when the observer moves in the direction of the arrow 301 in FIG. 10, the display control unit 1352 shifts the viewing area in the direction of the arrow 302 in FIG. 10. That is, the display control unit 1352 adjusts the viewing area so that the observer can always stereoscopically view the display target. As a result, the observer can observe the display object without worrying about the observation position. In the workstation 130 according to the first embodiment, the process for adjusting the viewing zone described above is set as <follow-up mode> as shown in FIG. 10, for example.

ここで、図11を用いて視域をシフトするための方法の一例を説明する。図11は、第1の実施形態に係る表示制御部1352による視域の調整方法の一例を説明するための図である。図11においては、表示部132の表示面に備えられた9列の画素からレンチキュラーレンズへの視差画像の投射について示す。例えば、表示制御部1352は、図11の(A)に示すように、レンチキュラーレンズの幅に対応する9つの画素にて視差画像群を表示させた状態で、観察者検出部1351によって観察者の位置が変化したことが検出されると、図11の(B)に示すように、視差画像群を表示させる画素を観察者の位置に応じて移動させることで、視域をシフトさせる。   Here, an example of a method for shifting the viewing zone will be described with reference to FIG. FIG. 11 is a diagram for explaining an example of a viewing zone adjustment method by the display control unit 1352 according to the first embodiment. FIG. 11 shows projection of a parallax image from nine columns of pixels provided on the display surface of the display unit 132 to a lenticular lens. For example, as shown in FIG. 11A, the display control unit 1352 displays the parallax image group with nine pixels corresponding to the width of the lenticular lens, and the observer detection unit 1351 displays the observer's When it is detected that the position has changed, as shown in FIG. 11B, the viewing zone is shifted by moving the pixel for displaying the parallax image group according to the position of the observer.

ここで、図11に示すように、9視差の画像を表示する場合には、単位画素群から9つの光線がそれぞれレンチキュラーレンズから出射されるが、1光線の間隔は表示部ごとに固有の値を有している。例えば、表示部132において、レンチキュラーレンズが視差画像群を表す9つの光線を±θ1で振り分けている場合には、1光線の間隔を示すファクターである「tanθ」は、式「tanθ=2×tanθ1÷9」で表される。そして、観察者と表示部132との距離「L」において、視差画像を表示させる画素を1つ移動させた場合の視域のずれは、「L×tanθ」となる。   Here, as shown in FIG. 11, when displaying a 9-parallax image, 9 light beams are emitted from the lenticular lens from the unit pixel group, but the interval between 1 light beam is a unique value for each display unit. have. For example, in the display unit 132, when the lenticular lens distributes nine light beams representing a parallax image group by ± θ1, “tan θ” that is a factor indicating the interval of one light beam is expressed by the expression “tan θ = 2 × tan θ1”. ÷ 9 ”. Then, at the distance “L” between the observer and the display unit 132, the shift of the viewing area when one pixel for displaying the parallax image is moved is “L × tan θ”.

表示制御部1352は、上記した式と、観察者検出部1351によって算出された観察者の座標とに基づいて、視差画像群を表示させる画素をどの程度移動させるかを算出し、視差画像群を表示させる画素を、算出した画素分移動させることで、視域をシフトさせる。   The display control unit 1352 calculates how much the pixel for displaying the parallax image group is to be moved based on the above equation and the coordinates of the observer calculated by the observer detection unit 1351, and sets the parallax image group to The viewing zone is shifted by moving the pixel to be displayed by the calculated pixel.

なお、上述した例では、観察者が一人の場合の追従モードについて説明したが、観察者が複数いる場合にも追従モードを適用することが可能である。一例を挙げると、まず、複数の観察者のなかで優先的に画像を観察させる人物を予め設定する。例えば、カメラに近い観察者や、特定の医師などを、優先的に画像を観察させる人物として予め設定する。そして、設定した観察者が移動したことを観察者検出部1351が検出すると、表示制御部1352は、設定された観察者が常に表示対象物を立体視できるように、視域をシフトさせる。   In the above-described example, the follow-up mode when there is one observer has been described. However, the follow-up mode can also be applied when there are a plurality of observers. For example, first, a person who preferentially observes an image among a plurality of observers is set in advance. For example, an observer close to the camera or a specific doctor is set in advance as a person who preferentially observes an image. When the observer detection unit 1351 detects that the set observer has moved, the display control unit 1352 shifts the viewing zone so that the set observer can always stereoscopically view the display object.

次に、観察者の位置に応じて、表示させる画像の角度を変化させる表示方法(回り込みモード)について説明する。例えば、表示制御部1352は、観察者検出部1351によって検出された観察者の人数が一人であった場合に、観察者の位置に応じて異なる視点方向から生成された視差画像群を表示させる。図12は、第1の実施形態に係る表示制御部1352による第2の表示処理の一例を説明するため図である。   Next, a display method (wraparound mode) for changing the angle of the image to be displayed according to the position of the observer will be described. For example, when the number of observers detected by the observer detection unit 1351 is one, the display control unit 1352 displays a group of parallax images generated from different viewpoint directions depending on the position of the observer. FIG. 12 is a diagram for explaining an example of the second display process by the display control unit 1352 according to the first embodiment.

例えば、図12に示すように、観察者が表示部132の正面に位置する場合には、表示制御部1352は、表示対象物が正面となる視点方向から生成した9視差の視差画像を表示部132に表示させる。そして、観察者が右側に移動すると、表示制御部1352は、視域を右にシフトさせながら、視点位置を段階的に左側にずらして生成した複数の視差画像群を生成した順に表示部132に表示させる。同様に、観察者が左側に移動すると、表示制御部1352は、視域を左にシフトさせながら、視点位置を段階的に右側にずらして生成した複数の視差画像群を生成した順に表示部132に表示させる。   For example, as illustrated in FIG. 12, when the observer is located in front of the display unit 132, the display control unit 1352 displays a 9-parallax parallax image generated from the viewpoint direction in which the display target is in front. 132 is displayed. When the observer moves to the right side, the display control unit 1352 shifts the viewpoint position to the left side while shifting the viewing area to the right, and generates a plurality of parallax image groups generated in the order in which the group is generated. Display. Similarly, when the observer moves to the left side, the display control unit 1352 causes the display unit 132 to generate a plurality of parallax image groups generated by shifting the viewpoint position stepwise to the right while shifting the viewing zone to the left. To display.

すなわち、表示制御部1352は、観察者が表示対象物の全体像を観察できるように、観察者の移動に合わせて、ボリュームデータを回転させて生成した視差画像群を表示させる。その結果、観察者は、表示設定を変更することなく表示対象物の全体を観察することが可能である。第1の実施形態に係るワークステーション130は、上述した表示対象物の角度を変えた表示処理を、例えば、図12に示すように、<回り込みモード>として設定される。   That is, the display control unit 1352 displays a parallax image group generated by rotating the volume data in accordance with the movement of the observer so that the observer can observe the entire image of the display object. As a result, the observer can observe the entire display object without changing the display setting. In the workstation 130 according to the first embodiment, the display processing in which the angle of the display object is changed is set as <wraparound mode> as illustrated in FIG. 12, for example.

また、表示制御部1352は、<回りこみモード>として、上下方向にも同様の表示を行うことが可能である。例えば、観察者が表示部132の中心から上側に顔を移動させた場合には、表示制御部1352は、視点位置を段階的に上側にずらして生成した複数の視差画像群を生成した順に表示部132に表示させる。同様に、観察者が表示部132の中心から下側に顔を移動させた場合には、表示制御部1352は、視点位置を段階的に下側にずらして生成した複数の視差画像群を生成した順に表示部132に表示させる。   Further, the display control unit 1352 can perform the same display in the vertical direction as the <wraparound mode>. For example, when the observer moves the face upward from the center of the display unit 132, the display control unit 1352 displays a plurality of parallax image groups generated by shifting the viewpoint position stepwise upward in the order of generation. Displayed on the unit 132. Similarly, when the observer moves the face downward from the center of the display unit 132, the display control unit 1352 generates a plurality of parallax image groups generated by shifting the viewpoint position stepwise downward. They are displayed on the display unit 132 in the order in which they are performed.

なお、上述した例では、観察者が一人の場合の回り込みモードについて説明したが、観察者が複数いる場合にも回り込みモードを適用することが可能である。一例を挙げると、まず、複数の観察者のなかで優先的に画像を観察させる人物を予め設定する。例えば、カメラに近い観察者や、特定の医師などを、優先的に画像を観察させる人物として予め設定する。そして、設定した観察者が移動したことを観察者検出部1351が検出すると、表示制御部1352は、設定された観察者が常に表示対象物の全体を観察することができるように、画像を表示させる。   In the above-described example, the wraparound mode in the case where there is one observer has been described, but the wraparound mode can also be applied when there are a plurality of observers. For example, first, a person who preferentially observes an image among a plurality of observers is set in advance. For example, an observer close to the camera or a specific doctor is set in advance as a person who preferentially observes an image. When the observer detection unit 1351 detects that the set observer has moved, the display control unit 1352 displays an image so that the set observer can always observe the entire display object. Let

次に、観察者が複数である場合に、複数の観察者に対して同一の画像を表示させる表示方法(同一表示モード)について説明する。例えば、表示制御部1352は、観察者検出部1351によって検出された観察者の人数が複数であった場合に、観察者それぞれに画像が見えるように視域を調節し、画像を表示させる。図13は、第1の実施形態に係る表示制御部1352による第3の表示処理の一例を説明するため図である。   Next, a display method (same display mode) for displaying the same image for a plurality of observers when there are a plurality of observers will be described. For example, when the number of observers detected by the observer detection unit 1351 is plural, the display control unit 1352 adjusts the viewing zone so that each observer can see the image, and displays the image. FIG. 13 is a diagram for explaining an example of the third display process by the display control unit 1352 according to the first embodiment.

例えば、図13に示すように、観察者が複数いる場合には、表示制御部1352は、観察者それぞれに画像が見えるように視域を調節した後、表示対象物が正面となる視点方向から生成した画像を表示させる。図14は、第1の実施形態に係る表示制御部1352による同一表示モードの視域調節を説明するための図である。例えば、表示制御部1352は、図14の(A)に示すように、観察者検出部1351によって複数の観察者が検出されると、現時点における視域(正面視域、サイドローブ視域)から観察者それぞれの位置(座標)がどの程度ずれているかを算出する。そして、表示制御部1352は、図14の(B)に示すように、視域に含まれる人数が最多となるように視域をシフトさせ、視差画像群を表示させる。換言すると、表示制御部1352は、視域と観察者それぞれとのずれの和が最少になるように視域をシフトさせ、視差画像群を表示させる。   For example, as illustrated in FIG. 13, when there are a plurality of observers, the display control unit 1352 adjusts the viewing area so that each observer can see an image, and then from the viewpoint direction in which the display object is in front. Display the generated image. FIG. 14 is a diagram for explaining viewing zone adjustment in the same display mode by the display control unit 1352 according to the first embodiment. For example, as shown in FIG. 14A, when a plurality of observers are detected by the observer detection unit 1351, the display control unit 1352 starts from the current viewing area (front viewing area, side lobe viewing area). It calculates how much each observer's position (coordinates) has shifted. Then, as shown in FIG. 14B, the display control unit 1352 shifts the viewing zone so that the number of people included in the viewing zone is the largest, and displays a parallax image group. In other words, the display control unit 1352 shifts the viewing area so that the sum of the deviations between the viewing area and the observer is minimized, and displays the parallax image group.

なお、表示させる同一の画像は、複数の観察者のなかで優先的に画像を観察させる人物が現時点で観察している画像を選択することも可能である。また、立体画像を表示させなくてもよい場合には、9列の画素に同一の画像を出力させてもよい。第1の実施形態に係るワークステーション130は、上述した同一画像の表示処理を、例えば、図13に示すように、<同一表示モード>として設定される。   As the same image to be displayed, it is also possible to select an image currently observed by a person whose image is preferentially observed among a plurality of observers. In addition, when it is not necessary to display a stereoscopic image, the same image may be output to nine columns of pixels. In the workstation 130 according to the first embodiment, the above-described display processing of the same image is set as <same display mode> as shown in FIG. 13, for example.

以上、第1の実施形態に係るワークステーション130による表示方法について説明した。以下では、上述した表示方法を用いた表示方法の変更の一例について説明する。具体的には、表示制御部1352は、観察者検出部1351によって検出された観察者が特定の人物であった場合に、表示部132による視差画像群の表示方法を、当該特定の人物に予め対応付けられた表示方法に変更する。図15は、第1の実施形態に係る記憶部134によって記憶される情報の一例を示す図である。   The display method by the workstation 130 according to the first embodiment has been described above. Below, an example of the change of the display method using the display method mentioned above is demonstrated. Specifically, when the observer detected by the observer detection unit 1351 is a specific person, the display control unit 1352 applies a display method of the parallax image group by the display unit 132 to the specific person in advance. Change to the associated display method. FIG. 15 is a diagram illustrating an example of information stored by the storage unit 134 according to the first embodiment.

例えば、記憶部134は、図15に示すように、人物にモードを対応付けたテーブルを記憶する。一例を挙げると、記憶部134は、図15に示すように、「人物:A」に「モード:回り込み」を対応付けたテーブルを記憶する。表示制御部1352は、例えば、図15に示すようにテーブルに基づいて、表示方法を変更する。一例を挙げると、表示制御部1352は、観察者検出部1351によって観察者が「人物:A」であると特定されると、表示方法を「回り込みモード」に変更して、視差画像群を表示させる。そして、観察者が増えた場合には、表示制御部1352は、表示方法を「回り込みモード」から「同一表示モード」に変更して、視差画像群を表示する。   For example, as illustrated in FIG. 15, the storage unit 134 stores a table in which a mode is associated with a person. For example, as illustrated in FIG. 15, the storage unit 134 stores a table in which “person: A” is associated with “mode: wraparound”. For example, the display control unit 1352 changes the display method based on a table as shown in FIG. For example, when the observer is identified as “person: A” by the observer detection unit 1351, the display control unit 1352 changes the display method to “wraparound mode” and displays a parallax image group. Let When the number of observers increases, the display control unit 1352 changes the display method from the “wraparound mode” to the “same display mode” and displays the parallax image group.

なお、観察者が、記憶部134に記憶されたテーブルに登録されていない人物であった場合には、表示制御部1352は、デフォルトの表示方法(例えば、追従モード)にて視差画像群を表示させる。また、図15に示すテーブルは、あくまでも一例であり、実施形態はこれに限定されるものではない。例えば、人物に対して「1人用」、「2人用」、「3人以上」それぞれのモードを対応付けた情報であってもよい。或いは、人物間で優先順位を設定し、登録された2人の人物が観察者として特定された場合に、優先順位の高い人物に対応付けられたモードで視差画像群を表示させるように設定することも可能である。   When the observer is a person who is not registered in the table stored in the storage unit 134, the display control unit 1352 displays the parallax image group using a default display method (for example, the follow-up mode). Let The table shown in FIG. 15 is merely an example, and the embodiment is not limited to this. For example, it may be information in which each mode of “for one person”, “for two persons”, and “three or more persons” is associated with a person. Alternatively, a priority order is set between persons, and when two registered persons are identified as observers, the parallax image group is set to be displayed in a mode associated with a person with a higher priority order. It is also possible.

上述したように、第1の実施形態に係るワークステーション130は、視差画像群の観察者の人数に応じて、種々のモードの表示処理を実行する。このモードの設定は、自由に行うことができ、例えば、観察者の人数が途中で変った場合に、モードを切り替えるのか、或いは、現時点で実行されているモードを継続するのかなどを自由に設定することが可能である。また、直前に実行したモードの情報を記憶し、直前に観察した観察者と同一の観察者が、再度、画像を観察する場合には、記憶したモードにより画像を表示するように設定することも可能である。また、直前に観察した観察者とは異なる人物が観察を開始する場合には、直前のモードを継続して実行してもよいし、別のモードに切り替える場合であってもよい。   As described above, the workstation 130 according to the first embodiment executes various modes of display processing according to the number of observers in the parallax image group. This mode can be set freely. For example, if the number of observers changes in the middle, it is possible to freely set whether to switch the mode or continue the mode currently being executed. Is possible. In addition, the information of the mode executed immediately before is stored, and when the same observer as the observer observed immediately before observes the image again, it may be set to display the image in the stored mode. Is possible. In addition, when a person different from the observer observed immediately before starts observation, the previous mode may be continuously executed or may be switched to another mode.

次に、図16を用いて、第1の実施形態に係るワークステーション130の処理について説明する。図16は、第1の実施形態に係るワークステーション130による処理の手順を示すフローチャートである。図16に示すように、第1の実施形態に係るワークステーション130においては、表示切替えモードがONであると(ステップS101肯定)、観察者検出部1351が、複数の観察者を検出したか否かを判定する(ステップS102)。   Next, processing of the workstation 130 according to the first embodiment will be described with reference to FIG. FIG. 16 is a flowchart illustrating a processing procedure performed by the workstation 130 according to the first embodiment. As shown in FIG. 16, in the workstation 130 according to the first embodiment, if the display switching mode is ON (Yes at Step S101), whether or not the observer detection unit 1351 detects a plurality of observers. Is determined (step S102).

ここで、複数の観察者を検出した場合には(ステップS102肯定)、表示制御部1352は、同一表示モードを起動し(ステップS103)、視域に含まれる人数が最多となるよう視域をシフトさせ(ステップS104)、視差画像を表示させる。一方、複数の観察者を検出しなかった場合には(ステップS102否定)、表示制御部1352は、観察者がテーブルに登録されているか否かを判定する(ステップS105)。   Here, when a plurality of observers are detected (Yes at Step S102), the display control unit 1352 activates the same display mode (Step S103) and sets the viewing area so that the number of persons included in the viewing area is the largest. The parallax image is displayed by shifting (step S104). On the other hand, when a plurality of observers are not detected (No at Step S102), the display control unit 1352 determines whether or not the observer is registered in the table (Step S105).

ここで、観察者がテーブルに登録されていた場合には(ステップS105肯定)、表示制御部1352は、観察者に対応付けられたモードを起動し(ステップS106)、追従モードであるか否かを判定する(ステップS108)。一方、観察者がテーブルに登録されていない場合には(ステップS105否定)、表示制御部1352は、デフォルトのモードを起動し(ステップS107)、追従モードであるか否かを判定する(ステップS108)。   Here, when the observer is registered in the table (Yes at Step S105), the display control unit 1352 activates a mode associated with the observer (Step S106) and determines whether or not the follower mode is set. Is determined (step S108). On the other hand, if the observer is not registered in the table (No at Step S105), the display control unit 1352 activates the default mode (Step S107) and determines whether or not the follower mode is set (Step S108). ).

ここで、追従モードである場合には(ステップS108肯定)、表示制御部1352は、観察者の顔の位置に応じて視域をシフトさせる(ステップS109)。一方、追従モードではない場合には(ステップS108否定)、表示制御部1352は、観察者の位置に応じて視域をシフトさせながら、視点位置を変化させた視差画像群を表示させる(ステップS110)。なお、第1の実施形態に係るワークステーション130は、表示切替えモードがONにされるまで待機状態である(ステップS101否定)。   Here, in the follow-up mode (Yes at Step S108), the display control unit 1352 shifts the viewing zone according to the position of the face of the observer (Step S109). On the other hand, when the follow mode is not set (No in step S108), the display control unit 1352 displays a parallax image group in which the viewpoint position is changed while shifting the viewing zone according to the position of the observer (step S110). ). Note that the workstation 130 according to the first embodiment is in a standby state until the display switching mode is turned on (No in step S101).

上述したように、第1の実施形態によれば、表示部132が、視差画像群を表示することで表示対象物を立体視させる。そして、観察者検出部1351が、表示部132によって描出された表示対象物の観察者を検出する。そして、表示制御部1352が、観察者検出部1351によって検出された観察者の人数に応じて、表示部132による視差画像群の表示方法を変更する。従って、第1の実施形態に係るワークステーション130は、観察者の人数に応じた画像を表示することを可能にする。   As described above, according to the first embodiment, the display unit 132 displays the parallax image group to stereoscopically display the display object. And the observer detection part 1351 detects the observer of the display target object drawn by the display part 132. FIG. Then, the display control unit 1352 changes the display method of the parallax image group by the display unit 132 according to the number of observers detected by the observer detection unit 1351. Therefore, the workstation 130 according to the first embodiment can display an image corresponding to the number of observers.

また、第1の実施形態によれば、表示制御部1352は、観察者検出部1351によって一人以上の観察者が検出された場合に、観察者検出部1351によって検出された観察者の位置から表示対象物が立体視されるように視域を調整する。従って、第1の実施形態に係るワークステーション130は、観察位置を気にすることなく、表示対象物を観察することを可能にする。   Further, according to the first embodiment, when one or more observers are detected by the observer detection unit 1351, the display control unit 1352 displays from the position of the observer detected by the observer detection unit 1351. The viewing zone is adjusted so that the object is stereoscopically viewed. Therefore, the workstation 130 according to the first embodiment makes it possible to observe the display object without worrying about the observation position.

また、第1の実施形態によれば、表示制御部1352は、観察者検出部1351によって一人以上の観察者が検出された場合に、当該観察者の位置に応じて、表示対象物に対して視点を変えて生成された視差画像群を表示部132にて表示させる。従って、第1の実施形態に係るワークステーション130は、表示設定を変更することなく表示対象物の全体を観察することを可能にする。   Further, according to the first embodiment, when one or more observers are detected by the observer detection unit 1351, the display control unit 1352 applies to the display object according to the position of the observer. The display unit 132 displays a parallax image group generated by changing the viewpoint. Therefore, the workstation 130 according to the first embodiment makes it possible to observe the entire display object without changing the display setting.

また、第1の実施形態によれば、表示制御部1352は、観察者検出部1351によって複数の観察者が検出された場合に、当該複数の観察者に対して同一視点から生成された表示対象物の画像を表示部132にて表示させる。従って、第1の実施形態に係るワークステーション130は、カンファレンス等で観察者全員が同じもの確認することを可能にする。   Further, according to the first embodiment, the display control unit 1352, when a plurality of observers are detected by the observer detection unit 1351, the display target generated from the same viewpoint for the plurality of observers. An image of the object is displayed on the display unit 132. Therefore, the workstation 130 according to the first embodiment enables all observers to confirm the same at a conference or the like.

また、第1の実施形態によれば、表示制御部1352は、観察者検出部1351によって検出された観察者が特定の人物であった場合に、表示部132による視差画像群の表示方法を、当該特定の人物に予め対応付けられた表示方法に変更する。従って、第1の実施形態に係るワークステーション130は、設定の切替えなどを行うことなく、利用者ごとに所望する表示方法で視差画像群を表示させることを可能にする。   Further, according to the first embodiment, the display control unit 1352 uses the display unit 132 to display the parallax image group when the observer detected by the observer detection unit 1351 is a specific person. changing the associated in advance with the display method to the specific person. Therefore, the workstation 130 according to the first embodiment makes it possible to display a parallax image group in a display method desired for each user without switching settings or the like.

(第2の実施形態)
さて、これまで第1の実施形態について説明したが、上述した第1の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Second Embodiment)
Although the first embodiment has been described so far, the present invention may be implemented in various different forms other than the first embodiment described above.

上述した実施形態では、視差画像を出力する画素を移動させることにより、視域をシフトする場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、観察者の動きに応じて、視域をシフトさせる方法であれは、どのような方法を用いる場合であってもよい。例えば、図17に示す方法を用いる場合であってもよい。   In the above-described embodiment, the case where the viewing zone is shifted by moving the pixel that outputs the parallax image has been described. However, the embodiment is not limited to this, and any method may be used as long as the viewing zone is shifted according to the movement of the observer. For example, the method shown in FIG. 17 may be used.

図17は、第2の実施形態に係る表示制御部1352による視域の調整方法の一例を説明するための図である。図17においては、表示部132の表示面に備えられた9列の画素からレンチキュラーレンズへの視差画像の投射について示す。例えば、観察者検出部1351によって観察者の位置が変化したことが検出されると、表示制御部1352は、9列の画素から投射される視差画像の投射方向を、図17の矢印303又は304に示す方向にシフトさせる。これにより、レンチキュラーレンズを介した後の画像の投射方向もシフトすることとなる。すなわち、視域がシフトすることとなる。   FIG. 17 is a diagram for explaining an example of a viewing zone adjustment method by the display control unit 1352 according to the second embodiment. FIG. 17 shows the projection of a parallax image from nine columns of pixels provided on the display surface of the display unit 132 to the lenticular lens. For example, when the observer detection unit 1351 detects that the position of the observer has changed, the display control unit 1352 changes the projection direction of the parallax image projected from the nine columns of pixels with the arrow 303 or 304 in FIG. Shift in the direction shown in. Thereby, the projection direction of the image after passing through the lenticular lens is also shifted. That is, the viewing zone is shifted.

また、上述した実施形態では、回り込みモードとして、視点方向を段階的に変化させて生成した視差画像を観察者の動きに合わせて表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、表示対象物の正面、右側及び左側の3方向から生成した9視差の視差画像を表示する場合であってもよい。   In the above-described embodiment, the case where the parallax image generated by changing the viewpoint direction in stages is displayed as the wraparound mode in accordance with the movement of the observer. However, the embodiment is not limited to this. For example, a 9-parallax parallax image generated from the three directions of the front, right, and left sides of the display object may be displayed.

例えば、観察者が表示部132の正面に位置する場合には、表示制御部1352は、表示対象物が正面となる視点方向から生成した9視差の視差画像を表示部132に表示させる。そして、観察者が右側に移動すると、表示制御部1352は、表示対象物が右側の面となる視点方向から生成した9視差の視差画像を表示部132に表示させる。同様に、観察者が左側に移動すると、表示制御部1352は、表示対象物が左側の面となる視点方向から生成した9視差の視差画像を表示部132に表示させる。   For example, when the observer is positioned in front of the display unit 132, the display control unit 1352 causes the display unit 132 to display a 9-parallax image generated from the viewpoint direction in which the display object is in front. When the observer moves to the right side, the display control unit 1352 causes the display unit 132 to display a 9-parallax parallax image generated from the viewpoint direction in which the display target is the right side. Similarly, when the observer moves to the left side, the display control unit 1352 causes the display unit 132 to display a 9-parallax parallax image generated from the viewpoint direction in which the display target is the left side.

また、上述した実施形態では、同一表示モードとして、視域に含まれる人数が最多となるように視域をシフトさせ、視差画像群を表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、すべての観察者が現在の視域内に位置する場合に、すべての観察者に対して同一視点から生成された表示対象物の画像を表示させる場合であってもよい。   In the above-described embodiment, the case where the viewing area is shifted so that the number of persons included in the viewing area is the largest and the parallax image group is displayed as the same display mode has been described. However, the embodiment is not limited to this. For example, when all the viewers are located in the current viewing zone, images of display objects generated from the same viewpoint for all the viewers are displayed. It may be displayed.

例えば、図13に示すように、観察者が複数いる場合には、表示制御部1352は、表示対象物が正面となる視点方向から生成した画像を観察者のいる3方向に表示させる。一例を挙げると、表示制御部1352は、図17に示す9列の画素のうち、第1列〜第3列の画素、第4列〜第6列の画素及び第7列〜第9列の画素それぞれに、表示対象物が正面となる視点方向から生成した3視差分の視差画像を出力させる。これにより、表示部132は、正面、右側及び左側で同一の立体画像を表示することとなる。   For example, as illustrated in FIG. 13, when there are a plurality of observers, the display control unit 1352 displays images generated from the viewpoint direction in which the display object is in front in three directions where the observer is present. For example, the display control unit 1352 may include pixels in the first column to the third column, pixels in the fourth column to the sixth column, and pixels in the seventh column to the ninth column among the nine columns of pixels illustrated in FIG. Each pixel is caused to output a parallax image for three parallaxes generated from the viewpoint direction in which the display object is in front. Accordingly, the display unit 132 displays the same stereoscopic image on the front, right side, and left side.

なお、表示させる同一の画像は、複数の観察者のなかで優先的に画像を観察させる人物が現時点で観察している画像を選択することも可能である。また、立体画像を表示させなくてもよい場合には、9列の画素に同一の画像を出力させてもよい。   As the same image to be displayed, it is also possible to select an image currently observed by a person whose image is preferentially observed among a plurality of observers. In addition, when it is not necessary to display a stereoscopic image, the same image may be output to nine columns of pixels.

また、上述した実施形態では、特定の人物ごとにモードを対応付けて記憶し、観察者検出部1351によって検出された観察者が特定の人物であった場合に、当該特定の人物に対応付けられたモードで視差画像群を表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、特定の人物ごとに視差画像群の表示条件を設定する場合であってもよい。   In the above-described embodiment, when a specific person is associated with a mode and stored, and the observer detected by the observer detection unit 1351 is a specific person, the mode is associated with the specific person. The case where the parallax image group is displayed in the different modes has been described. However, the embodiment is not limited to this. For example, the display condition of the parallax image group may be set for each specific person.

一例を挙げると、記憶部134が、特定の人物ごとに、当該特定の人物が所望する視差画像群の表示条件をさらに記憶する。図18は、第2の実施形態に係る記憶部134によって記憶される情報の一例を示す図である。記憶部134は、例えば、図18に示すように、人物とモードとを対応付けたテーブルにさらに付加条件を対応付けて記憶する。なお、図18に示す付加条件とは、特定の人物がそれぞれ所望する表示条件を示す。例えば、記憶部134は、図18に示すように、「人物:A」に対応付けて、「モード:回り込み」と、「拡大」及び「コントラスト:大」などの「付加条件」とを記憶する。   For example, the storage unit 134 further stores, for each specific person, display conditions of a parallax image group desired by the specific person. FIG. 18 is a diagram illustrating an example of information stored by the storage unit 134 according to the second embodiment. For example, as illustrated in FIG. 18, the storage unit 134 further stores additional conditions in association with a table in which persons and modes are associated with each other. Note that the additional conditions illustrated in FIG. 18 indicate display conditions desired by each specific person. For example, as illustrated in FIG. 18, the storage unit 134 stores “mode: wraparound” and “additional conditions” such as “enlargement” and “contrast: large” in association with “person: A”. .

表示制御部1352は、観察者検出部1351によって検出された観察者が、記憶部134に記憶されたテーブルに含まれる特定の人物であった場合に、当該特定の人物に予め対応付けられた表示条件に設定した視差画像群を表示部132にて表示させる。例えば、観察者検出部1351によって検出された観察者が「人物:A」であった場合に、表示制御部1352は、図18に示すテーブルを参照して、まず、モードを「回り込み」に変更する。そして、表示制御部1352は、画像の拡大処理を実行し、さらに、「コントラスト」を「大」にした視差画像群を表示部132にて表示させる。   When the observer detected by the observer detection unit 1351 is a specific person included in the table stored in the storage unit 134, the display control unit 1352 displays a display associated with the specific person in advance. The parallax image group set as the condition is displayed on the display unit 132. For example, when the observer detected by the observer detection unit 1351 is “person: A”, the display control unit 1352 first refers to the table shown in FIG. 18 and changes the mode to “wraparound”. To do. Then, the display control unit 1352 executes an image enlargement process, and further causes the display unit 132 to display a parallax image group in which “contrast” is set to “large”.

上述したように、第2の実施形態に係るワークステーション130は、記憶部134が、特定の人物ごとに、当該特定の人物が所望する視差画像群の表示条件をさらに記憶する。そして、表示制御部1352が、特定の人物に予め対応付けられた表示条件に設定した視差画像群を表示部132にて表示させる。その結果、第2の実施形態に係るワークステーション130は、利用者が所望するより細かい条件を加味した表示方法で視差画像群を表示させることを可能にする。   As described above, in the workstation 130 according to the second embodiment, the storage unit 134 further stores, for each specific person, display conditions of a parallax image group desired by the specific person. Then, the display control unit 1352 causes the display unit 132 to display a parallax image group set in display conditions associated in advance with a specific person. As a result, the workstation 130 according to the second embodiment makes it possible to display a parallax image group by a display method that takes into consideration finer conditions desired by the user.

上述した実施形態においては、ワークステーション130が、観察者の人数に応じて表示方法を変更する場合について説明した。しかしながら、開示の技術がこれに限定されるものではなく、例えば、医用画像診断装置110が観察者の人数に応じて表示方法を変更する場合であってもよい。また、医用画像診断装置110又はワークステーション130が観察者の人数に応じた画像を生成して記憶部に格納し、端末装置140が、記憶部に記憶された画像を表示する場合であってもよい。   In the above-described embodiment, the case where the workstation 130 changes the display method according to the number of observers has been described. However, the disclosed technique is not limited to this, and for example, the medical image diagnostic apparatus 110 may change the display method according to the number of observers. Further, even when the medical image diagnostic apparatus 110 or the workstation 130 generates an image corresponding to the number of observers and stores it in the storage unit, and the terminal device 140 displays the image stored in the storage unit. Good.

上述した実施形態においては、ワークステーション130が、画像保管装置120からボリュームデータを取得し、このボリュームデータから観察者の視点位置に応じた画像を生成して表示する場合について説明した。しかしながら、開示の技術はこれに限定されるものではなく、例えば、ワークステーション130が、医用画像診断装置110からボリュームデータを取得し、このボリュームデータから観察者の視点位置に応じた画像を生成して表示する場合であってもよい。   In the above-described embodiment, the case has been described in which the workstation 130 acquires volume data from the image storage device 120 and generates and displays an image corresponding to the viewpoint position of the observer from the volume data. However, the disclosed technique is not limited to this. For example, the workstation 130 acquires volume data from the medical image diagnostic apparatus 110 and generates an image according to the viewpoint position of the observer from the volume data. May be displayed.

上述した実施形態においては、端末装置140が、画像保管装置120から画像を取得して表示する場合について説明した。しかしながら、開示の技術はこれに限定されるものではなく、例えば、端末装置140が、医用画像診断装置110から画像を取得して表示する場合であってもよい。   In the above-described embodiment, the case where the terminal device 140 acquires and displays an image from the image storage device 120 has been described. However, the disclosed technology is not limited to this, and for example, the terminal device 140 may acquire an image from the medical image diagnostic apparatus 110 and display the image.

上述した実施形態においては、観察者の位置を顔認識により検出する場合について説明した。しかしながら、開示の技術はこれに限定されるものではなく、例えば、観察者の顔認識に加えて、眼球の黒目の位置を検出することにより、より詳細な観察者の視線情報を取得する場合であってもよい。   In the above-described embodiment, the case where the position of the observer is detected by face recognition has been described. However, the disclosed technique is not limited to this. For example, in addition to the face recognition of the observer, the detailed eye-gaze information of the observer can be acquired by detecting the position of the black eye of the eyeball. There may be.

以上説明したとおり、実施形態によれば、本実施形態の画像処理システム、画像処理装置、方法及び医用画像診断装置は、観察者の人数に応じた画像を表示することを可能にする。   As described above, according to the embodiment, the image processing system, the image processing apparatus, the method, and the medical image diagnostic apparatus according to the present embodiment can display an image according to the number of observers.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

110 医用画像診断装置
120 画像保管装置
130 ワークステーション
132 表示部
134 記憶部
135 制御部
137 検出部
1351 観察者検出部
1352 表示制御部
1371 ヘッドトラッキング装置
140 端末装置
DESCRIPTION OF SYMBOLS 110 Medical diagnostic imaging apparatus 120 Image storage apparatus 130 Workstation 132 Display part 134 Storage part 135 Control part 137 Detection part 1351 Observer detection part 1352 Display control part 1371 Head tracking apparatus 140 Terminal apparatus

Claims (9)

視差画像群を表示することで表示対象物を立体視させる表示手段と、
前記表示手段によって描出された前記表示対象物の観察者を検出する検出手段と、
前記検出手段によって検出された観察者の人数に応じて、前記表示手段による前記視差画像群の表示方法を変更する表示制御手段と、
を備えたことを特徴とする画像処理システム。
Display means for stereoscopically displaying the display object by displaying the parallax image group;
Detecting means for detecting an observer of the display object drawn by the display means;
Display control means for changing a display method of the parallax image group by the display means according to the number of observers detected by the detection means;
An image processing system comprising:
前記表示制御手段は、前記検出手段によって一人以上の観察者が検出された場合に、前記検出手段によって検出された観察者の位置から前記表示対象物が立体視されるように視域を調整することを特徴とする請求項1に記載の画像処理システム。   The display control means adjusts the viewing zone so that the display object is stereoscopically viewed from the position of the observer detected by the detection means when one or more observers are detected by the detection means. The image processing system according to claim 1. 前記表示制御手段は、前記検出手段によって一人以上の観察者が検出された場合に、当該観察者の位置に応じて、前記表示対象物に対して視点を変えて生成された視差画像群を前記表示手段にて表示させることを特徴とする請求項1又は2に記載の画像処理システム。   The display control means, when one or more observers are detected by the detection means, a parallax image group generated by changing the viewpoint with respect to the display object according to the position of the observer. The image processing system according to claim 1, wherein the image processing system is displayed by display means. 前記表示制御手段は、前記検出手段によって複数の観察者が検出された場合に、当該複数の観察者に対して同一の画像を前記表示手段にて表示させることを特徴とする請求項1〜3のいずれか一つに記載の画像処理システム。   The display control means, when a plurality of observers are detected by the detecting means, causes the plurality of observers to display the same image on the display means. The image processing system according to any one of the above. 特定の人物ごとに表示方法を対応付けた人物情報を記憶する記憶手段をさらに備え、
前記表示制御手段は、前記検出手段によって検出された観察者が前記記憶手段に記憶された人物情報に含まれる特定の人物であった場合に、前記表示手段による前記視差画像群の表示方法を、当該特定の人物に予め対応付けられた表示方法に変更することを特徴とする請求項1〜4のいずれか一つに記載の画像処理システム。
Storage means for storing personal information in which a display method is associated with each specific person;
The display control means, when the observer detected by the detection means is a specific person included in the person information stored in the storage means, the display method of the parallax image group by the display means, The image processing system according to claim 1, wherein the display method is changed to a display method associated with the specific person in advance.
前記記憶手段は、前記人物情報として、前記特定の人物が所望する視差画像群の表示条件をさらに記憶し、
前記表示制御手段は、前記検出手段によって検出された観察者が、前記記憶手段に記憶された人物情報に含まれる特定の人物であった場合に、当該特定の人物に予め対応付けられた表示条件に設定した視差画像群を前記表示手段にて表示させることを特徴とする請求項5に記載の画像処理システム。
The storage means further stores a display condition of a parallax image group desired by the specific person as the person information,
The display control means, when the observer detected by the detection means is a specific person included in the personal information stored in the storage means, display conditions associated in advance with the specific person The image processing system according to claim 5, wherein the display unit displays the parallax image group set in (1).
視差画像群を表示することで表示対象物を立体視させる表示手段と、
前記表示手段によって描出された前記表示対象物の観察者を検出する検出手段と、
前記検出手段によって検出された観察者の人数に応じて、前記表示手段による前記視差画像群の表示方法を変更する表示制御手段と、
を備えたことを特徴とする画像処理装置。
Display means for stereoscopically displaying the display object by displaying the parallax image group;
Detecting means for detecting an observer of the display object drawn by the display means;
Display control means for changing a display method of the parallax image group by the display means according to the number of observers detected by the detection means;
An image processing apparatus comprising:
視差画像群を表示することで表示対象物を立体視させる表示工程と、
前記表示工程によって描出された前記表示対象物の観察者を検出する検出工程と、
前記検出工程によって検出された観察者の人数に応じて、前記表示工程による前記視差画像群の表示方法を変更する表示制御工程と、
を含んだことを特徴とする画像処理方法。
A display step of stereoscopically displaying the display object by displaying the parallax image group;
A detection step of detecting an observer of the display object drawn by the display step;
A display control step of changing a display method of the parallax image group by the display step according to the number of observers detected by the detection step;
An image processing method comprising:
視差画像群を表示することで表示対象物を立体視させる表示手段と、
前記表示手段によって描出された前記表示対象物の観察者を検出する検出手段と、
前記検出手段によって検出された観察者の人数に応じて、前記表示手段による前記視差画像群の表示方法を変更する表示制御手段と、
を備えたことを特徴とする医用画像診断装置。
Display means for stereoscopically displaying the display object by displaying the parallax image group;
Detecting means for detecting an observer of the display object drawn by the display means;
Display control means for changing a display method of the parallax image group by the display means according to the number of observers detected by the detection means;
A medical image diagnostic apparatus comprising:
JP2011160072A 2011-07-21 2011-07-21 Image processing system, apparatus, method, and medical image diagnostic apparatus Expired - Fee Related JP5835980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011160072A JP5835980B2 (en) 2011-07-21 2011-07-21 Image processing system, apparatus, method, and medical image diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011160072A JP5835980B2 (en) 2011-07-21 2011-07-21 Image processing system, apparatus, method, and medical image diagnostic apparatus

Publications (2)

Publication Number Publication Date
JP2013022247A true JP2013022247A (en) 2013-02-04
JP5835980B2 JP5835980B2 (en) 2015-12-24

Family

ID=47781259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011160072A Expired - Fee Related JP5835980B2 (en) 2011-07-21 2011-07-21 Image processing system, apparatus, method, and medical image diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP5835980B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01317091A (en) * 1988-06-17 1989-12-21 Nippon Hoso Kyokai <Nhk> Multi-directional stereoscopic video equipment
JPH0250145A (en) * 1988-08-12 1990-02-20 Nippon Telegr & Teleph Corp <Ntt> Stereoscopic image display device
JPH0954376A (en) * 1995-06-09 1997-02-25 Pioneer Electron Corp Stereoscopic display device
US5855425A (en) * 1996-07-19 1999-01-05 Sanyo Electric Co., Ltd. Stereoscopic display
JPH11234703A (en) * 1998-02-09 1999-08-27 Toshiba Corp Stereoscopic display device
JP2004537933A (en) * 2001-07-27 2004-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Autostereoscopic image display system equipped with a person tracking system
JP2006212056A (en) * 2005-02-01 2006-08-17 Canon Inc Imaging apparatus and three-dimensional image formation apparatus
JP2011064894A (en) * 2009-09-16 2011-03-31 Fujifilm Corp Stereoscopic image display apparatus
JP2012010085A (en) * 2010-06-24 2012-01-12 Sony Corp Three-dimensional display device and control method of three-dimensional display device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01317091A (en) * 1988-06-17 1989-12-21 Nippon Hoso Kyokai <Nhk> Multi-directional stereoscopic video equipment
JPH0250145A (en) * 1988-08-12 1990-02-20 Nippon Telegr & Teleph Corp <Ntt> Stereoscopic image display device
JPH0954376A (en) * 1995-06-09 1997-02-25 Pioneer Electron Corp Stereoscopic display device
US5855425A (en) * 1996-07-19 1999-01-05 Sanyo Electric Co., Ltd. Stereoscopic display
JPH11234703A (en) * 1998-02-09 1999-08-27 Toshiba Corp Stereoscopic display device
JP2004537933A (en) * 2001-07-27 2004-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Autostereoscopic image display system equipped with a person tracking system
JP2006212056A (en) * 2005-02-01 2006-08-17 Canon Inc Imaging apparatus and three-dimensional image formation apparatus
JP2011064894A (en) * 2009-09-16 2011-03-31 Fujifilm Corp Stereoscopic image display apparatus
JP2012010085A (en) * 2010-06-24 2012-01-12 Sony Corp Three-dimensional display device and control method of three-dimensional display device

Also Published As

Publication number Publication date
JP5835980B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP6058290B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
US9578303B2 (en) Image processing system, image processing apparatus, and image processing method for displaying a scale on a stereoscopic display device
US9542771B2 (en) Image processing system, image processing apparatus, and image processing method
JP5306422B2 (en) Image display system, apparatus, method, and medical image diagnostic apparatus
JP6147464B2 (en) Image processing system, terminal device and method
JP5972533B2 (en) Image processing system and method
JP6430149B2 (en) Medical image processing device
JP5797485B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5921102B2 (en) Image processing system, apparatus, method and program
JP5784379B2 (en) Image processing system, apparatus and method
JP2012217591A (en) Image processing system, device, method and program
JP5846791B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5832990B2 (en) Image display system
JP2012244420A (en) Image processing system, device, and method
JP5835980B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP6104982B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5813986B2 (en) Image processing system, apparatus, method and program
JP2013017056A (en) Image processing system, image processing method, and medical image diagnostic device
JP5868051B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP2013122770A (en) Image processing system, device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151102

R150 Certificate of patent or registration of utility model

Ref document number: 5835980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees