JP5813986B2 - Image processing system, apparatus, method and program - Google Patents

Image processing system, apparatus, method and program Download PDF

Info

Publication number
JP5813986B2
JP5813986B2 JP2011097187A JP2011097187A JP5813986B2 JP 5813986 B2 JP5813986 B2 JP 5813986B2 JP 2011097187 A JP2011097187 A JP 2011097187A JP 2011097187 A JP2011097187 A JP 2011097187A JP 5813986 B2 JP5813986 B2 JP 5813986B2
Authority
JP
Japan
Prior art keywords
image
parallax
rendering
unit
parallax image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011097187A
Other languages
Japanese (ja)
Other versions
JP2012231235A (en
Inventor
智司 若井
智司 若井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011097187A priority Critical patent/JP5813986B2/en
Publication of JP2012231235A publication Critical patent/JP2012231235A/en
Application granted granted Critical
Publication of JP5813986B2 publication Critical patent/JP5813986B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、画像処理システム、装置、方法及びプログラムに関する。   Embodiments described herein relate generally to an image processing system, apparatus, method, and program.

従来、立体視用メガネ等の専用機器を用いて、2つの視点から撮影された2視差画像を立体視可能なモニタが実用化されている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9視差画像)を裸眼にて立体視可能なモニタが実用化されている。なお、立体視可能なモニタにて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。   Conventionally, a monitor capable of stereoscopically viewing a two-parallax image taken from two viewpoints using a dedicated device such as stereoscopic glasses has been put into practical use. In recent years, monitors that can stereoscopically view multi-parallax images (for example, 9 parallax images) taken from a plurality of viewpoints using a light beam controller such as a lenticular lens have been put into practical use. Note that a 2-parallax image or a 9-parallax image displayed on a stereoscopically viewable monitor may be generated by estimating the depth information of an image taken from one viewpoint and performing image processing using the estimated information. .

一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。医用画像診断装置により生成されたボリュームデータからは、任意の視差角にて任意の視差数のボリュームレンダリング画像(視差画像)を生成することができる。そこで、ボリュームデータから生成された2次元のボリュームレンダリング画像を、近年実用化された立体視可能なモニタにて立体的に表示させることが検討されている。   On the other hand, a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus is practically capable of generating three-dimensional medical image data (hereinafter referred to as volume data). It has become. From the volume data generated by the medical image diagnostic apparatus, a volume rendering image (parallax image) having an arbitrary number of parallaxes can be generated at an arbitrary parallax angle. In view of this, it has been studied to display a two-dimensional volume rendering image generated from volume data in a stereoscopic manner on a stereoscopically visible monitor that has recently been put into practical use.

しかし、例えば、観察者の操作(ボリュームデータの回転や拡大縮小、パノラマ表示やクリッピング等)に応じて、ボリュームデータから9視差画像を生成する処理をリアルタイムに実行すると、ボリュームレンダリング処理の演算量の多さから、観察者に対してインタラクティブな処理結果を表示することは困難であった。   However, for example, when a process for generating a nine-parallax image from volume data is executed in real time according to an observer's operation (volume data rotation or enlargement / reduction, panorama display, clipping, etc.), the amount of computation of the volume rendering process is reduced. Because of this, it has been difficult to display interactive processing results to the observer.

特開2005−86414号公報JP 2005-84414 A

本発明が解決しようとする課題は、観察者の要求に応じた立体視用の画像を、観察者にストレスを与えない時間で生成することができる画像処理システム、装置、方法及びプログラムを提供することである。   The problem to be solved by the present invention is to provide an image processing system, apparatus, method, and program capable of generating an image for stereoscopic viewing according to the request of the observer in a time that does not give stress to the observer. That is.

実施形態の画像処理システムは、レンダリング処理部と、制御部とを備える。レンダリング処理部は、立体表示装置にて表示される所定視差数の視差画像である視差画像群を3次元の医用画像データであるボリュームデータからレンダリング処理により生成する。制御部は、前記立体表示装置を参照する操作者によるレンダリング条件の変更操作の単位時間あたりの変更頻度に応じて、前記視差画像群のデータ量に関わる画像生成パラメータを変更するように前記レンダリング処理部を制御する。 The image processing system according to the embodiment includes a rendering processing unit and a control unit. The rendering processing unit generates a parallax image group, which is a parallax image having a predetermined number of parallaxes displayed on the stereoscopic display device, from a volume data that is three-dimensional medical image data by a rendering process. The control unit performs the rendering process so as to change an image generation parameter related to a data amount of the parallax image group according to a change frequency per unit time of a rendering condition changing operation by an operator who refers to the stereoscopic display device. Control part.

図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment. 図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. 図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. 図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment. 図8は、レンダリング条件の変更要求の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of a rendering condition change request. 図9は、第1の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図(1)である。FIG. 9 is a diagram (1) for explaining an example of the rendering control process of the control unit according to the first embodiment. 図10は、第1の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図(2)である。FIG. 10 is a diagram (2) for explaining an example of the rendering control process of the control unit according to the first embodiment. 図11は、第1の実施形態に係るワークステーションのレンダリング制御処理を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining the rendering control processing of the workstation according to the first embodiment. 図12は、第2の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図(1)である。FIG. 12 is a diagram (1) for explaining an example of the rendering control process of the control unit according to the second embodiment. 図13は、第2の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図(2)である。FIG. 13 is a diagram (2) for explaining an example of the rendering control process of the control unit according to the second embodiment. 図14−1は、第2の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図(3)である。FIG. 14A is a diagram (3) for explaining an example of the rendering control process of the control unit according to the second embodiment. 図14−2は、第2の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図(4)である。FIG. 14-2 is a diagram (4) illustrating an example of the rendering control process of the control unit according to the second embodiment. 図15は、第2の実施形態に係るワークステーションのレンダリング制御処理を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining the rendering control process of the workstation according to the second embodiment. 図16は、第1の実施形態及び第2の実施形態の変形例を説明するための図である。FIG. 16 is a diagram for explaining a modification of the first embodiment and the second embodiment.

以下、添付図面を参照して、画像処理システム及び画像処理装置の実施形態を詳細に説明する。なお、以下では、画像処理装置としての機能を有するワークステーションを含む画像処理システムを実施形態として説明する。ここで、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行なうことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置と、ボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。   Hereinafter, embodiments of an image processing system and an image processing apparatus will be described in detail with reference to the accompanying drawings. In the following, an image processing system including a workstation having a function as an image processing apparatus will be described as an embodiment. Here, the terms used in the following embodiments will be described. The “parallax image group” is an image generated by performing volume rendering processing by moving the viewpoint position by a predetermined parallax angle with respect to volume data. It is a group. That is, the “parallax image group” includes a plurality of “parallax images” having different “viewpoint positions”. The “parallax angle” is an adjacent viewpoint position among the viewpoint positions set for generating the “parallax image group” and a predetermined position in the space represented by the volume data (for example, the center of the space). ). The “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor. The “9 parallax images” described below is a “parallax image group” composed of nine “parallax images”. The “two-parallax image” described below is a “parallax image group” composed of two “parallax images”.

(第1の実施形態)
まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
(First embodiment)
First, a configuration example of the image processing system according to the first embodiment will be described. FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.

図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a medical image diagnostic apparatus 110, an image storage apparatus 120, a workstation 130, and a terminal apparatus 140. Each apparatus illustrated in FIG. 1 is in a state where it can communicate with each other directly or indirectly by, for example, an in-hospital LAN (Local Area Network) 2 installed in a hospital. For example, when a PACS (Picture Archiving and Communication System) is introduced into the image processing system 1, each apparatus transmits and receives medical images and the like according to DICOM (Digital Imaging and Communications in Medicine) standards.

かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから視差画像群を生成し、この視差画像群を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。具体的には、第1の実施形態においては、ワークステーション130が、ボリュームデータに対して種々の画像処理を行ない、視差画像群を生成する。また、ワークステーション130及び端末装置140が、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群をこのモニタに表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。すなわち、ワークステーション130や端末装置140は、この画像保管装置120からボリュームデータや視差画像群を取得し、これを処理したり、モニタに表示したりする。以下、各装置を順に説明する。   The image processing system 1 generates a parallax image group from volume data that is three-dimensional medical image data generated by the medical image diagnostic apparatus 110, and displays the parallax image group on a stereoscopically viewable monitor. Provide medical images that can be viewed stereoscopically to doctors and laboratory technicians working in hospitals. Specifically, in the first embodiment, the workstation 130 performs various image processing on the volume data to generate a parallax image group. In addition, the workstation 130 and the terminal device 140 have a monitor that can be viewed stereoscopically, and displays a parallax image group generated by the workstation 130 on the monitor. Further, the image storage device 120 stores the volume data generated by the medical image diagnostic device 110 and the parallax image group generated by the workstation 130. That is, the workstation 130 and the terminal device 140 acquire volume data and a parallax image group from the image storage device 120, process them, and display them on a monitor. Hereinafter, each device will be described in order.

医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。   The medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission computed Tomography). ) Apparatus, a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses. Further, the medical image diagnostic apparatus 110 according to the first embodiment can generate three-dimensional medical image data (volume data).

具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像データを再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像データを再構成する。この500枚のアキシャル面の医用画像データ群が、ボリュームデータである。   Specifically, the medical image diagnostic apparatus 110 according to the first embodiment generates volume data by imaging a subject. For example, the medical image diagnostic apparatus 110 collects data such as projection data and MR signals by imaging the subject, and medical image data of a plurality of axial surfaces along the body axis direction of the subject from the collected data. By reconfiguring, volume data is generated. For example, the medical image diagnostic apparatus 110 reconstructs 500 pieces of medical image data on the axial plane. The 500 axial medical image data groups are volume data.

また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。   Further, the medical image diagnostic apparatus 110 according to the first embodiment transmits the generated volume data to the image storage apparatus 120. The medical image diagnostic apparatus 110 identifies, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and the medical image diagnostic apparatus 110 as supplementary information when transmitting volume data to the image storage apparatus 120. A device ID, a series ID for identifying one shot by the medical image diagnostic device 110, and the like are transmitted.

画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110から送信されたボリュームデータを記憶部に格納し、これを保管する。また、第1の実施形態に係る画像保管装置120は、ワークステーション130がボリュームデータから生成した視差画像群を記憶部に格納し、これを保管することも可能である。かかる場合、ワークステーション130は、生成した視差画像群を画像保管装置120に送信し、画像保管装置120は、ワークステーション130から送信された視差画像群を記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であっても良い。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であっても良い。   The image storage device 120 is a database that stores medical images. Specifically, the image storage device 120 according to the first embodiment stores the volume data transmitted from the medical image diagnostic device 110 in a storage unit and stores it. Further, the image storage device 120 according to the first embodiment can store a parallax image group generated from the volume data by the workstation 130 in a storage unit and store the parallax image group. In such a case, the workstation 130 transmits the generated parallax image group to the image storage device 120, and the image storage device 120 stores the parallax image group transmitted from the workstation 130 in the storage unit and stores it. In the present embodiment, the workstation 130 illustrated in FIG. 1 and the image storage device 120 may be integrated by using the workstation 130 that can store a large-capacity image. That is, this embodiment may be a case where volume data or a parallax image group is stored in the workstation 130 itself.

なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。このため、ワークステーション130や端末装置140は、患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、必要なボリュームデータや視差画像群を画像保管装置120から取得する。   In the first embodiment, the volume data and the parallax image group stored in the image storage device 120 are stored in association with the patient ID, examination ID, device ID, series ID, and the like. Therefore, the workstation 130 and the terminal device 140 acquire necessary volume data and a parallax image group from the image storage device 120 by performing a search using a patient ID, an examination ID, a device ID, a series ID, and the like.

ワークステーション130は、医用画像に対して画像処理を行なう画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。視差画像群とは、複数の視点から撮影された複数の視差画像のことであり、例えば、9視差画像を裸眼にて立体視可能なモニタにて表示される視差画像群とは、視点位置が異なる9つの視差画像のことである。   The workstation 130 is an image processing apparatus that performs image processing on medical images. Specifically, the workstation 130 according to the first embodiment performs various rendering processes on the volume data acquired from the image storage device 120 to generate a parallax image group. A parallax image group is a plurality of parallax images taken from a plurality of viewpoints. For example, a parallax image group displayed on a monitor capable of stereoscopically viewing nine parallax images with the naked eye has a viewpoint position. It is nine different parallax images.

また、第1の実施形態に係るワークステーション130は、表示部として、立体視可能なモニタ(以下、立体表示モニタ)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   In addition, the workstation 130 according to the first embodiment includes a stereoscopically visible monitor (hereinafter, stereoscopic display monitor) as a display unit. The workstation 130 generates a parallax image group and displays the generated parallax image group on the stereoscopic display monitor. As a result, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically visible medical image displayed on the stereoscopic display monitor.

また、ワークステーション130は、生成した視差画像群を画像保管装置120に送信する。なお、ワークステーション130は、視差画像群を画像保管装置120に送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。また、視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466画素×350画素」)等がある。また、ワークステーション130は、端末装置140からの立体視要求に応じて、生成した視差画像群を端末装置140に送信することもできる。   Further, the workstation 130 transmits the generated parallax image group to the image storage device 120. In addition, when transmitting the parallax image group to the image storage device 120, the workstation 130 transmits, for example, a patient ID, an examination ID, a device ID, a series ID, and the like as incidental information. Further, the incidental information transmitted when transmitting the parallax image group to the image storage device 120 includes incidental information regarding the parallax image group. The incidental information regarding the parallax image group includes the number of parallax images (for example, “9”), the resolution of the parallax images (for example, “466 pixels × 350 pixels”), and the like. In addition, the workstation 130 can also transmit the generated parallax image group to the terminal device 140 in response to a stereoscopic view request from the terminal device 140.

ここで、第1の実施形態に係るワークステーション130は、操作者の要求に応じてリアルタイムで視差画像群を生成する。例えば、第1の実施形態に係るワークステーション130は、自装置の操作者の要求に応じて視差画像群を生成する。或いは、第1の実施形態に係るワークステーション130は、以下に説明する端末装置140の操作者の要求に応じて視差画像群を生成し、生成した視差画像群を端末装置140に送信する。   Here, the workstation 130 according to the first embodiment generates a parallax image group in real time according to an operator's request. For example, the workstation 130 according to the first embodiment generates a parallax image group in response to a request from the operator of the own apparatus. Alternatively, the workstation 130 according to the first embodiment generates a parallax image group in response to a request from an operator of the terminal device 140 described below, and transmits the generated parallax image group to the terminal device 140.

端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、ワークステーション130又は画像保管装置120から視差画像群を取得し、取得した視差画像群を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。   The terminal device 140 is a device that allows a doctor or laboratory technician working in a hospital to view a medical image. For example, the terminal device 140 is a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or laboratory technician working in a hospital. Specifically, the terminal device 140 according to the first embodiment includes a stereoscopic display monitor as a display unit. Further, the terminal device 140 acquires a parallax image group from the workstation 130 or the image storage device 120, and displays the acquired parallax image group on the stereoscopic display monitor. As a result, a doctor or laboratory technician who is an observer can view a medical image that can be viewed stereoscopically.

ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。   Here, the stereoscopic display monitor included in the workstation 130 and the terminal device 140 will be described. A general-purpose monitor that is most popular at present displays a two-dimensional image in two dimensions, and cannot display a two-dimensional image in three dimensions. If an observer requests stereoscopic viewing on a general-purpose monitor, an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there. Alternatively, an apparatus that outputs an image to a general-purpose monitor, for example, uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.

一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。   On the other hand, as a stereoscopic display monitor, there is a stereoscopic display monitor that enables a stereoscopic view of a two-parallax image (also referred to as a binocular parallax image) by using dedicated equipment such as stereoscopic glasses.

図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2に示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2の(A)に示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2の(A)に示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。   FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. An example shown in FIG. 2 is a stereoscopic display monitor that performs stereoscopic display by a shutter method, and shutter glasses are used as stereoscopic glasses worn by an observer who observes the monitor. Such a stereoscopic display monitor emits two parallax images alternately on the monitor. For example, the monitor shown in FIG. 2A alternately emits a left-eye image and a right-eye image at 120 Hz. Here, as shown in FIG. 2A, the monitor is provided with an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing at which the image is switched.

また、赤外線出射部から出射された赤外線は、図2の(A)に示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。   Moreover, the infrared rays emitted from the infrared ray emitting portion are received by the infrared ray receiving portion of the shutter glasses shown in FIG. A shutter is attached to each of the left and right frames of the shutter glasses, and the shutter glasses alternately switch the transmission state and the light shielding state of the left and right shutters according to the timing when the infrared light receiving unit receives the infrared rays. Hereinafter, the switching process between the transmission state and the light shielding state in the shutter will be described.

各シャッターは、図2の(B)に示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶層を有する。また、入射側の偏光板と出射側の偏光板とは、図2の(B)に示すように、互いに直交している。ここで、図2の(B)に示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。   As shown in FIG. 2B, each shutter has an incident-side polarizing plate and an output-side polarizing plate, and a liquid crystal layer between the incident-side polarizing plate and the output-side polarizing plate. Have Further, as shown in FIG. 2B, the incident-side polarizing plate and the outgoing-side polarizing plate are orthogonal to each other. Here, as shown in FIG. 2B, in the “OFF” state where no voltage is applied, the light that has passed through the polarizing plate on the incident side is rotated by 90 ° by the action of the liquid crystal layer, and is emitted on the outgoing side. Is transmitted through the polarizing plate. That is, a shutter to which no voltage is applied is in a transmissive state.

一方、図2の(B)に示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。   On the other hand, as shown in FIG. 2B, in the “ON” state where a voltage is applied, the polarization rotation action caused by the liquid crystal molecules in the liquid crystal layer disappears. It will be blocked by the polarizing plate on the exit side. That is, the shutter to which the voltage is applied is in a light shielding state.

そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2の(A)に示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2に示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。   Therefore, for example, the infrared emitting unit emits infrared rays during a period in which an image for the left eye is displayed on the monitor. The infrared light receiving unit applies a voltage to the right-eye shutter without applying a voltage to the left-eye shutter during a period of receiving the infrared light. Accordingly, as shown in FIG. 2A, the right-eye shutter is in a light-shielding state and the left-eye shutter is in a transmissive state, so that an image for the left eye is incident on the left eye of the observer. On the other hand, the infrared ray emitting unit stops emitting infrared rays while the right-eye image is displayed on the monitor. The infrared light receiving unit applies a voltage to the left-eye shutter without applying a voltage to the right-eye shutter during a period in which no infrared light is received. Accordingly, the left-eye shutter is in a light-shielding state and the right-eye shutter is in a transmissive state, so that an image for the right eye enters the right eye of the observer. As described above, the stereoscopic display monitor illustrated in FIG. 2 displays an image that can be viewed stereoscopically by the observer by switching the image displayed on the monitor and the state of the shutter in conjunction with each other. As a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image, a monitor adopting a polarized glasses method is also known in addition to the shutter method described above.

更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。   Furthermore, as a stereoscopic display monitor that has been put into practical use in recent years, there is a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens. . Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.

図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であっても良い。   FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. In the stereoscopic display monitor shown in FIG. 3, a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel. For example, in the stereoscopic display monitor shown in FIG. 3, a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller. In the example shown in FIG. 3, the vertical lenticular sheet 201 is pasted so that the convex portion of the vertical lenticular sheet 201 becomes the front surface, but the convex portion of the vertical lenticular sheet 201 is pasted so as to face the display surface 200. There may be.

表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。例えば、9視差画像は、9つの画像が「3行3列」に配置された格子状のフォーマットの中間画像に変換されて、表示面200に出力される。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。   As shown in FIG. 3, the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels, red (R), green (G), and blue (B), are arranged in the vertical direction. 202 are arranged in a matrix. The stereoscopic display monitor shown in FIG. 3 converts a nine-parallax image composed of nine images into an intermediate image arranged in a predetermined format (for example, a lattice shape), and then outputs it to the display surface 200. For example, a nine-parallax image is converted into an intermediate image in a grid-like format in which nine images are arranged in “3 rows and 3 columns” and output to the display surface 200. That is, the stereoscopic display monitor shown in FIG. 3 assigns and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202. The nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images with different viewpoint positions.

表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。また、中間画像のフォーマットは、「3行3列」の格子状に限定されるものではない。例えば、中間画像のフォーマットは、「1行9列」や「9行1列」等、モニタの仕様に応じた任意のフォーマットである場合であっても良い。   The nine parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201. As the light of each pixel of the nine-parallax image is emitted in multiple directions, the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position). That is, the parallax angle between the parallax image incident on the right eye and the parallax image incident on the left eye differs depending on the viewing angle of the observer. Thereby, the observer can visually recognize the photographing object in three dimensions at each of the nine positions shown in FIG. 3, for example. In addition, for example, the observer can view the image three-dimensionally in a state of facing the object to be imaged at the position “5” shown in FIG. 3, and at each position other than “5” shown in FIG. It can be visually recognized in a three-dimensional manner with the direction of the object changed. Note that the stereoscopic display monitor shown in FIG. 3 is merely an example. As shown in FIG. 3, the stereoscopic display monitor that displays a nine-parallax image may be a horizontal stripe liquid crystal of “RRR..., GGG..., BBB. .. ”” May be used. The stereoscopic display monitor shown in FIG. 3 may be a vertical lens system in which the lenticular sheet is vertical as shown in FIG. 3 or a diagonal lens system in which the lenticular sheet is diagonal. There may be. Further, the format of the intermediate image is not limited to the “3 rows × 3 columns” grid. For example, the format of the intermediate image may be an arbitrary format according to the monitor specification, such as “1 row 9 column” or “9 row 1 column”.

以下、図2を用いて説明した立体表示モニタを2視差モニタと記載する。また、以下、図3を用いて説明した立体表示モニタを9視差モニタと記載する。すなわち、2視差モニタは、両眼視差による立体視を可能とする立体表示装置である。また、9視差モニタは、両眼視差による立体視を可能とし、更に、9つの画像(9視差画像)を同時に表示することで「観察者の視点移動(運動視差)」に応じて観察者が観察する画像を変更可能な立体表示装置である。   Hereinafter, the stereoscopic display monitor described with reference to FIG. 2 is referred to as a two-parallax monitor. Hereinafter, the stereoscopic display monitor described with reference to FIG. 3 is referred to as a 9-parallax monitor. That is, the two-parallax monitor is a stereoscopic display device that enables stereoscopic viewing with binocular parallax. In addition, the 9-parallax monitor enables stereoscopic viewing by binocular parallax, and further displays the 9 images (9-parallax images) at the same time so that the observer can respond according to the “observer's viewpoint movement (motion parallax)”. This is a stereoscopic display device capable of changing an image to be observed.

ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合にその適用が限られるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合にも、同様に適用される。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合にも、同様に適用される。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されてよい。   So far, the configuration example of the image processing system 1 according to the first embodiment has been briefly described. Note that the application of the image processing system 1 described above is not limited when PACS is introduced. For example, the image processing system 1 is similarly applied when an electronic medical chart system that manages an electronic medical chart to which a medical image is attached is introduced. In this case, the image storage device 120 is a database that stores electronic medical records. Further, for example, the image processing system 1 is similarly applied when a HIS (Hospital Information System) and a RIS (Radiology Information System) are introduced. The image processing system 1 is not limited to the configuration example described above. The functions and sharing of each device may be appropriately changed according to the operation mode.

次に、第1の実施形態に係るワークステーションの構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下において、「視差画像群」とは、ボリュームデータに対してボリュームレンダリング処理を行なうことで生成された立体視用の画像群(ボリュームレンダリング画像群)のことである。また、「視差画像」とは、「視差画像群」を構成する個々の画像のことである。すなわち、「視差画像群」は、視点位置が異なる複数の「視差画像」から構成される。   Next, a configuration example of the workstation according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. In the following, the “parallax image group” is a group of stereoscopic images (volume rendering image group) generated by performing volume rendering processing on volume data. Further, the “parallax image” is an individual image constituting the “parallax image group”. That is, the “parallax image group” includes a plurality of “parallax images” having different viewpoint positions.

第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136とを有する。なお、以下では、ワークステーション130が画像処理等に適した高性能なコンピュータである場合を用いて説明するが、これに限定されるものではなく、任意の情報処理装置であって良い。例えば、任意のパーソナルコンピュータであっても良い。   The workstation 130 according to the first embodiment is a high-performance computer suitable for image processing and the like, and as illustrated in FIG. 4, an input unit 131, a display unit 132, a communication unit 133, and a storage unit 134. And a control unit 135 and a rendering processing unit 136. In the following, a case where the workstation 130 is a high-performance computer suitable for image processing or the like will be described. However, the present invention is not limited to this, and may be any information processing apparatus. For example, any personal computer may be used.

入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(レンダリング条件)の入力を受け付ける。   The input unit 131 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the workstation 130 from an operator. Specifically, the input unit 131 according to the first embodiment receives input of information for acquiring volume data to be subjected to rendering processing from the image storage device 120. For example, the input unit 131 receives input of a patient ID, an examination ID, a device ID, a series ID, and the like. Further, the input unit 131 according to the first embodiment receives an input of a condition (rendering condition) related to rendering processing.

表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、視差画像群等を表示する。例えば、表示部132は、2視差モニタや、9視差モニタである。以下では、表示部132が9視差モニタである場合について説明する。通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。   The display unit 132 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 132 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a parallax image group, and the like. For example, the display unit 132 is a 2-parallax monitor or a 9-parallax monitor. Below, the case where the display part 132 is a 9 parallax monitor is demonstrated. The communication unit 133 is a NIC (Network Interface Card) or the like, and performs communication with other devices.

記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理により生成された視差画像群等を記憶する。   The storage unit 134 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 134 according to the first embodiment stores volume data acquired from the image storage device 120 via the communication unit 133. In addition, the storage unit 134 according to the first embodiment stores volume data during rendering processing, a group of parallax images generated by the rendering processing, and the like.

制御部135は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行なう。   The control unit 135 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the entire workstation 130. Take control.

例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行なわれるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。   For example, the control unit 135 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 132. For example, the control unit 135 controls transmission / reception of volume data and a parallax image group performed with the image storage device 120 via the communication unit 133. For example, the control unit 135 controls the rendering process performed by the rendering processing unit 136. For example, the control unit 135 controls reading of volume data from the storage unit 134 and storage of the parallax image group in the storage unit 134.

レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行なう。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行なう画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像を生成する処理のことである。レンダリング処理により生成される医用画像とは、例えば、視差画像が該当する。   The rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135 to generate a parallax image group. Specifically, the rendering processing unit 136 according to the first embodiment reads volume data from the storage unit 134 and first performs preprocessing on the volume data. Next, the rendering processing unit 136 performs volume rendering processing on the pre-processed volume data to generate a parallax image group. Subsequently, the rendering processing unit 136 generates a two-dimensional image in which various kinds of information (scale, patient name, examination item, etc.) are drawn, and superimposes it on each of the parallax image groups, thereby outputting 2 for output. Generate a dimensional image. Then, the rendering processing unit 136 stores the generated parallax image group and the output two-dimensional image in the storage unit 134. In the first embodiment, the rendering process is the entire image process performed on the volume data. The volume rendering process is a two-dimensional image reflecting three-dimensional information in the rendering process. It is a process to generate. For example, a parallax image corresponds to the medical image generated by the rendering process.

図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361が、ボリュームデータに対する前処理を行い、3次元画像処理部1362が、前処理後のボリュームデータから視差画像群を生成し、2次元画像処理部1363が、視差画像群に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。   FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. As illustrated in FIG. 5, the rendering processing unit 136 includes a preprocessing unit 1361, a 3D image processing unit 1362, and a 2D image processing unit 1363. The preprocessing unit 1361 performs preprocessing on the volume data, the 3D image processing unit 1362 generates a parallax image group from the preprocessed volume data, and the 2D image processing unit 1363 stores various information on the parallax image group. A two-dimensional image for output on which is superimposed is generated. Hereinafter, each part is demonstrated in order.

前処理部1361は、ボリュームデータに対してレンダリング処理を行なう際に、種々の前処理を行なう処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。   The preprocessing unit 1361 is a processing unit that performs various types of preprocessing when rendering processing is performed on volume data, and includes an image correction processing unit 1361a, a three-dimensional object fusion unit 1361e, and a three-dimensional object display area setting. Part 1361f.

画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行なう処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET−CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。   The image correction processing unit 1361a is a processing unit that performs image correction processing when processing two types of volume data as one volume data, and as shown in FIG. 5, a distortion correction processing unit 1361b, a body motion correction processing unit, 1361c and an inter-image registration processing unit 1361d. For example, the image correction processing unit 1361a performs image correction processing when processing volume data of a PET image generated by a PET-CT apparatus and volume data of an X-ray CT image as one volume data. Alternatively, the image correction processing unit 1361a performs image correction processing when processing the volume data of the T1-weighted image and the volume data of the T2-weighted image generated by the MRI apparatus as one volume data.

また、歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行なわれた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行なう。   In addition, the distortion correction processing unit 1361b corrects the data distortion caused by the collection conditions at the time of data collection by the medical image diagnostic apparatus 110 in each volume data. Further, the body motion correction processing unit 1361c corrects the movement caused by the body motion of the subject at the time of collecting the data used for generating the individual volume data. Further, the inter-image registration processing unit 1361d performs registration (Registration) using, for example, a cross-correlation method between the two volume data subjected to the correction processing by the distortion correction processing unit 1361b and the body motion correction processing unit 1361c. ).

3次元物体フュージョン部1363eは、画像間位置合わせ処理部1361dにより位置合わせが行なわれた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行なう場合、省略される。   The three-dimensional object fusion unit 1363e fuses a plurality of volume data that has been aligned by the inter-image registration processing unit 1361d. Note that the processing of the image correction processing unit 1361a and the three-dimensional object fusion unit 1361e is omitted when rendering processing is performed on single volume data.

3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。   The three-dimensional object display region setting unit 1361f is a processing unit that sets a display region corresponding to the display target organ designated by the operator, and includes a segmentation processing unit 1361g. The segmentation processing unit 1361g is a processing unit that extracts organs such as the heart, lungs, and blood vessels designated by the operator by, for example, a region expansion method based on pixel values (voxel values) of volume data.

なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行なわない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。   Note that the segmentation processing unit 1361g does not perform the segmentation process when the display target organ is not designated by the operator. The segmentation processing unit 1361g extracts a plurality of corresponding organs when a plurality of display target organs are designated by the operator. Further, the processing of the segmentation processing unit 1361g may be executed again in response to an operator fine adjustment request referring to the rendered image.

3次元画像処理部1362は、前処理部1361が処理を行なった前処理後のボリュームデータに対してボリュームレンダリング処理を行なう。ボリュームレンダリング処理を行なう処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。   The 3D image processing unit 1362 performs volume rendering processing on the pre-processed volume data processed by the preprocessing unit 1361. As a processing unit that performs volume rendering processing, a three-dimensional image processing unit 1362 includes a projection method setting unit 1362a, a three-dimensional geometric transformation processing unit 1362b, a three-dimensional object appearance processing unit 1362f, and a three-dimensional virtual space rendering unit 1362k. Have

投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。   The projection method setting unit 1362a determines a projection method for generating a parallax image group. For example, the projection method setting unit 1362a determines whether to execute the volume rendering process by the parallel projection method or the perspective projection method.

3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行なう際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行なう際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、視差画像群の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。   The three-dimensional geometric transformation processing unit 1362b is a processing unit that determines information for transforming volume data on which volume rendering processing is performed into a three-dimensional geometrical structure. The three-dimensional geometric transformation processing unit 1362b includes a parallel movement processing unit 1362c, a rotation processing unit 1362d, and an enlargement unit. A reduction processing unit 1362e is included. The parallel movement processing unit 1362c is a processing unit that determines the amount of movement to translate the volume data when the viewpoint position when performing the volume rendering processing is translated, and the rotation processing unit 1362d performs the volume rendering processing. This is a processing unit that determines the amount of movement by which the volume data is rotationally moved when the viewpoint position during the rotation is rotationally moved. The enlargement / reduction processing unit 1362e is a processing unit that determines the enlargement rate or reduction rate of the volume data when enlargement or reduction of the parallax image group is requested.

3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される視差画像群の表示状態を決定する処理を行なう。   The three-dimensional object appearance processing unit 1362f includes a three-dimensional object color processing unit 1362g, a three-dimensional object opacity processing unit 1362h, a three-dimensional object material processing unit 1362i, and a three-dimensional virtual space light source processing unit 1362j. The three-dimensional object appearance processing unit 1362f performs a process of determining the display state of the displayed parallax image group in response to an operator's request, for example.

3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、視差画像群において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、視差画像群において描出されないこととなる。   The three-dimensional object color processing unit 1362g is a processing unit that determines a color to be colored for each region segmented by the volume data. The three-dimensional object opacity processing unit 1362h is a processing unit that determines the opacity (Opacity) of each voxel constituting each region segmented by volume data. It should be noted that the area behind the area having the opacity of “100%” in the volume data is not drawn in the parallax image group. In addition, an area in which the opacity is “0%” in the volume data is not drawn in the parallax image group.

3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行なう際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行な光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。   The three-dimensional object material processing unit 1362i is a processing unit that determines the material of each region segmented by volume data and adjusts the texture when the region is rendered. The three-dimensional virtual space light source processing unit 1362j is a processing unit that determines the position of the virtual light source installed in the three-dimensional virtual space and the type of the virtual light source when performing volume rendering processing on the volume data. Examples of the virtual light source include a light source that emits parallel light rays from infinity and a light source that emits radial light rays from the viewpoint.

3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行なう際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。   The three-dimensional virtual space rendering unit 1362k performs volume rendering processing on the volume data to generate a parallax image group. The three-dimensional virtual space rendering unit 1362k performs various types of information determined by the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f as necessary when performing the volume rendering process. Is used.

ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行なわれることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置及び視差角」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「視差画像群の拡大」、「視差画像群の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、このレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行なう。また、このとき、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。   Here, the volume rendering process by the three-dimensional virtual space rendering unit 1362k is performed according to the rendering conditions. For example, the rendering condition is “parallel projection method” or “perspective projection method”. For example, the rendering condition is “reference viewpoint position and parallax angle”. Further, for example, the rendering conditions are “translation of viewpoint position”, “rotational movement of viewpoint position”, “enlargement of parallax image group”, and “reduction of parallax image group”. Further, for example, the rendering conditions are “color to be colored”, “transparency”, “texture”, “position of virtual light source”, and “type of virtual light source”. Such a rendering condition may be accepted from the operator via the input unit 131 or may be initially set. In any case, the three-dimensional virtual space rendering unit 1362k receives a rendering condition from the control unit 135, and performs volume rendering processing on the volume data according to the rendering condition. At this time, the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f determine various pieces of necessary information according to the rendering conditions, so the three-dimensional virtual space rendering unit 1362k. Generates a parallax image group using the determined various pieces of information.

図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6の(A)に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(A)に示すように、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。そして、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。   FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. For example, as shown in FIG. 6A, the three-dimensional virtual space rendering unit 1362k accepts the parallel projection method as a rendering condition, and further sets the reference viewpoint position (5) and the parallax angle “1 degree”. Suppose you accept. In such a case, the three-dimensional virtual space rendering unit 1362k sets a light source that emits parallel light rays from infinity along the line-of-sight direction, as shown in FIG. Then, the three-dimensional virtual space rendering unit 1362k translates the position of the viewpoint from (1) to (9) so that the parallax angle is every “1 degree”, and the parallax angle (gaze direction) by the parallel projection method. Nine parallax images with different angles are generated by 1 degree.

或いは、3次元仮想空間レンダリング部1362kが、図6の(B)に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(B)に示すように、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。そして、3次元仮想空間レンダリング部1362kは、例えば、ボリュームデータの切断面の中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。なお、視線方向は、図6の(A)及び(B)に示すように、視点からボリュームデータの切断面の中心(重心)に向かう方向となる。   Alternatively, as shown in FIG. 6B, the three-dimensional virtual space rendering unit 1362k accepts a perspective projection method as a rendering condition, and further sets the reference viewpoint position (5) and the parallax angle “1 degree”. Suppose you accept. In such a case, as shown in FIG. 6B, the three-dimensional virtual space rendering unit 1362k sets a point light source and a surface light source that irradiates light three-dimensionally radially around the line-of-sight direction at each viewpoint. . For example, the three-dimensional virtual space rendering unit 1362k sets the position of the viewpoint (1) to (9) so that the parallax angle is every “one degree” around the center (center of gravity) of the cut surface of the volume data. Nine parallax images having different parallax angles by 1 degree are generated by the perspective projection method. When performing the perspective projection method, the viewpoints (1) to (9) may be translated depending on the rendering conditions. As shown in FIGS. 6A and 6B, the line-of-sight direction is a direction from the viewpoint toward the center (center of gravity) of the cut surface of the volume data.

或いは、3次元仮想空間レンダリング部1362kは、図6の(C)に示すように、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。   Alternatively, as shown in FIG. 6C, the three-dimensional virtual space rendering unit 1362k radiates light in a two-dimensional manner centering on the line-of-sight direction with respect to the vertical direction of the displayed volume rendering image. For the horizontal direction of the volume rendering image to be displayed, a volume rendering process that uses both the parallel projection method and the perspective projection method by setting a light source that emits parallel light rays from infinity along the viewing direction. May be performed.

このようにして生成された9つの視差画像が、視差画像群である。第1の実施形態において、9つの視差画像は、例えば制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、立体表示モニタとしての表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   The nine parallax images generated in this way are a parallax image group. In the first embodiment, the nine parallax images are converted into intermediate images arranged in a predetermined format (for example, a lattice shape) by the control unit 135, for example, and are output to the display unit 132 as a stereoscopic display monitor. Then, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically viewable medical image displayed on the stereoscopic display monitor.

なお、図6の例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。   In the example of FIG. 6, the case where the projection method, the reference viewpoint position, and the parallax angle are received as the rendering conditions has been described. However, the three-dimensional virtual space is similarly applied when other conditions are received as the rendering conditions. The rendering unit 1362k generates a parallax image group while reflecting each rendering condition.

また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する機能も有する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行なう機能や、「Intensity Projection」を行なう機能も有する。   The three-dimensional virtual space rendering unit 1362k has a function of reconstructing an MPR image from volume data by performing not only volume rendering but also a cross-section reconstruction method (MPR: Multi Planer Reconstruction). The three-dimensional virtual space rendering unit 1362k also has a function of performing “Curved MPR” and a function of performing “Intensity Projection”.

続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行なうことで、出力用の2次元画像を生成する処理部であり、図5に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、9枚の視差画像(アンダーレイ)のそれぞれに対して1枚のオーバーレイを重畳することで、出力用の2次元画像を9枚、生成する。   Subsequently, the parallax image group generated from the volume data by the three-dimensional image processing unit 1362 is set as an underlay. Then, an overlay (Overlay) on which various types of information (scale, patient name, examination item, etc.) are drawn is superimposed on the underlay, thereby obtaining a two-dimensional image for output. The two-dimensional image processing unit 1363 is a processing unit that generates an output two-dimensional image by performing image processing on the overlay and the underlay. As illustrated in FIG. 5, the two-dimensional object drawing unit 1363a, A two-dimensional geometric transformation processing unit 1363b and a luminance adjustment unit 1363c are included. For example, the two-dimensional image processing unit 1363 superimposes one overlay on each of nine parallax images (underlays) in order to reduce the load required to generate a two-dimensional image for output. Thus, nine output two-dimensional images are generated.

2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。   The two-dimensional object drawing unit 1363a is a processing unit that draws various information drawn on the overlay, and the two-dimensional geometric transformation processing unit 1363b performs parallel movement processing or rotational movement processing on the position of the various information drawn on the overlay. Or a processing unit that performs an enlargement process or a reduction process of various types of information drawn on the overlay.

また、輝度調整部1363cは、輝度変換処理を行なう処理部であり、例えば、出力先の立体表示モニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。   The luminance adjustment unit 1363c is a processing unit that performs luminance conversion processing. For example, the gradation of an output destination stereoscopic display monitor, an image such as a window width (WW: Window Width), a window level (WL: Window Level), or the like. This is a processing unit that adjusts the brightness of the overlay and the underlay according to the processing parameters.

このようにして生成された出力用の2次元画像は、例えば制御部135により一旦記憶部134に格納され、その後、通信部133を介して画像保管装置120に送信される。例えば、端末装置140が、画像保管装置120からこの出力用の2次元画像を取得し、所定フォーマット(例えば格子状)に配置した中間画像に変換した上で立体表示モニタに表示すると、観察者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。或いは、出力用の2次元画像は、例えば制御部135により通信部133を介して、直接、端末装置140に送信される。   The output two-dimensional image generated in this way is temporarily stored in the storage unit 134 by the control unit 135, for example, and then transmitted to the image storage device 120 via the communication unit 133. For example, when the terminal device 140 acquires the two-dimensional image for output from the image storage device 120, converts it to an intermediate image arranged in a predetermined format (for example, a lattice shape), and displays it on a stereoscopic display monitor, A doctor or a laboratory technician can view a stereoscopically viewable medical image in a state where various types of information (scale, patient name, examination item, etc.) are drawn. Alternatively, the output two-dimensional image is directly transmitted to the terminal device 140 by the control unit 135 via the communication unit 133, for example.

そして、第1の実施形態に係る端末装置140は、上述したように、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置であり、画像保管装置120又はワークステーション130からレンダリング処理部136が生成した視差画像群(出力用の2次元画像)を取得する。図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。   As described above, the terminal device 140 according to the first embodiment is a device that allows a doctor or laboratory technician working in a hospital to view a medical image, and is rendered from the image storage device 120 or the workstation 130. The parallax image group (two-dimensional image for output) generated by the processing unit 136 is acquired. FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment.

第1の実施形態に係る端末装置140は、図7に示すように、入力部141と、表示部142と、通信部143と、記憶部144と、制御部145と、2次元画像処理部146とを有する。   As illustrated in FIG. 7, the terminal device 140 according to the first embodiment includes an input unit 141, a display unit 142, a communication unit 143, a storage unit 144, a control unit 145, and a two-dimensional image processing unit 146. And have.

入力部141は、マウス、キーボード、トラックボール等であり、端末装置140に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部141は、操作者から立体視要求を受け付ける。例えば、入力部141は、立体視要求として、操作者が読影用の表示を要望するボリュームデータを指定するための患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。   The input unit 141 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the terminal device 140 from an operator. Specifically, the input unit 141 according to the first embodiment receives a stereoscopic request from the operator. For example, the input unit 141 accepts input of patient ID, examination ID, device ID, series ID, and the like for designating volume data that the operator desires to display for interpretation as a stereoscopic request.

表示部142は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部142は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部142は、2視差モニタや、9視差モニタである。以下では、表示部142が9視差モニタである場合について説明する。   The display unit 142 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various types of information. Specifically, the display unit 142 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a stereoscopic image, and the like. For example, the display unit 142 is a 2-parallax monitor or a 9-parallax monitor. Below, the case where the display part 142 is a 9 parallax monitor is demonstrated.

通信部143は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。例えば、第1の実施形態に係る通信部143は、入力部141が受け付けた立体視要求に関する情報を画像保管装置120に送信する。また、第1の実施形態に係る通信部143は、立体視要求に応じて、画像保管装置120又はワークステーション130が送信した視差画像群等を受信する。   The communication unit 143 is a NIC (Network Interface Card) or the like, and performs communication with other devices. For example, the communication unit 143 according to the first embodiment transmits information regarding the stereoscopic request received by the input unit 141 to the image storage device 120. Further, the communication unit 143 according to the first embodiment receives a parallax image group or the like transmitted by the image storage device 120 or the workstation 130 in response to a stereoscopic view request.

記憶部144は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部144は、通信部143を介して画像保管装置120又はワークステーション130から取得した視差画像群等を記憶する。また、記憶部144は、通信部143を介して画像保管装置120又はワークステーション130から取得した視差画像群の付帯情報(視差数や解像度等)も記憶する。   The storage unit 144 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 144 according to the first embodiment stores a parallax image group acquired from the image storage device 120 or the workstation 130 via the communication unit 143. The storage unit 144 also stores incidental information (the number of parallaxes, resolution, and the like) of the parallax image group acquired from the image storage device 120 or the workstation 130 via the communication unit 143.

制御部145は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、端末装置140の全体制御を行なう。   The control unit 145 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Take control.

例えば、制御部145は、画像保管装置120との間で通信部143を介して行なわれる立体視要求に関する情報の送受信や、画像保管装置120又はワークステーション130との間で通信部143を介して行なわれる視差画像群等の送受信を制御する。また、例えば、制御部145は、視差画像群等の記憶部144への格納や、視差画像群等の記憶部144からの読み込みを制御する。   For example, the control unit 145 transmits / receives information regarding a stereoscopic request made to / from the image storage device 120 via the communication unit 143, and communicates with the image storage device 120 or the workstation 130 via the communication unit 143. Controls transmission / reception of a parallax image group and the like to be performed. For example, the control unit 145 controls storage of the parallax image group or the like in the storage unit 144 and reading of the parallax image group or the like from the storage unit 144.

また、第1の実施形態に係る制御部145は、表示部142に対するGUIの表示や視差画像群の表示を制御する。第1の実施形態に係る制御部145は、視差画像群を所定フォーマット(例えば格子状)に配置した中間画像に変換した上で9視差モニタである表示部142に表示する。   In addition, the control unit 145 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 142. The control unit 145 according to the first embodiment converts the parallax image group into an intermediate image arranged in a predetermined format (for example, a lattice shape), and displays the intermediate image on the display unit 142 which is a 9-parallax monitor.

また、第1の実施形態に係る制御部145は、2次元画像処理部146による画像処理を制御する。   Further, the control unit 145 according to the first embodiment controls image processing by the two-dimensional image processing unit 146.

2次元画像処理部146は、図5を用いて説明した2次元画像処理部1363と同様の機能を有する。すなわち、2次元画像処理部146は、3次元画像処理部1362により生成されたアンダーレイとしての視差画像群に対して、オーバーレイを生成して重畳することで、表示部142に対する出力用の2次元画像を生成することができる。   The two-dimensional image processing unit 146 has the same function as the two-dimensional image processing unit 1363 described with reference to FIG. That is, the two-dimensional image processing unit 146 generates an overlay on the parallax image group as the underlay generated by the three-dimensional image processing unit 1362 and superimposes the two-dimensional image for output to the display unit 142. An image can be generated.

さて、上述したように、レンダリング処理部136は、制御部135による制御の下、ボリュームデータから視差画像群を生成する。また、端末装置140は、視差画像群を取得して表示部142に表示する。これにより、端末装置140の操作者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。   As described above, the rendering processing unit 136 generates a parallax image group from the volume data under the control of the control unit 135. In addition, the terminal device 140 acquires a parallax image group and displays it on the display unit 142. As a result, a doctor or laboratory technician who is an operator of the terminal device 140 can browse a stereoscopically viewable medical image in a state where various information (scale, patient name, examination item, etc.) is drawn.

しかし、端末装置140の操作者(表示部142の観察者)による入力部141を介した要求(ボリュームデータの回転や拡大縮小、パノラマ表示やクリッピング等)に応じて、ボリュームデータから9視差画像を生成する処理をリアルタイムに実行すると、ボリュームレンダリング処理の演算量の多さから、観察者に対してインタラクティブな処理結果を表示することは困難であった。   However, in response to a request (rotation or enlargement / reduction of the volume data, panorama display, clipping, etc.) via the input unit 141 by the operator of the terminal device 140 (observer of the display unit 142), 9 parallax images are obtained from the volume data. When the processing to be generated is executed in real time, it is difficult to display an interactive processing result to the observer due to the large amount of calculation of the volume rendering processing.

すなわち、レンダリング条件の変更に応じてリアルタイムで9視差画像を生成するためには、ワークステーション130に高い画像処理能力が要求される。このため、ワークステーション130の画像処理能力によっては、観察者の要求入力時から9視差画像の表示まで時間差が生じてしまう。なお、上記の課題は、観察者が表示部132の観察者(ワークステーション130の操作者)である場合でも同様に生じる。   That is, in order to generate a 9-parallax image in real time according to the change of the rendering condition, the workstation 130 is required to have a high image processing capability. For this reason, depending on the image processing capability of the workstation 130, there will be a time difference from when the request is input by the observer until the display of the nine parallax images. Note that the above problem similarly occurs even when the observer is an observer of the display unit 132 (an operator of the workstation 130).

例えば、端末装置140の操作者は、ボリュームデータを生成した医用画像診断装置110の座標系にて基準視点を設定し、基準視点及び基準視点から視差角が1度間隔となる8つの視点を用いて平行投影法により9視差画像を生成することを要求する。かかる要求に応じてワークステーション130が生成した9視差画像は、表示部142に表示され、端末装置140の操作者により参照される。図8は、レンダリング条件の変更要求の一例を説明するための図である。   For example, the operator of the terminal device 140 sets a reference viewpoint in the coordinate system of the medical image diagnostic apparatus 110 that has generated the volume data, and uses eight viewpoints with a parallax angle of 1 degree from the reference viewpoint. Thus, it is required to generate nine parallax images by the parallel projection method. The nine parallax images generated by the workstation 130 in response to the request are displayed on the display unit 142 and referred to by the operator of the terminal device 140. FIG. 8 is a diagram for explaining an example of a rendering condition change request.

更に、端末装置140の操作者は、異なる角度からボリュームデータを参照したい場合、例えば、図8の(A)に示すように、入力部141を介して、ボリュームレンダリングを行なう際の視点の位置の変更要求を行なう。図8の(A)に示す一例では、端末装置140の操作者が、自身が参照したい視点位置の探索を、XY平面における視点の回転移動や、XZ平面における視点の回転移動により行なっている。   Further, when the operator of the terminal device 140 wants to refer to the volume data from different angles, for example, as shown in FIG. 8A, the position of the viewpoint when performing volume rendering is input via the input unit 141. Make a change request. In the example shown in FIG. 8A, the operator of the terminal device 140 searches the viewpoint position that the terminal device 140 wants to refer to by rotating the viewpoint on the XY plane or rotating the viewpoint on the XZ plane.

かかる要求は、制御部145の制御により通信部143から通信部133へ送信され、更に、通信部133から制御部135に転送される。制御部135は、転送された要求に合致した処理を行なって視差画像群(9視差画像)を生成するようにレンダリング処理部136を制御する。例えば、図8の(B)に示すように、視点の回転移動に応じて、レンダリング処理部136は、「基準視点(図中の斜線付きの丸を参照)及び8つの視点図中の白抜き丸を参照)」を新規に順次設定し、平行投影法によるボリュームレンダリング処理を行なって9視差画像を順次生成する。かかる9視差画像(画像(1)〜(9))は、図8の(C)に示すように、順次、端末装置140において中間画像に変換され、表示部142に出力される。   The request is transmitted from the communication unit 143 to the communication unit 133 under the control of the control unit 145, and further transferred from the communication unit 133 to the control unit 135. The control unit 135 controls the rendering processing unit 136 so as to generate a parallax image group (9 parallax images) by performing processing that matches the transferred request. For example, as shown in FIG. 8B, in accordance with the rotational movement of the viewpoint, the rendering processing unit 136 causes the “reference viewpoint (see the hatched circle in the figure) and the white outline in the eight viewpoint diagrams. 9 ”is newly set sequentially, and volume rendering processing by parallel projection is performed to sequentially generate 9 parallax images. The nine parallax images (images (1) to (9)) are sequentially converted into intermediate images in the terminal device 140 and output to the display unit 142, as shown in (C) of FIG.

しかし、例えば、回転移動の要求が短時間で行なわれた場合、図8の(B)に示す異なる視点位置の9視差画像の生成には、演算量の多さから処理に時間がかかり、観察者の要求に対して遅れが生じてしまう。なお、図8は、あくまでも一例であり、レンダリング条件の変更要求としては、視点位置の平行移動要求や、投影方法の変更要求、視差角の変更要求や、視差数の変更要求、視差画像群の拡大縮小要求がある。かかる変更要求の単位時間当たりの変化量の大きさによっても、視差画像群の生成には、観察者の要求に対して遅れが生じてしまう。   However, for example, when a request for rotational movement is made in a short time, the generation of 9 parallax images at different viewpoint positions shown in FIG. A delay will occur with respect to the request of the person. Note that FIG. 8 is merely an example, and as a rendering condition change request, a viewpoint position translation request, a projection method change request, a parallax angle change request, a parallax number change request, a parallax image group change request, There is a request for scaling. The generation of the parallax image group is also delayed with respect to the observer's request depending on the magnitude of the change amount per unit time of the change request.

そこで、第1の実施形態に係るワークステーション130は、観察者の要求に応じた立体視用の画像を、観察者にストレスを与えない時間で生成するように、制御部135のレンダリング処理制御が行なわれる。   Therefore, the workstation 130 according to the first embodiment performs rendering processing control of the control unit 135 so as to generate a stereoscopic image according to the request of the observer in a time that does not give stress to the observer. Done.

すなわち、第1の実施形態に係る制御部135は、立体表示モニタにて表示される所定視差数の視差画像である視差画像群を3次元の医用画像データであるボリュームデータからレンダリング処理により生成するレンダリング処理部136に対して、以下の制御を行なう。具体的には、第1の実施形態に係る制御部135は、立体表示モニタを参照する操作者によるレンダリング条件の変更操作に関する変化量の大きさに応じて、視差画像群のデータ量に関わる画像生成パラメータを変更するようにレンダリング処理部136を制御する。   That is, the control unit 135 according to the first embodiment generates a parallax image group, which is a parallax image having a predetermined number of parallaxes displayed on the stereoscopic display monitor, by rendering processing from volume data that is three-dimensional medical image data. The following control is performed on the rendering processing unit 136. Specifically, the control unit 135 according to the first embodiment displays an image related to the data amount of the parallax image group according to the amount of change regarding the rendering condition changing operation by the operator who refers to the stereoscopic display monitor. The rendering processing unit 136 is controlled to change the generation parameter.

より具体的には、第1の実施形態に係る制御部135は、変化量の大きさに応じて、視差画像群の解像度を画像生成パラメータとして変更させる。更に具体的には、第1の実施形態に係る制御部135は、変化量の大きさに応じて、視差画像群を生成する際に設定される投影光(Ray)の密度を変更させる。図9及び図10は、第1の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図である。   More specifically, the control unit 135 according to the first embodiment changes the resolution of the parallax image group as an image generation parameter according to the amount of change. More specifically, the control unit 135 according to the first embodiment changes the density of the projection light (Ray) set when generating the parallax image group according to the magnitude of the change amount. 9 and 10 are diagrams for explaining an example of the rendering control process of the control unit according to the first embodiment.

例えば、制御部135は、図9に示すように、解像度のレベルとして、低解像度(Low Resolution)、中解像度(Middle Resolution)及び高解像度(High Resolution)を設定する。「レベル:低解像度」は、図9の(A)に示すように、視点から投影面に照射させる投影光を低密度に設定することでボリュームデータから生成される視差画像群を低解像度とするものである。また、「レベル:中解像度」は、図9の(B)に示すように、視点から投影面に照射させる投影光を中密度に設定することでボリュームデータから生成される視差画像群を中解像度とするものである。   For example, as shown in FIG. 9, the control unit 135 sets a low resolution (Low Resolution), a medium resolution (Middle Resolution), and a high resolution (High Resolution) as the resolution level. “Level: low resolution”, as shown in FIG. 9A, sets a low-resolution parallax image group generated from volume data by setting the projection light irradiated from the viewpoint to the projection plane at a low density. Is. In addition, “level: medium resolution” indicates that a group of parallax images generated from volume data is set to medium resolution by setting the projection light irradiated from the viewpoint to the projection surface at medium density, as shown in FIG. 9B. It is what.

また、「レベル:高解像度」は、図9の(C)に示すように、視点から投影面にさせる投影光を高密度に設定することでボリュームデータから生成される視差画像群を高解像度とするものである。例えば、制御部135は、通常、表示部142にて最適に表示される画像の解像度に合致する視差画像群を生成するための投影光密度を「レベル:高解像度」の投影光密度として設定する。なお、図9では、投影光が平行投影法に用いられる平行光である場合を説明した。しかし、投影光密度の変更にともなう解像度の変更は、投影光が透視投影法に用いられる放射状の光線である場合にも適用可能である。   In addition, “level: high resolution” indicates that the parallax image group generated from the volume data is set to high resolution by setting the projection light to be projected from the viewpoint to the projection plane at a high density as shown in FIG. To do. For example, the control unit 135 normally sets the projection light density for generating a parallax image group that matches the resolution of the image optimally displayed on the display unit 142 as the “level: high resolution” projection light density. . In FIG. 9, the case where the projection light is parallel light used in the parallel projection method has been described. However, the change in resolution accompanying the change in the projection light density is also applicable when the projection light is a radial light beam used in the perspective projection method.

そして、制御部135は、初期条件により生成された9視差画像を端末装置140に送信した後、例えば、通信部143及び通信部133を介して、入力部141を用いた操作者のレンダリング条件の変更操作の単位時間当たりの変化量を取得する。具体的には、制御部135は、表示部142にGUIとして表示されている回転移動用のスクロールバーや、平行移動用のスクロールバー、拡大縮小用のスクロールバー等を、操作者が入力部141のマウスを用いて操作することで入力したレンダリング条件の変更操作の移動量を時間情報とともに取得する。或いは、制御部135は、例えば、表示部142にGUIとして表示されている視差数変更用のスクロールバーや、視差角変更用のスクロールバー、投影方法の切り替えスイッチ等を、操作者が入力部141のマウスを用いて操作することで入力したレンダリング条件の変更操作の移動量を時間情報とともに取得する。これにより、制御部135は、単位時間当たりの移動量の変化量を取得する。そして、制御部135は、変化量が所定閾値を越えた場合、視差画像群のデータ量(解像度)を低減させ、データ量の低減制御を行なった後に変化量が所定閾値以下となった場合、視差画像群のデータ量(解像度)を低減前のデータ量(解像度)に戻すように画像生成パラメータである解像度を変更する。   The control unit 135 transmits the nine parallax images generated based on the initial conditions to the terminal device 140, and then, for example, the rendering condition of the operator using the input unit 141 via the communication unit 143 and the communication unit 133. Get the amount of change per unit time of the change operation. Specifically, in the control unit 135, the operator inputs a scroll bar for rotational movement, a scroll bar for parallel movement, a scroll bar for enlargement / reduction, and the like displayed as a GUI on the display unit 142. The amount of movement of the rendering condition change operation input by operating with the mouse is acquired together with the time information. Alternatively, for example, the control unit 135 includes an input unit 141 for a scroll bar for changing the number of parallaxes displayed on the display unit 142 as a GUI, a scroll bar for changing the parallax angle, a projection method changeover switch, and the like. The amount of movement of the rendering condition change operation input by operating with the mouse is acquired together with the time information. As a result, the control unit 135 acquires the amount of change in the movement amount per unit time. When the amount of change exceeds a predetermined threshold, the control unit 135 reduces the data amount (resolution) of the parallax image group, and when the amount of change is equal to or less than the predetermined threshold after performing the data amount reduction control, The resolution that is the image generation parameter is changed so that the data amount (resolution) of the parallax image group is returned to the data amount (resolution) before the reduction.

一例を挙げると、制御部135は、単位時間当たりの視点位置の移動量(回転移動量等)である変化量が大きい間は、単位時間当たりの視点位置の移動(回転移動等)における変化量が大きい間は、粗い解像度でボリュームレンダリング処理を実行させる。その後、例えば、ユーザ操作の完了にともない、変化量が小さくなった場合には、高解像度でボリュームレンダリング処理を実行させる。   As an example, the control unit 135 changes the amount of change in viewpoint position movement (such as rotational movement) per unit time while the amount of change in viewpoint position movement amount (such as rotational movement amount) per unit time is large. Is large, the volume rendering process is executed with a coarse resolution. Thereafter, for example, when the amount of change becomes small as the user operation is completed, the volume rendering process is executed at a high resolution.

ここで、第1の実施形態では、制御部135は、所定閾値として複数の閾値を用いる。すなわち、第1の実施形態に係る制御部135は、解像度のレベルが3段階であることから、変化量に対する閾値として、第1閾値及び第2閾値を設定する。   Here, in the first embodiment, the control unit 135 uses a plurality of threshold values as the predetermined threshold value. That is, the control unit 135 according to the first embodiment sets the first threshold value and the second threshold value as threshold values for the amount of change because the resolution level has three levels.

例えば、制御部135は、図10に示すように、「0≦変化量<第1閾値」である場合、解像度レベルが「高解像度(High)」である視差画像群を生成させる。また、制御部135は、図10に示すように、「第1閾値≦変化量<第2閾値」である場合、解像度レベルが「中解像度(Middle)」である視差画像群を生成させる。また、制御部135は、図10に示すように、「第2閾値≦変化量」である場合、解像度レベルが「低解像度(Low)」である視差画像群を生成させる。   For example, as illustrated in FIG. 10, when “0 ≦ change amount <first threshold value”, the control unit 135 generates a parallax image group whose resolution level is “high resolution (High)”. Further, as illustrated in FIG. 10, when “first threshold ≦ change amount <second threshold”, the control unit 135 generates a parallax image group having a resolution level of “Middle”. In addition, as illustrated in FIG. 10, when “second threshold ≦ amount of change”, the control unit 135 generates a parallax image group whose resolution level is “low resolution (Low)”.

すなわち、レンダリング処理部136は、観察者が要求するレンダリング条件の変更頻度が高い場合は、制御部135の制御の下、処理負荷が低減されるように解像度を低減させた視差画像群を生成する。また、レンダリング処理部136は、観察者が要求するレンダリング条件の変更頻度が低くなった場合は、制御部135の制御の下、観察者の要求に対応できる処理負荷であることから、解像度を通常の解像度に戻した視差画像群を生成する。   That is, the rendering processing unit 136 generates a parallax image group with reduced resolution so that the processing load is reduced under the control of the control unit 135 when the frequency of changing the rendering condition requested by the observer is high. . Also, the rendering processing unit 136 has a processing load that can respond to the request of the observer under the control of the control unit 135 when the frequency of changing the rendering condition requested by the observer is low. A parallax image group returned to the resolution is generated.

次に、図11を用いて第1の実施形態に係る画像処理システム1の処理について説明する。図11は、第1の実施形態に係るワークステーションのレンダリング制御処理を説明するためのフローチャートである。   Next, processing of the image processing system 1 according to the first embodiment will be described with reference to FIG. FIG. 11 is a flowchart for explaining the rendering control processing of the workstation according to the first embodiment.

図11に示すように、第1の実施形態に係る画像処理システム1のワークステーション130は、端末装置140の操作者から立体視用の表示要求を受け付けたか否かを判定する(ステップS101)。ここで、表示要求を受け付けない場合(ステップS101否定)、ワークステーション130は、表示要求を受け付けるまで待機する。   As illustrated in FIG. 11, the workstation 130 of the image processing system 1 according to the first embodiment determines whether or not a stereoscopic display request has been received from the operator of the terminal device 140 (step S <b> 101). Here, when the display request is not accepted (No at Step S101), the workstation 130 waits until the display request is accepted.

一方、表示要求を受け付けた場合(ステップS101肯定)、制御部135は、高解像度の9視差画像を生成するように制御する(ステップS102)。そして、制御部135は、通信部133を介して転送される端末装置140の操作者によるレンダリング条件の変更操作に関する変化量の取得を開始する(ステップS103)。例えば、制御部135は、レンダリング条件の変更操作の移動量を「0.2秒」ごとに取得することで、単位時間(1秒)当たりの変化量を算出する。   On the other hand, when a display request is received (Yes at Step S101), the control unit 135 performs control so as to generate a high-resolution nine-parallax image (Step S102). Then, the control unit 135 starts to acquire the amount of change related to the rendering condition changing operation by the operator of the terminal device 140 transferred via the communication unit 133 (step S103). For example, the control unit 135 calculates the amount of change per unit time (1 second) by acquiring the movement amount of the rendering condition change operation every “0.2 seconds”.

そして、制御部135は、変化量が第1閾値未満であるか否かを判定する(ステップS104)。ここで、変化量が第1閾値未満である場合(ステップS104肯定)、制御部135は、高解像度の9視差画像を生成するように制御する(ステップS105)。   Then, the control unit 135 determines whether or not the amount of change is less than the first threshold (step S104). Here, when the amount of change is less than the first threshold (Yes at Step S104), the control unit 135 performs control so as to generate a high-resolution nine-parallax image (Step S105).

一方、変化量が第1閾値以上である場合(ステップS104否定)、制御部135は、変化量が第2閾値未満であるか否かを判定する(ステップS106)。ここで、変化量が第2閾値未満である場合(ステップS106肯定)、制御部135は、中解像度の9視差画像を生成するように制御する(ステップS107)。   On the other hand, when the amount of change is greater than or equal to the first threshold (No at Step S104), the control unit 135 determines whether or not the amount of change is less than the second threshold (Step S106). Here, when the amount of change is less than the second threshold (Yes at Step S106), the control unit 135 performs control so as to generate a medium-resolution nine-parallax image (Step S107).

一方、変化量が第2閾値以上である場合(ステップS106否定)、制御部135は、低解像度の9視差画像を生成するように制御する(ステップS106)。   On the other hand, when the amount of change is equal to or greater than the second threshold (No at Step S106), the control unit 135 performs control so as to generate a low-resolution nine-parallax image (Step S106).

ステップS105、又は、ステップS107、又は、ステップS108の処理の後、制御部135は、表示終了要求を受け付けたか否かを判定する(ステップS109)。ここで、表示終了要求を受け付けない場合(ステップS109否定)、制御部135は、ステップS104に戻って、次に取得した変化量と第1閾値との比較処理を行なう。   After the process of step S105, step S107, or step S108, the control unit 135 determines whether a display end request has been received (step S109). Here, when the display end request is not accepted (No at Step S109), the control unit 135 returns to Step S104 and performs a comparison process between the next obtained change amount and the first threshold value.

一方、表示終了要求を受け付けた場合(ステップS109肯定)、制御部135は、レンダリング制御処理を終了する。   On the other hand, when the display end request is received (Yes at Step S109), the control unit 135 ends the rendering control process.

上述してきたように、第1の実施形態では、観察者のレンダリング条件の変更操作の変化量に応じて、視差画像群の解像度を変更する。すなわち、第1の実施形態では、観察者が頻繁にレンダリング条件を変更している期間は、解像度が粗いものの、読影したい立体視用の画像が表示されるか否かを観察者が判定できる程度の画像を円滑に生成して表示させることができる。また、読影したい立体視用の画像が表示されたと観察者が判定した時点状態では、解像度を戻した画像を円滑に生成して表示させることができる。従って、第1の実施形態では、観察者の要求に応じた立体視用の画像を、観察者にストレスを与えない時間で生成することができる。   As described above, in the first embodiment, the resolution of the parallax image group is changed according to the amount of change in the rendering condition changing operation of the observer. That is, in the first embodiment, during the period when the observer frequently changes the rendering condition, the observer can determine whether or not a stereoscopic image to be interpreted is displayed although the resolution is coarse. Can be generated and displayed smoothly. In addition, when the observer determines that the stereoscopic image to be interpreted is displayed, an image with the resolution restored can be generated and displayed smoothly. Therefore, in the first embodiment, an image for stereoscopic viewing according to the request of the observer can be generated in a time that does not give stress to the observer.

また、第1の実施形態では、解像度のレベルを多段階とすることにともない、レベル変更に用いる閾値を複数設定するので、データ量制御の粒度を向上させることができる。   In the first embodiment, since the resolution level is set in multiple stages, a plurality of threshold values used for level change are set, so that the granularity of data amount control can be improved.

(第2の実施形態)
第2の実施形態では、第1の実施形態とは異なる方法でデータ量に関わる画像生成パラメータの変更制御を行なう場合について説明する。
(Second Embodiment)
In the second embodiment, a case will be described in which change control of an image generation parameter related to the data amount is performed by a method different from the first embodiment.

第2の実施形態に係る制御部135は、変化量の大きさに応じて、視差画像群を構成する画像数(視差数)を画像生成パラメータとして変更させる。図12、図13、図14−1及び図14−2は、第2の実施形態に係る制御部のレンダリング制御処理の一例を説明するための図である。   The control unit 135 according to the second embodiment changes the number of images constituting the parallax image group (number of parallaxes) as an image generation parameter according to the amount of change. 12, 13, 14-1, and 14-2 are diagrams for explaining an example of the rendering control process of the control unit according to the second embodiment.

例えば、制御部135は、図12に示すように、視差数のレベルとして、3視差、5視差及び9視差を設定する。「レベル:3視差」は、図12の(A)に示すように、視差画像間の視差角が指定された視差角となる3つの視点によりボリュームデータから視差画像群(3視差画像)を生成させるものである。また、「レベル:5視差」は、図12の(B)に示すように、視差画像間の視差角が指定された視差角となる5つの視点によりボリュームデータから視差画像群(5視差画像)を生成させるものである。   For example, as illustrated in FIG. 12, the control unit 135 sets 3 parallaxes, 5 parallaxes, and 9 parallaxes as the level of the number of parallaxes. “Level: 3 parallax”, as shown in FIG. 12A, generates a parallax image group (3 parallax images) from volume data from three viewpoints having a designated parallax angle between parallax images. It is something to be made. In addition, “level: 5 parallax” is a group of parallax images (5 parallax images) from volume data based on five viewpoints having a designated parallax angle between parallax images, as shown in FIG. Is generated.

また、「レベル:9視差」は、図12の(C)に示すように、視差画像間の視差角が指定された視差角となる9つの視点によりボリュームデータから視差画像群(9視差画像)を生成させるものである。すなわち、「レベル:9視差」は、表示部142にて同時に表示可能な画像の上限数を生成させるものである。   In addition, “level: 9 parallax” is a group of parallax images (9 parallax images) from volume data based on nine viewpoints that have designated parallax angles between parallax images, as shown in FIG. Is generated. That is, “level: 9 parallax” is to generate the upper limit number of images that can be simultaneously displayed on the display unit 142.

そして、制御部135は、一例を挙げると、単位時間当たりの視点位置の移動量(回転移動等)である変化量が大きい間は、ボリュームレンダリング処理により生成される画像数を減少させる。その後、例えば、ユーザ操作の完了にともない、変化量が小さくなった場合には、ボリュームレンダリング処理により生成される画像数を通常の画像数に戻す。なお、変化量は、上記の通り、視点位置の平行移動要求や、投影方法の変更要求、視差角の変更要求や、視差数の変更要求、視差画像群の拡大縮小要求の単位時間当たりの変化量であっても良い。   For example, the control unit 135 reduces the number of images generated by the volume rendering process while the amount of change, which is the movement amount (rotational movement or the like) of the viewpoint position per unit time, is large. After that, for example, when the amount of change decreases with the completion of the user operation, the number of images generated by the volume rendering process is returned to the normal number of images. As described above, the amount of change is a change per unit time of a request for translation of the viewpoint position, a request for changing the projection method, a request for changing the parallax angle, a request for changing the number of parallaxes, and a request for changing the number of parallax images. It may be an amount.

すなわち、制御部135は、変化量が所定閾値を越えた場合、視差画像群の画像数を低減させ、データ量の低減制御を行なった後に変化量が所定閾値以下となった場合、視差画像群の画像数を低減前の画像数に戻すように画像生成パラメータである画像数(視差数)を変更する。   That is, the control unit 135 reduces the number of images of the parallax image group when the change amount exceeds the predetermined threshold value, and when the change amount becomes equal to or smaller than the predetermined threshold value after performing the data amount reduction control, The number of images (the number of parallaxes), which is an image generation parameter, is changed so that the number of images is returned to the number of images before reduction.

ここで、第2の実施形態でも、制御部135は、所定閾値として複数の閾値を用いる。すなわち、第2の実施形態に係る制御部135は、画像数のレベルが3段階であることから、変化量に対する閾値として、第1閾値及び第2閾値を設定する。   Here, also in the second embodiment, the control unit 135 uses a plurality of thresholds as the predetermined threshold. That is, the control unit 135 according to the second embodiment sets the first threshold value and the second threshold value as threshold values for the amount of change because the level of the number of images is three levels.

例えば、制御部135は、図13に示すように、「0≦変化量<第1閾値」である場合、9視差画像を生成させる。また、制御部135は、図13に示すように、「第1閾値≦変化量<第2閾値」である場合、5視差画像を生成させる。また、制御部135は、図10に示すように、「第2閾値≦変化量」である場合、3視差画像を生成させる。   For example, as illustrated in FIG. 13, the control unit 135 generates nine parallax images when “0 ≦ change amount <first threshold value”. In addition, as illustrated in FIG. 13, the control unit 135 generates a 5-parallax image when “first threshold ≦ change amount <second threshold”. In addition, as illustrated in FIG. 10, the control unit 135 generates a three-parallax image when “second threshold ≦ change amount”.

すなわち、レンダリング処理部136は、観察者が要求するレンダリング条件の変更頻度が高い場合は、制御部135の制御の下、処理負荷が低減されるように視差数を低減させた視差画像群を生成する。また、レンダリング処理部136は、観察者が要求するレンダリング条件の変更頻度が低くなった場合は、制御部135の制御の下、観察者の要求に対応できる処理負荷であることから、視差数を通常の視差数に戻した視差画像群を生成する。   That is, the rendering processing unit 136 generates a parallax image group in which the number of parallaxes is reduced under the control of the control unit 135 so that the processing load is reduced when the rendering condition requested by the observer is frequently changed. To do. In addition, the rendering processing unit 136 has a processing load that can respond to the request of the observer under the control of the control unit 135 when the frequency of changing the rendering condition requested by the observer is low. A group of parallax images returned to the normal number of parallaxes is generated.

なお、上記の3視差画像は、図8の(C)に示す画像(1)〜(9)の中で、画像(4)〜(6)に相当する。制御部135は、3視差画像を生成させた場合、図14−1の(A)に示すように、画像(1)〜(3)及び画像(7)〜(9)に代わる画像として、例えば、全画素の色彩が黒となる画像Bをレンダリング処理部136に生成させる。そして、制御部135は、かかる画像群を9視差画像として端末装置140に送信させる。端末装置140の制御部145は、図14−1の(A)に示すように、受信した9視差画像を、「画像B、画像B、画像B」、「画像(4)、画像(5)、画像(6)」及び「画像B、画像B、画像B」の3行3列に配置した中間画像に変換して、表示部142に出力する。   In addition, said 3 parallax image is corresponded to image (4)-(6) in image (1)-(9) shown to (C) of FIG. When the control unit 135 generates a three-parallax image, as illustrated in (A) of FIG. 14A, as an image instead of the images (1) to (3) and the images (7) to (9), for example, The rendering processing unit 136 generates an image B in which the color of all pixels is black. Then, the control unit 135 causes the terminal device 140 to transmit the image group as a 9-parallax image. As illustrated in FIG. 14A, the control unit 145 of the terminal device 140 converts the received nine parallax images into “image B, image B, image B”, “image (4), and image (5)”. , “Image (6)” and “Image B, Image B, Image B” are converted into intermediate images arranged in three rows and three columns and output to the display unit 142.

また、上記の5視差画像は、図8の(C)に示す画像(1)〜(9)の中で、画像(3)〜(7)に相当する。制御部135は、5視差画像を生成させた場合、図14−1の(B)に示すように、画像(1)、(2)、(8)及び(9)に代わる画像として、画像Bをレンダリング処理部136に生成させる。そして、制御部135は、かかる画像群を9視差画像として端末装置140に送信させる。端末装置140の制御部145は、図14−1の(B)に示すように、受信した9視差画像を、「画像B、画像B、画像(3)」、「画像(4)、画像(5)、画像(6)」及び「画像(7)、画像B、画像B」の3行3列に配置した中間画像に変換して、表示部142に出力する。   Moreover, said 5 parallax image is corresponded to image (3)-(7) in image (1)-(9) shown to (C) of FIG. When the control unit 135 generates a five-parallax image, as illustrated in (B) of FIG. 14A, the image B is used as an image instead of the images (1), (2), (8), and (9). Is generated by the rendering processing unit 136. Then, the control unit 135 causes the terminal device 140 to transmit the image group as a 9-parallax image. As illustrated in FIG. 14B, the control unit 145 of the terminal device 140 converts the received nine parallax images into “image B, image B, image (3)”, “image (4), image ( 5), “Image (6)” and “Image (7), Image B, Image B”, which are converted into intermediate images arranged in three rows and three columns, and output to the display unit 142.

ここで、図14−1に示す一例では、制御部135は、端末装置140の操作者により移動された視点を基準視点とし、当該基準視点を中心に視差角が指定された視差角となる2つの視点、又は、4つの視点を設定することで、3視差画像(画像(4)〜(6))、又は、5視差画像(画像(3)〜(7))を生成させている。かかる3視差画像や5視差画像は、操作者が表示部142を正対した位置で観察する場合に適した立体視用の画像群である。すなわち、かかる3視差画像や5視差画像は、操作者の視線方向が表示部142に対して垂直方向である場合に立体視できる画像である。換言すると、図14−1に示す「視差数が減少した視差画像群」は、表示部142に対して垂直方向以外の方向を視線方向とする操作者にとっては、立体視できない画像群となる場合がある。   Here, in the example illustrated in FIG. 14A, the control unit 135 uses the viewpoint moved by the operator of the terminal device 140 as a reference viewpoint, and becomes a disparity angle with a specified disparity angle around the reference viewpoint 2 By setting one viewpoint or four viewpoints, a three-parallax image (images (4) to (6)) or a five-parallax image (images (3) to (7)) is generated. Such a 3-parallax image and 5-parallax image are a group of stereoscopic images suitable for the case where the operator observes the display unit 142 at a directly facing position. That is, the 3 parallax image and the 5 parallax image are images that can be stereoscopically viewed when the line-of-sight direction of the operator is perpendicular to the display unit 142. In other words, the “parallax image group in which the number of parallaxes is reduced” illustrated in FIG. 14A is an image group that cannot be stereoscopically viewed by an operator whose viewing direction is a direction other than the vertical direction with respect to the display unit 142. There is.

そこで、第2の実施形態に係る制御部135は、以下に説明する制御をレンダリング処理部136に対して行なっても良い。すなわち、制御部135は、画像生成パラメータとして画像数(視差数)を変更する場合、立体視モニタ(表示部142)に対する操作者(観察者)の視線方向に応じて、視差画像群を生成するための視点位置を変更するようにレンダリング処理部136を制御する。例えば、制御部135は、表示部142に対する操作者の視線方向を、表示部142に取り付けられた顔認識機能を有するカメラを用いて取得する。例えば、カメラは、実空間における操作者の顔を顔認識機能により追跡(トラッキング)し、更に、認識した顔の方向から操作者の表示部142に対する視線方向を決定する。カメラが取得した視線方向は、通信部143及び通信部133を介して制御部135に転送される。   Therefore, the control unit 135 according to the second embodiment may perform the control described below on the rendering processing unit 136. That is, when changing the number of images (number of parallaxes) as the image generation parameter, the control unit 135 generates a parallax image group according to the line-of-sight direction of the operator (observer) with respect to the stereoscopic monitor (display unit 142). The rendering processing unit 136 is controlled so as to change the viewpoint position. For example, the control unit 135 acquires the line-of-sight direction of the operator with respect to the display unit 142 using a camera having a face recognition function attached to the display unit 142. For example, the camera tracks (tracks) the face of the operator in the real space by the face recognition function, and further determines the line-of-sight direction with respect to the display unit 142 of the operator from the recognized face direction. The line-of-sight direction acquired by the camera is transferred to the control unit 135 via the communication unit 143 and the communication unit 133.

ここで、制御部135は、例えば、視線方向が表示部142に対して正対する方向であり、かつ、「第2閾値≦変化量」である場合、基準視点を中心に視差角が指定された視差角となる2つの視点を設定することで、図14−2の(A)に示すように、3視差画像(画像(4)〜(6))を生成させる。更に、制御部135は、画像(1)〜(3)及び画像(7)〜(9)に代わる画像として、画像Bを生成させる。   Here, for example, when the line-of-sight direction is the direction facing the display unit 142 and “second threshold ≦ amount of change”, the control unit 135 specifies the parallax angle centered on the reference viewpoint. By setting two viewpoints to be parallax angles, three parallax images (images (4) to (6)) are generated as shown in FIG. Further, the control unit 135 generates an image B as an image instead of the images (1) to (3) and the images (7) to (9).

或いは、制御部135は、視線方向が表示部142に対して正対する方向であり、かつ、「第1閾値≦変化量<第2閾値」である場合、基準視点を中心に視差角が指定された視差角となる4つの視点を設定することで、図14−2の(A)に示すように、5視差画像(画像(3)〜(7))を生成させる。更に、制御部135は、画像(1)、(2)、(8)及び(9)に代わる画像として、画像Bを生成させる。   Alternatively, when the line-of-sight direction is the direction facing the display unit 142 and “first threshold ≦ change amount <second threshold”, the control unit 135 designates the parallax angle around the reference viewpoint. By setting four viewpoints to be the parallax angles, five parallax images (images (3) to (7)) are generated as shown in FIG. Further, the control unit 135 generates an image B as an image instead of the images (1), (2), (8), and (9).

一方、制御部135は、図14−2の(B)に示すように、取得した視線方向が表示部142に対して正対する方向でない場合、当該視線方向に応じてボリュームレンダリングを行なう視点位置を変更させる。具体的には、制御部142は、取得した視線方向を中心とする位置において、本来、9視差画像を参照する操作者が観察するはずであった視差画像群が生成されるようにレンダリング処理部136を制御する。   On the other hand, as illustrated in FIG. 14B, when the acquired line-of-sight direction is not directly facing the display unit 142, the control unit 135 determines a viewpoint position for performing volume rendering according to the line-of-sight direction. Change it. Specifically, the control unit 142 renders a rendering processing unit so that a parallax image group that should originally be observed by an operator who refers to the 9 parallax images is generated at a position centered on the acquired line-of-sight direction. 136 is controlled.

制御部135は、「第2閾値≦変化量」である場合、取得した視線方向と表示部142に対して正対する方向との角度に応じて、例えば、図14−2の(B)に示すように、3視差画像「画像(2)、画像(3)及び画像(4)」を生成させる。更に、制御部135は、画像(1)及び画像(5)〜(9)に代わる画像として、画像Bを生成させる。   When “second threshold ≦ change amount”, the control unit 135, for example, as illustrated in FIG. 14B according to the angle between the acquired line-of-sight direction and the direction facing the display unit 142. As described above, a three-parallax image “image (2), image (3), and image (4)” is generated. Furthermore, the control unit 135 generates an image B as an image instead of the image (1) and the images (5) to (9).

或いは、制御部135は、「第1閾値≦変化量<第2閾値」である場合、取得した視線方向と表示部142に対して正対する方向との角度に応じて、例えば、図14−2の(B)に示すように、5視差画像「画像(1)、画像(2)、画像(3)、画像(4)及び画像(5)」を生成させる。更に、制御部135は、画像(6)〜(9)に代わる画像として、画像Bを生成させる。   Alternatively, when “first threshold ≦ change amount <second threshold”, the control unit 135 determines, for example, according to the angle between the acquired line-of-sight direction and the direction facing the display unit 142, for example, FIG. As shown in (B) of FIG. 5, a five-parallax image “image (1), image (2), image (3), image (4) and image (5)” is generated. Further, the control unit 135 generates an image B as an image instead of the images (6) to (9).

このように、視差数の変更制御を行なう場合、表示部142に対する視線方向に応じて、レンダリング時の視点位置の変更制御を更に行なうことで、操作者は、レンダリング条件の変更要求に応じた視差画像群を表示部142において確実に参照することができる。なお、視線方向の取得処理は、顔認識機能により行なわれる以外にも、例えば、磁気センサ等の位置センサを操作者及び表示部142に取り付けることで行なわれる場合であっても良い。   As described above, when performing the change control of the number of parallaxes, the operator further performs the change control of the viewpoint position at the time of rendering in accordance with the line-of-sight direction with respect to the display unit 142, so that the operator The group of images can be reliably referred to on the display unit 142. Note that the line-of-sight direction acquisition process may be performed by attaching a position sensor such as a magnetic sensor to the operator and the display unit 142 in addition to the face recognition function.

次に、図15を用いて第2の実施形態に係る画像処理システム1の処理について説明する。図15は、第2の実施形態に係るワークステーションのレンダリング制御処理を説明するためのフローチャートである。   Next, processing of the image processing system 1 according to the second embodiment will be described with reference to FIG. FIG. 15 is a flowchart for explaining the rendering control process of the workstation according to the second embodiment.

図15に示すように、第2の実施形態に係る画像処理システム1のワークステーション130は、端末装置140の操作者から立体視用の表示要求を受け付けたか否かを判定する(ステップS201)。ここで、表示要求を受け付けない場合(ステップS201否定)、ワークステーション130は、表示要求を受け付けるまで待機する。   As illustrated in FIG. 15, the workstation 130 of the image processing system 1 according to the second embodiment determines whether or not a stereoscopic display request has been received from the operator of the terminal device 140 (step S <b> 201). Here, when the display request is not accepted (No at Step S201), the workstation 130 waits until the display request is accepted.

一方、表示要求を受け付けた場合(ステップS201肯定)、制御部135は、9視差画像を生成するように制御する(ステップS202)。そして、制御部135は、通信部133を介して転送される端末装置140の操作者によるレンダリング条件の変更操作に関する変化量の取得を開始する(ステップS203)。   On the other hand, when a display request is received (Yes at Step S201), the control unit 135 performs control so as to generate a nine-parallax image (Step S202). Then, the control unit 135 starts acquisition of a change amount related to the rendering condition changing operation by the operator of the terminal device 140 transferred via the communication unit 133 (step S203).

そして、制御部135は、変化量が第1閾値未満であるか否かを判定する(ステップS204)。ここで、変化量が第1閾値未満である場合(ステップS204肯定)、制御部135は、9視差画像を生成するように制御する(ステップS205)。   Then, the control unit 135 determines whether or not the amount of change is less than the first threshold (step S204). Here, when the amount of change is less than the first threshold (Yes at Step S204), the control unit 135 performs control so as to generate a nine-parallax image (Step S205).

一方、変化量が第1閾値以上である場合(ステップS204否定)、制御部135は、変化量が第2閾値未満であるか否かを判定する(ステップS206)。ここで、変化量が第2閾値未満である場合(ステップS206肯定)、制御部135は、5視差画像を生成するように制御する(ステップS207)。   On the other hand, when the amount of change is greater than or equal to the first threshold (No at Step S204), the control unit 135 determines whether or not the amount of change is less than the second threshold (Step S206). Here, when the amount of change is less than the second threshold (Yes at Step S206), the control unit 135 performs control so as to generate a 5-parallax image (Step S207).

一方、変化量が第2閾値以上である場合(ステップS206否定)、制御部135は、3視差画像を生成するように制御する(ステップS206)。   On the other hand, when the amount of change is equal to or greater than the second threshold (No at Step S206), the control unit 135 performs control to generate a three-parallax image (Step S206).

ステップS205、又は、ステップS207、又は、ステップS208の処理の後、制御部135は、表示終了要求を受け付けたか否かを判定する(ステップS209)。ここで、表示終了要求を受け付けない場合(ステップS209否定)、制御部135は、ステップS204に戻って、次に取得した変化量と第1閾値との比較処理を行なう。   After the process of step S205, step S207, or step S208, the control unit 135 determines whether a display end request has been received (step S209). Here, when the display end request is not accepted (No at Step S209), the control unit 135 returns to Step S204 and performs a comparison process between the next obtained change amount and the first threshold value.

一方、表示終了要求を受け付けた場合(ステップS209肯定)、制御部135は、レンダリング制御処理を終了する。   On the other hand, when the display end request is received (Yes at Step S209), the control unit 135 ends the rendering control process.

上述してきたように、第2の実施形態では、観察者のレンダリング条件の変更操作の変化量に応じて、視差画像群の画像数を変更する。すなわち、第2の実施形態では、観察者が頻繁にレンダリング条件を変更している期間は、運動視差により立体視可能な画像対が少なくなるものの、読影したい立体視用の画像が表示されるか否かを観察者が判定できる程度の画像を円滑に生成して表示させることができる。また、読影したい立体視用の画像が表示されたと観察者が判定した時点状態では、立体視モニタにて運動視差にともなって変更可能な画像対全てを円滑に生成して表示させることができる。従って、第2の実施形態では、第1の実施形態と同様に、観察者の要求に応じた立体視用の画像を、観察者にストレスを与えない時間で生成することができる。   As described above, in the second embodiment, the number of images in the parallax image group is changed in accordance with the amount of change in the rendering condition changing operation of the observer. That is, in the second embodiment, during the period in which the observer frequently changes the rendering condition, whether or not a stereoscopic image to be interpreted is displayed, although the number of stereoscopically viewable image pairs decreases due to motion parallax. It is possible to smoothly generate and display an image that allows an observer to determine whether or not. Further, at the time when the observer determines that the stereoscopic image to be interpreted is displayed, all image pairs that can be changed with motion parallax can be smoothly generated and displayed on the stereoscopic monitor. Therefore, in the second embodiment, as in the first embodiment, a stereoscopic image according to the request of the observer can be generated in a time that does not give stress to the observer.

また、第2の実施形態では、画像数のレベルを多段階とすることにともない、レベル変更に用いる閾値を複数設定するので、データ量制御の粒度を向上させることができる。   In the second embodiment, since the number of images is set to multiple levels, a plurality of threshold values used for level change are set, so that the granularity of data amount control can be improved.

なお、上記の第1及び第2の実施形態は、図16に例示する変形例を実行する場合であっても良い。図16は、第1の実施形態及び第2の実施形態の変形例を説明するための図である。   In addition, said 1st and 2nd embodiment may be a case where the modification illustrated in FIG. 16 is performed. FIG. 16 is a diagram for explaining a modification of the first embodiment and the second embodiment.

第1の実施形態及び第2の実施形態では、データ量の変更レベルが3段階であり、2つの閾値が用いられる場合について説明した。しかし、例えば、第1の実施形態は、図16の(A)に示すように、「高解像度(High)」と「低解像度(Low)」との2つのレベルを設定し、閾値として第1閾値を用いることで実行される場合であっても良い。かかる場合、制御部135は、図16の(A)に示すように、「0≦変化量<第1閾値」である場合、解像度レベルが「高解像度(High)」である視差画像群を生成させる。また、制御部135は、図16の(A)に示すように、「第1閾値≦変化量」である場合、解像度レベルが「低解像度(Low)」である視差画像群を生成させる。   In the first embodiment and the second embodiment, the case where the data amount change level is three stages and two threshold values are used has been described. However, for example, in the first embodiment, as shown in FIG. 16A, two levels of “high resolution (High)” and “low resolution (Low)” are set, and the first threshold is set. It may be executed by using a threshold value. In such a case, as illustrated in FIG. 16A, the control unit 135 generates a parallax image group whose resolution level is “High resolution” when “0 ≦ change amount <first threshold value”. Let Further, as illustrated in FIG. 16A, the control unit 135 generates a parallax image group whose resolution level is “low resolution (Low)” when “first threshold ≦ change amount”.

また、例えば、第2の実施形態は、図16の(B)に示すように、「9視差」と「3視差」との2つのレベルを設定し、閾値として第1閾値を用いることで実行される場合であっても良い。かかる場合、制御部135は、図16の(B)に示すように、「0≦変化量<第1閾値」である場合、9視差画像を生成させる。また、制御部135は、図16の(B)に示すように、「第1閾値≦変化量」である場合、3視差画像を生成させる。   Further, for example, as shown in FIG. 16B, the second embodiment is executed by setting two levels of “9 parallax” and “3 parallax” and using the first threshold as the threshold. It may be the case. In such a case, as illustrated in FIG. 16B, the control unit 135 generates a nine-parallax image when “0 ≦ change amount <first threshold value”. In addition, as illustrated in FIG. 16B, the control unit 135 generates a three-parallax image when “first threshold ≦ change amount”.

更に、第1の実施形態及び第2の実施形態それぞれは、データ量の変更レベルが4段階以上であり、3つ以上の閾値が用いられる場合であっても良い。   Further, each of the first embodiment and the second embodiment may be a case where the data amount change level is four or more levels, and three or more threshold values are used.

また、データ量の変更制御は、解像度と視差数とを併用して実行される場合であっても良い。例えば、制御部135は、図16の(C)に示すように、「0≦変化量<第1閾値」である場合、解像度レベルが「高解像度(High)」である9視差画像を生成させる。また、制御部135は、図16の(C)に示すように、「第1閾値≦変化量<第2閾値」である場合、解像度レベルが「高解像度(Middle)」である5視差画像を生成させる。また、制御部135は、図16の(C)に示すように、「第1閾値≦変化量」である場合、解像度レベルが「低解像度(Low)」である3視差画像を生成させる。   Further, the data amount change control may be executed by using both the resolution and the number of parallaxes. For example, as illustrated in FIG. 16C, the control unit 135 generates a nine-parallax image with a resolution level of “High” when “0 ≦ change amount <first threshold”. . In addition, as illustrated in FIG. 16C, the control unit 135 displays a five-parallax image having a resolution level of “high resolution (Middle)” when “first threshold ≦ change amount <second threshold”. Generate. Further, as illustrated in FIG. 16C, the control unit 135 generates a three-parallax image having a resolution level of “low resolution (Low)” when “first threshold ≦ amount of change”.

更に、データ量の変更制御は、解像度と視差数とを併用することで、データ量の変更レベルを更に多段階として実行される場合であっても良い。例えば、制御部135は、図16の(D)に示すように、第1閾値〜第4閾値の4つの閾値を設定する。そして、制御部135は、図16の(D)に示すように、「0≦変化量<第1閾値」である場合、解像度レベルが「高解像度(High)」である9視差画像を生成させる。また、制御部135は、図16の(D)に示すように、「第1閾値≦変化量<第2閾値」である場合、解像度レベルが「高解像度(High)」であるである5視差画像を生成させる。   Furthermore, the data amount change control may be executed by using the resolution and the number of parallaxes in combination to further change the data amount change level. For example, the control unit 135 sets four threshold values from a first threshold value to a fourth threshold value, as shown in FIG. Then, as illustrated in FIG. 16D, the control unit 135 generates a nine-parallax image having a resolution level of “High” when “0 ≦ change amount <first threshold”. . Further, as illustrated in FIG. 16D, the control unit 135, when “first threshold ≦ change amount <second threshold”, has a resolution level of “high resolution (High)”. Generate an image.

また、制御部135は、図16の(D)に示すように、「第2閾値≦変化量<第3閾値」である場合、解像度レベルが「高解像度(Middle)」である5視差画像を生成させる。また、制御部135は、図16の(D)に示すように、「第3閾値≦変化量<第4閾値」である場合、解像度レベルが「低解像度(Low)」である5視差画像を生成させる。また、制御部135は、図16の(D)に示すように、「第4閾値≦変化量」である場合、解像度レベルが「低解像度(Low)」である3視差画像を生成させる。   In addition, as illustrated in FIG. 16D, the control unit 135, when “second threshold ≦ change amount <third threshold”, displays a 5-parallax image whose resolution level is “high resolution (Middle)”. Generate. In addition, as illustrated in FIG. 16D, the control unit 135, when “third threshold ≦ change amount <fourth threshold”, displays a 5-parallax image whose resolution level is “low resolution (Low)”. Generate. In addition, as illustrated in FIG. 16D, the control unit 135 generates a three-parallax image having a resolution level of “low resolution (Low)” when “fourth threshold value ≦ change amount”.

図16に示す変形例によっても、観察者の要求に応じた立体視用の画像を、観察者にストレスを与えない時間で生成することができる。   Also in the modification shown in FIG. 16, it is possible to generate an image for stereoscopic viewing according to the request of the observer in a time that does not give stress to the observer.

なお、上記実施形態においては、ワークステーション130の制御部135が変化量の取得処理及びデータ量変更制御の双方を行なう場合について説明した。しかしながら、上記実施形態はこれに限られるものではない。例えば、端末装置140の制御部145が変化量の取得処理を行ない、ワークステーション130の制御部135がデータ量変更制御を行なう場合であっても良い。或いは、端末装置140の制御部145が変化量の取得処理及びデータ量変更制御の双方を行なう場合であっても良い。   In the above embodiment, the case where the control unit 135 of the workstation 130 performs both the change amount acquisition processing and the data amount change control has been described. However, the above embodiment is not limited to this. For example, the control unit 145 of the terminal device 140 may perform change amount acquisition processing, and the control unit 135 of the workstation 130 may perform data amount change control. Alternatively, the control unit 145 of the terminal device 140 may perform both the change amount acquisition process and the data amount change control.

また、上記実施形態は、レンダリング処理を行なう装置を医用画像診断装置110とする場合であっても良い。すなわち、上記実施形態は、医用画像診断装置110が変化量の取得処理及びデータ量変更制御を行ない、変化量の取得対象となる観察者がワークステーション130や端末装置140の操作者である場合であっても良い。また、レンダリング処理を行なう装置を医用画像診断装置110とし、変化量の取得対象となる観察者をワークステーション130の操作者とする場合、制御部135が変化量の取得処理を行ない、医用画像診断装置110がデータ量変更制御を行なう場合や、制御部135が変化量の取得処理及びデータ量変更制御の双方を行なう場合であっても良い。同様に、レンダリング処理を行なう装置を医用画像診断装置110とし、変化量の取得対象となる観察者を端末装置140の操作者とする場合、制御部145が変化量の取得処理を行ない、医用画像診断装置110がデータ量変更制御を行なう場合や、制御部145が変化量の取得処理及びデータ量変更制御の双方を行なう場合であっても良い。   Further, in the above-described embodiment, the medical image diagnostic apparatus 110 may be the apparatus that performs the rendering process. That is, in the above-described embodiment, the medical image diagnostic apparatus 110 performs change amount acquisition processing and data amount change control, and the observer who is the change amount acquisition target is an operator of the workstation 130 or the terminal device 140. There may be. Further, when the apparatus that performs the rendering process is the medical image diagnostic apparatus 110 and the observer who is the acquisition target of the change amount is the operator of the workstation 130, the control unit 135 performs the change amount acquisition process, and the medical image diagnosis The apparatus 110 may perform data amount change control, or the control unit 135 may perform both change amount acquisition processing and data amount change control. Similarly, when the medical image diagnostic apparatus 110 is the device that performs the rendering process and the observer who is the acquisition target of the change amount is the operator of the terminal device 140, the control unit 145 performs the change amount acquisition process, and the medical image The diagnosis apparatus 110 may perform data amount change control, or the control unit 145 may perform both change amount acquisition processing and data amount change control.

また、上記実施形態で説明した「変化量の取得、データ量変更制御及び視差画像群の表示」は、医用画像診断装置110のみで行なわれる場合や、ワークステーション130のみで行なわれる場合、端末装置140のみで行なわれる場合であっても良い。   Further, when “acquisition of change amount, data amount change control and display of parallax image group” described in the above embodiment is performed only by the medical image diagnostic apparatus 110 or only by the workstation 130, the terminal device It may be a case where only 140 is performed.

すなわち、上記の実施形態で説明した処理は、画像処理システム1に含まれる各装置の各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   That is, the processing described in the above embodiment is configured to be functionally or physically distributed / integrated in an arbitrary unit according to various loads or usage conditions of each device included in the image processing system 1. be able to. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

なお、上記の実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD、Blu-ray Disc(登録商標)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The image processing method described in the above embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This image processing program can be distributed via a network such as the Internet. The program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, or a Blu-ray Disc (registered trademark), and is read from the recording medium by the computer. Can also be implemented.

以上、説明したとおり、第1の実施形態、第2の実施形態及び変形例によれば、観察者の要求に応じた立体視用の画像を、観察者にストレスを与えない時間で生成することができる。   As described above, according to the first embodiment, the second embodiment, and the modification, the stereoscopic image corresponding to the request of the observer is generated in a time that does not stress the observer. Can do.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 画像処理システム
2 院内LAN(Local Area Network)
110 医用画像診断装置
120 画像保管装置
130 ワークステーション
131 入力部
132 表示部
133 通信部
134 記憶部
135 制御部
136 レンダリング処理部
140 端末装置
141 入力部
142 表示部
143 通信部
144 記憶部
145 制御部
146 2次元画像処理部
1 Image processing system 2 Hospital LAN (Local Area Network)
DESCRIPTION OF SYMBOLS 110 Medical diagnostic imaging apparatus 120 Image storage apparatus 130 Workstation 131 Input part 132 Display part 133 Communication part 134 Storage part 135 Control part 136 Rendering process part 140 Terminal apparatus 141 Input part 142 Display part 143 Communication part 144 Storage part 145 Control part 146 2D image processor

Claims (8)

立体表示装置にて表示される所定視差数の視差画像である視差画像群を3次元の医用画像データであるボリュームデータからレンダリング処理により生成するレンダリング処理部と、
前記立体表示装置を参照する操作者によるレンダリング条件の変更操作の単位時間あたりの変更頻度に応じて、前記視差画像群のデータ量に関わる画像生成パラメータを変更するように前記レンダリング処理部を制御する制御部と、
を備えたことを特徴とする画像処理システム。
A rendering processing unit that generates a parallax image group, which is a parallax image having a predetermined number of parallaxes, displayed by a stereoscopic display device from volume data, which is three-dimensional medical image data, by rendering processing;
The rendering processing unit is controlled to change an image generation parameter related to the data amount of the parallax image group according to a change frequency per unit time of a change operation of a rendering condition by an operator who refers to the stereoscopic display device. A control unit;
An image processing system comprising:
前記制御部は、前記変更頻度が所定閾値を越えた場合、前記視差画像群のデータ量を低減させ、データ量の低減制御を行なった後に前記変更頻度が前記所定閾値以下となった場合、前記視差画像群のデータ量を低減前のデータ量に戻すように前記画像生成パラメータを変更することを特徴とする請求項1に記載の画像処理システム。 When the change frequency exceeds a predetermined threshold, the control unit reduces the data amount of the parallax image group, and after performing the data amount reduction control, when the change frequency becomes equal to or less than the predetermined threshold, The image processing system according to claim 1, wherein the image generation parameter is changed so that the data amount of the parallax image group is returned to the data amount before reduction. 前記制御部は、前記所定閾値として複数の閾値を用いることを特徴とする請求項2に記載の画像処理システム。   The image processing system according to claim 2, wherein the control unit uses a plurality of threshold values as the predetermined threshold value. 前記制御部は、前記変更頻度の大きさに応じて、前記視差画像群の解像度を前記画像生成パラメータとして変更させることを特徴とする請求項1〜3のいずれか一つに記載の画像処理システム。 The image processing system according to claim 1, wherein the control unit changes the resolution of the parallax image group as the image generation parameter according to the magnitude of the change frequency. . 前記制御部は、前記変更頻度の大きさに応じて、前記視差画像群を構成する画像数を前記画像生成パラメータとして変更させることを特徴とする請求項1〜3のいずれか一つに記載の画像処理システム。 The said control part changes the number of images which comprise the said parallax image group as said image generation parameter according to the magnitude | size of the said change frequency , The Claim 1 characterized by the above-mentioned. Image processing system. 立体表示装置にて表示される所定視差数の視差画像である視差画像群を3次元の医用画像データであるボリュームデータからレンダリング処理により生成するレンダリング処理部と、
前記立体表示装置を参照する操作者によるレンダリング条件の変更操作の単位時間あたりの変更頻度を取得し、当該取得した変更頻度に応じて、前記視差画像群のデータ量に関わる画像生成パラメータを変更するように前記レンダリング処理部を制御する制御部と、
を備えたことを特徴とする画像処理装置。
A rendering processing unit that generates a parallax image group, which is a parallax image having a predetermined number of parallaxes, displayed by a stereoscopic display device from volume data, which is three-dimensional medical image data, by rendering processing;
A change frequency per unit time of a rendering condition change operation by an operator who refers to the stereoscopic display device is acquired, and an image generation parameter related to the data amount of the parallax image group is changed according to the acquired change frequency. A control unit for controlling the rendering processing unit,
An image processing apparatus comprising:
立体表示装置にて表示される所定視差数の視差画像である視差画像群を3次元の医用画像データであるボリュームデータからレンダリング処理により生成するレンダリング処理部に対して、前記立体表示装置を参照する操作者によるレンダリング条件の変更操作の単位時間あたりの変更頻度に応じて、前記視差画像群のデータ量に関わる画像生成パラメータを変更するように制御する制御ステップ、
を含んだことを特徴とする画像処理方法。
The stereoscopic display device is referred to a rendering processing unit that generates a parallax image group that is a parallax image having a predetermined number of parallax images displayed on the stereoscopic display device from volume data that is three-dimensional medical image data. A control step for controlling to change an image generation parameter related to a data amount of the parallax image group according to a change frequency per unit time of a rendering condition change operation by an operator;
An image processing method comprising:
立体表示装置にて表示される所定視差数の視差画像である視差画像群を3次元の医用画像データであるボリュームデータからレンダリング処理により生成するレンダリング処理部に対して、前記立体表示装置を参照する操作者によるレンダリング条件の変更操作の単位時間あたりの変更頻度に応じて、前記視差画像群のデータ量に関わる画像生成パラメータを変更するように制御する制御手順、
をコンピュータに実行させることを特徴とする画像処理プログラム。
The stereoscopic display device is referred to a rendering processing unit that generates a parallax image group that is a parallax image having a predetermined number of parallax images displayed on the stereoscopic display device from volume data that is three-dimensional medical image data. A control procedure for controlling to change an image generation parameter related to the data amount of the parallax image group according to a change frequency per unit time of a change operation of rendering conditions by an operator;
An image processing program for causing a computer to execute.
JP2011097187A 2011-04-25 2011-04-25 Image processing system, apparatus, method and program Expired - Fee Related JP5813986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011097187A JP5813986B2 (en) 2011-04-25 2011-04-25 Image processing system, apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097187A JP5813986B2 (en) 2011-04-25 2011-04-25 Image processing system, apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2012231235A JP2012231235A (en) 2012-11-22
JP5813986B2 true JP5813986B2 (en) 2015-11-17

Family

ID=47432456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097187A Expired - Fee Related JP5813986B2 (en) 2011-04-25 2011-04-25 Image processing system, apparatus, method and program

Country Status (1)

Country Link
JP (1) JP5813986B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102307530B1 (en) * 2012-11-23 2021-09-30 카덴스 메디컬 이미징 아이엔씨 Method and system for displaying to a user a transition between a first rendered projection and a second rendered projection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3514947B2 (en) * 1997-06-05 2004-04-05 シャープ株式会社 Three-dimensional image processing apparatus and three-dimensional image processing method
JP4393151B2 (en) * 2003-10-01 2010-01-06 シャープ株式会社 Image data display device
JP2006101329A (en) * 2004-09-30 2006-04-13 Kddi Corp Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium
JP4408794B2 (en) * 2004-11-18 2010-02-03 ザイオソフト株式会社 Image processing program
JP4764305B2 (en) * 2006-10-02 2011-08-31 株式会社東芝 Stereoscopic image generating apparatus, method and program
JP2008259612A (en) * 2007-04-11 2008-10-30 Fujifilm Corp Projection image generator and its program
US20090147073A1 (en) * 2007-12-11 2009-06-11 David Getty Methods and Systems for Stereoscopic Three Dimensional Viewing
JP5115799B2 (en) * 2008-01-21 2013-01-09 ソニー株式会社 Image processing apparatus and method, and program

Also Published As

Publication number Publication date
JP2012231235A (en) 2012-11-22

Similar Documents

Publication Publication Date Title
JP6211764B2 (en) Image processing system and method
JP6058290B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5909055B2 (en) Image processing system, apparatus, method and program
US9542771B2 (en) Image processing system, image processing apparatus, and image processing method
JP6058306B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP6005905B2 (en) Image processing system, image processing apparatus, and image processing method
JP5818531B2 (en) Image processing system, apparatus and method
JP5972533B2 (en) Image processing system and method
JP6430149B2 (en) Medical image processing device
US9445082B2 (en) System, apparatus, and method for image processing
JP5921102B2 (en) Image processing system, apparatus, method and program
JP5797485B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5784379B2 (en) Image processing system, apparatus and method
JP5804760B2 (en) Image processing system and method
JP6017124B2 (en) Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program
JP5846791B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5813986B2 (en) Image processing system, apparatus, method and program
JP6005913B2 (en) Notification device, notification method, and medical image diagnostic device
JP6104982B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP2012244420A (en) Image processing system, device, and method
JP5835975B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP6087618B2 (en) Image processing system and image processing method
JP5868051B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP5835980B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150917

R150 Certificate of patent or registration of utility model

Ref document number: 5813986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees