JP2012238289A - Three-dimensional image processing device and three-dimensional image processing program - Google Patents

Three-dimensional image processing device and three-dimensional image processing program Download PDF

Info

Publication number
JP2012238289A
JP2012238289A JP2011108581A JP2011108581A JP2012238289A JP 2012238289 A JP2012238289 A JP 2012238289A JP 2011108581 A JP2011108581 A JP 2011108581A JP 2011108581 A JP2011108581 A JP 2011108581A JP 2012238289 A JP2012238289 A JP 2012238289A
Authority
JP
Japan
Prior art keywords
image
viewpoint
auxiliary
images
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011108581A
Other languages
Japanese (ja)
Inventor
Fumiki Nakano
史樹 中野
Tomoji Wakai
智司 若井
Tomohisa Fukunaga
智久 福永
Hideaki Kobayashi
秀明 小林
Kyoko Sato
恭子 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011108581A priority Critical patent/JP2012238289A/en
Publication of JP2012238289A publication Critical patent/JP2012238289A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a three dimensional image processing device capable of displaying an auxiliary image without interfering with a stereoscopic image corresponding to volume data and easily accepting an operation for the stereoscopic image through the auxiliary image.SOLUTION: A three dimensional image processing device comprises: a multi-viewpoint rendering image generation part 32 that generates a multi-viewpoint rendering image having a plurality of viewpoints by performing volume rendering from a plurality of viewpoints on the basis of volume data; an auxiliary image generation part 33 that generates auxiliary images such as soft key images and images showing incidental information; a multi-viewpoint image generation part 34 that generates a plurality of viewpoint images including a viewpoint image where a viewpoint rendering image is overlapped with an auxiliary image in such a manner that the auxiliary image is positioned at a predetermined position except in front of a three dimensional area surrounding a stereoscopic image corresponding to the volume data; and a multi-viewpoint image output part 35 that outputs the plurality of viewpoint images to a naked eye three dimensional display device 22 that projects each of the plurality of viewpoint images as a parallax component image.

Description

本発明の実施形態は、3次元画像処理装置および3次元画像処理プログラムに関する。   Embodiments described herein relate generally to a three-dimensional image processing apparatus and a three-dimensional image processing program.

X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置、X線診断装置などの医用画像診断装置(モダリティ)には、被検体(患者)の撮像により得られた投影データにもとづいてボリュームデータ(3次元画像データ)を生成可能なものがある。   Projections obtained by imaging a subject (patient) are used in medical image diagnostic apparatuses (modalities) such as X-ray CT (Computed Tomography) apparatuses, MRI (Magnetic Resonance Imaging) apparatuses, ultrasonic diagnostic apparatuses, and X-ray diagnostic apparatuses. Some can generate volume data (three-dimensional image data) based on the data.

ボリュームデータは、ボリュームレンダリングすることにより2次元画像(以下、VR画像という)を生成するために用いることができる。このVR画像は、表示装置に表示されてユーザに提示される。   The volume data can be used to generate a two-dimensional image (hereinafter referred to as a VR image) by volume rendering. This VR image is displayed on the display device and presented to the user.

一般に、VR画像は、各種操作機能が割り当てられたソフトキーやVR画像の付帯情報を示す画像などの補助画像とともに、表示装置の画面に同時に表示される場合が多い。この場合ユーザは、たとえばレンダリング方法を変更する機能が割り当てられたソフトキーを押下する事により、VR画像のレンダリング方法を容易に変更することができる。   In general, a VR image is often displayed on the screen of a display device together with an auxiliary image such as a soft key to which various operation functions are assigned and an image showing supplementary information of the VR image. In this case, the user can easily change the VR image rendering method by, for example, pressing a soft key to which a function for changing the rendering method is assigned.

特開2011−36496号公報JP 2011-36496 A

しかし、VR画像と補助画像とを一般的な2次元画面上に同時に表示させると、VR画像に割り当てられる表示領域が補助画像の分だけ狭くなってしまう。このため、ユーザにとって重要度が高いVR画像が小さく表示されてしまう一方で、利用頻度が低いソフトキーが画面内に表示され続けてしまい、大変不便である。   However, if the VR image and the auxiliary image are simultaneously displayed on a general two-dimensional screen, the display area allocated to the VR image is narrowed by the amount of the auxiliary image. For this reason, a VR image having high importance for the user is displayed in a small size, while soft keys that are less frequently used continue to be displayed on the screen, which is very inconvenient.

本発明の一実施形態に係る3次元画像処理装置は、上述した課題を解決するために、ボリュームデータにもとづいて複数の視点でボリュームレンダリングを行うことにより、複数の視点レンダリング画像を生成する多視点レンダリング画像生成部と、ソフトキーの画像、付帯情報を示す画像その他の補助画像を生成する補助画像生成部と、補助画像がボリュームデータに対応する立体像を囲う3次元領域の前面を除く周囲の所定の位置に配置されるよう、視点レンダリング画像と補助画像とを重畳した視点画像を含む複数の視点画像を生成する多視点画像生成部と、多視点画像のそれぞれを視差成分画像として異なる方向に射出する裸眼3Dディスプレイ装置に、複数の視点画像を出力する多視点画像出力部と、を備えたものである。   In order to solve the above-described problem, a three-dimensional image processing apparatus according to an embodiment of the present invention performs multi-viewpoint rendering by generating a plurality of viewpoint rendering images by performing volume rendering from a plurality of viewpoints based on volume data. A rendering image generation unit, an image of soft keys, an auxiliary image generation unit for generating auxiliary images and other auxiliary images, and a peripheral image except for the front surface of the three-dimensional region surrounding the stereoscopic image corresponding to the volume data. A multi-view image generation unit that generates a plurality of viewpoint images including a viewpoint image obtained by superimposing a viewpoint rendering image and an auxiliary image so as to be arranged at a predetermined position, and each of the multi-view images as a parallax component image in different directions A multi-viewpoint image output unit that outputs a plurality of viewpoint images is provided on the naked-eye 3D display device to be ejected.

本発明の第1実施形態に係る医用画像処理装置の一構成例を示すブロック図。1 is a block diagram showing a configuration example of a medical image processing apparatus according to a first embodiment of the present invention. 制御部のCPUによる機能実現部の構成例を示す概略的なブロック図。The schematic block diagram which shows the structural example of the function implementation part by CPU of a control part. 裸眼3Dディスプレイの一構成例を示す斜視図。The perspective view which shows one structural example of a naked-eye 3D display. 裸眼3Dディスプレイにより異なる視差番号を有する視差成分画像が互いに異なる方向に射出される様子の一例を示す説明図。Explanatory drawing which shows an example of a mode that the parallax component image which has a different parallax number by a naked-eye 3D display is inject | emitted in a mutually different direction. 裸眼3Dディスプレイと視域の位置関係の一例を示す説明図。Explanatory drawing which shows an example of the positional relationship of a naked-eye 3D display and a viewing zone. 裸眼3Dディスプレイの内部構成の一例を示すブロック図。The block diagram which shows an example of an internal structure of a naked-eye 3D display. 補助画像を構成する補助画像要素の例を示す説明図。Explanatory drawing which shows the example of the auxiliary image element which comprises an auxiliary image. ボリュームデータに対応する立体像を囲う直方体領域の側面に補助画像が表示される際の様子の一例を示す説明図。Explanatory drawing which shows an example of a mode when an auxiliary | assistant image is displayed on the side surface of the rectangular parallelepiped area | region which encloses the stereo image corresponding to volume data. 図1に示す医用画像処理装置の制御部により、ボリュームデータに対応する立体像を囲う直方体領域の側面に表示された補助画像に対する操作が受け付けられる際の手順を示すフローチャート。3 is a flowchart showing a procedure when an operation for an auxiliary image displayed on a side surface of a rectangular parallelepiped region surrounding a stereoscopic image corresponding to volume data is accepted by the control unit of the medical image processing apparatus shown in FIG. 1. ポインタ管理部により管理される3次元座標のうち、直方体領域の正面および側面の座標の一例を示す説明図。Explanatory drawing which shows an example of the coordinate of the front and side surface of a rectangular parallelepiped area | region among the three-dimensional coordinates managed by the pointer management part. 図10のステップS3で制御部によりサムネイル画像群に対する入力に応じた機能が実行される際の手順を示すサブルーチンフローチャート。FIG. 11 is a subroutine flowchart showing a procedure when a function corresponding to an input to a thumbnail image group is executed by the control unit in step S3 of FIG. 左斜認知画像の側面領域に表示されたサムネイル画像群のサムネイル画像の1つにポインタが重ねられた(ホバーされた)様子を示す説明図。Explanatory drawing which shows a mode that the pointer was piled up (hovered) on one of the thumbnail images of the thumbnail image group displayed on the side area of the left oblique recognition image. (a)は図12に示す例においてポインタを介して選択されたサムネイル画像に対応する立体像が左斜認知画像に表示される様子の一例を示す説明図、(b)はサムネイル画像に対応する立体像が正面近傍認知画像に表示される様子の一例を示す説明図。(A) is explanatory drawing which shows an example of a mode that the three-dimensional image corresponding to the thumbnail image selected via the pointer in the example shown in FIG. 12 is displayed on the left oblique recognition image, (b) corresponds to the thumbnail image. Explanatory drawing which shows an example of a mode that a three-dimensional image is displayed on a front vicinity recognition image. 図10のステップS3で制御部により、操作パネルを介して受け付けたレンダリングモードの変更指示に応じた機能が実行される際の手順を示すサブルーチンフローチャート。FIG. 11 is a subroutine flowchart illustrating a procedure when a function corresponding to a rendering mode change instruction received via an operation panel is executed by the control unit in step S3 of FIG. 左斜認知画像および右斜認知画像の変形例を示す説明図。Explanatory drawing which shows the modification of a left oblique recognition image and a right oblique recognition image. ボリュームデータに対応する立体像の背後に補助画像が表示される際の様子の一例を示す説明図。Explanatory drawing which shows an example of a mode when an auxiliary | assistant image is displayed behind the three-dimensional image corresponding to volume data. 所定の画面レイアウトに応じて1つの画面の分割領域内に補助画像および立体像が表示される様子の一例を示す説明図。Explanatory drawing which shows an example of a mode that an auxiliary | assistant image and a three-dimensional image are displayed in the division area of one screen according to a predetermined | prescribed screen layout.

本発明に係る3次元画像処理装置および3次元画像処理プログラムの実施の形態について、添付図面を参照して説明する。   Embodiments of a 3D image processing apparatus and a 3D image processing program according to the present invention will be described with reference to the accompanying drawings.

VR画像と補助画像とを一般的な2次元画面上に同時に表示させると、VR画像に割り当てられる表示領域が補助画像の分だけ狭くなってしまう。本発明の一実施形態に係る3次元画像処理装置は、裸眼3Dディスプレイを用いることにより、ボリュームデータに対応する立体像を囲う3次元領域の側面や背後を利用可能とし、この側面や背後に補助画像を表示させることで、ボリュームデータに対応する立体像を邪魔しないように補助画像を表示させることができるとともに、補助画像を介した立体像に対する操作を容易に受け付けることができる技術を提供するものである。   If the VR image and the auxiliary image are displayed simultaneously on a general two-dimensional screen, the display area allocated to the VR image is reduced by the amount of the auxiliary image. A three-dimensional image processing apparatus according to an embodiment of the present invention can use a side surface and a back side of a three-dimensional region surrounding a stereoscopic image corresponding to volume data by using a naked-eye 3D display. By providing an image, it is possible to display an auxiliary image so as not to interfere with the stereoscopic image corresponding to the volume data, and to provide a technique that can easily accept an operation on the stereoscopic image via the auxiliary image It is.

(第1の実施形態)
図1は、本発明の第1実施形態に係る医用画像処理装置10の一構成例を示すブロック図である。なお、本実施形態では、ソフトキーの画像、付帯情報を示す画像その他の補助画像が、ボリュームデータに対応する立体像を囲う直方体領域の上下左右の側面の一部または全部に貼り付けて配置される場合の例について説明する。
(First embodiment)
FIG. 1 is a block diagram showing a configuration example of a medical image processing apparatus 10 according to the first embodiment of the present invention. In this embodiment, an image of a soft key, an image indicating supplementary information, and other auxiliary images are pasted and arranged on part or all of the upper, lower, left, and right side surfaces of the rectangular parallelepiped region surrounding the stereoscopic image corresponding to the volume data. An example of the case will be described.

3次元画像処理装置としての医用画像処理装置10は、図1に示すように、入力部11、記憶部12、ネットワーク接続部13および制御部14を有する。   A medical image processing apparatus 10 as a three-dimensional image processing apparatus includes an input unit 11, a storage unit 12, a network connection unit 13, and a control unit 14, as shown in FIG.

入力部11は、少なくともポインティングデバイスを含み、たとえばマウス、トラックボール、キーボード、タッチパネル、テンキーなどの一般的な入力装置により構成され、ユーザUの操作に対応した操作入力信号を制御部14に出力する。   The input unit 11 includes at least a pointing device and is configured by a general input device such as a mouse, a trackball, a keyboard, a touch panel, and a numeric keypad, and outputs an operation input signal corresponding to the operation of the user U to the control unit 14. .

記憶部12は、モダリティ20から出力される医療用のボリュームデータ(3次元画像データ)を記憶する。モダリティ20は、たとえばX線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置、X線診断装置などの医用画像診断装置であって、被検体(患者)の撮像により得られた投影データにもとづいてボリュームデータ(3次元画像データ)を生成可能な装置により構成することができる。   The storage unit 12 stores medical volume data (three-dimensional image data) output from the modality 20. The modality 20 is a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, or an X-ray diagnostic apparatus, and is obtained by imaging a subject (patient). It can be constituted by a device capable of generating volume data (three-dimensional image data) based on the projection data obtained.

ネットワーク接続部13は、ネットワーク21の形態に応じた種々の情報通信用プロトコルを実装する。ネットワーク接続部13は、この各種プロトコルに従って医用画像処理装置10とモダリティ20などの他の装置とを接続する。ここでネットワーク21とは、電気通信技術を利用した情報通信網全般を意味し、病院基幹LAN(Local Area Network)などの無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   The network connection unit 13 implements various information communication protocols according to the form of the network 21. The network connection unit 13 connects the medical image processing apparatus 10 and another apparatus such as the modality 20 according to these various protocols. Here, the network 21 means an entire information communication network using telecommunications technology. In addition to a wireless / wired LAN such as a hospital basic LAN (Local Area Network), an Internet network, a telephone communication line network, an optical fiber communication network. Cable communication networks and satellite communication networks.

医用画像処理装置10は、ネットワーク21を介して接続されたモダリティ20からボリュームデータを受けてもよい。ネットワーク21を介して受信したボリュームデータもまた、記憶部12に記憶される。   The medical image processing apparatus 10 may receive volume data from the modality 20 connected via the network 21. Volume data received via the network 21 is also stored in the storage unit 12.

制御部14は、CPU、RAMおよびROMをはじめとする記憶媒体などにより構成され、この記憶媒体に記憶されたプログラムに従って医用画像処理装置10の処理動作を制御する。具体的には、制御部14のCPUは、ROMをはじめとする記憶媒体に記憶された3次元画像処理プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、ボリュームデータに対応する立体像を邪魔しないように補助画像を表示させつつ、補助画像を介した立体像に対する操作を可能にする処理を実行する。   The control unit 14 includes a storage medium such as a CPU, a RAM, and a ROM, and controls the processing operation of the medical image processing apparatus 10 according to a program stored in the storage medium. Specifically, the CPU of the control unit 14 loads a three-dimensional image processing program stored in a storage medium such as a ROM and data necessary for executing the program into the RAM, and in accordance with the program, the volume A process of enabling an operation on the stereoscopic image via the auxiliary image is performed while displaying the auxiliary image so as not to disturb the stereoscopic image corresponding to the data.

制御部14のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。また、制御部14のROMをはじめとする記憶媒体は、医用画像処理装置10の起動プログラム、3次元画像処理プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The RAM of the control unit 14 provides a work area for temporarily storing programs and data executed by the CPU. The storage medium such as the ROM of the control unit 14 stores a startup program for the medical image processing apparatus 10, a three-dimensional image processing program, and various data necessary for executing these programs.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部はネットワーク21を介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Alternatively, all may be configured to be downloaded via the network 21.

制御部14は、複数の視点からみたVR画像や補助画像(複数の視点画像、多視点画像)を生成し、裸眼3Dディスプレイ22に出力する。また、制御部14は、裸眼3Dディスプレイ22を見るユーザUの位置を示す情報(以下、ユーザ位置情報という)を位置センサ23から取得するよう構成されてもよい。なお、制御部14がユーザ位置情報を利用しない場合は、位置センサ23は不要である。   The control unit 14 generates VR images and auxiliary images (a plurality of viewpoint images and a multi-viewpoint image) viewed from a plurality of viewpoints, and outputs them to the naked-eye 3D display 22. The control unit 14 may be configured to acquire information indicating the position of the user U who views the naked-eye 3D display 22 (hereinafter referred to as user position information) from the position sensor 23. If the control unit 14 does not use user position information, the position sensor 23 is not necessary.

図2は、制御部14のCPUによる機能実現部の構成例を示す概略的なブロック図である。なお、この機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。   FIG. 2 is a schematic block diagram illustrating a configuration example of the function realization unit by the CPU of the control unit 14. In addition, this function realization part may be comprised by hardware logics, such as a circuit, without using CPU.

図2に示すように、制御部14のCPUは、3次元画像処理プログラムによって、ポインタ管理部31aを含む入力受付部31、多視点レンダリング画像生成部32、補助画像生成部33、多視点画像生成部34、多視点画像出力部35、ユーザ位置情報取得部36として機能する。この各部31〜36は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。   As shown in FIG. 2, the CPU of the control unit 14 uses an input reception unit 31 including a pointer management unit 31a, a multi-viewpoint rendering image generation unit 32, an auxiliary image generation unit 33, and a multi-viewpoint image generation by a three-dimensional image processing program. Functions as a unit 34, a multi-viewpoint image output unit 35, and a user position information acquisition unit 36. Each of the units 31 to 36 uses a required work area of the RAM as a temporary storage location for data.

入力受付部31は、入力部11の出力にもとづいてユーザUによる入力部11を介した指示を受け付ける。ポインタ管理部31aは、入力部11の出力にもとづいて裸眼3Dディスプレイ22に表示されたポインタの3次元座標を取得し、ポインタを介した補助画像に対する入力を受け付ける。なお、ポインタの3次元座標は、ユーザUの視点によらず一意である。   The input receiving unit 31 receives an instruction from the user U via the input unit 11 based on the output of the input unit 11. The pointer management unit 31a acquires the three-dimensional coordinates of the pointer displayed on the naked-eye 3D display 22 based on the output of the input unit 11, and receives an input to the auxiliary image via the pointer. Note that the three-dimensional coordinates of the pointer are unique regardless of the viewpoint of the user U.

多視点レンダリング画像生成部32は、記憶部12に記憶されたボリュームデータにもとづいて複数の視点でボリュームレンダリングを行うことにより、各視点のVR画像(視点レンダリング画像。以下、視点VR画像という)を生成する。以下の説明では、裸眼3Dディスプレイ22の正面近傍の視点をレンダリング視点とするVR画像を正面近傍視点VR画像といい、左斜め(右斜め)の視点をレンダリング視点とするVR画像を左斜視点VR画像(右斜視点VR画像)という。   The multi-viewpoint rendering image generation unit 32 performs volume rendering at a plurality of viewpoints based on the volume data stored in the storage unit 12, thereby generating VR images for each viewpoint (viewpoint rendering images; hereinafter referred to as viewpoint VR images). Generate. In the following description, a VR image having a viewpoint near the front of the naked-eye 3D display 22 as a rendering viewpoint is referred to as a front vicinity viewpoint VR image, and a VR image having a left oblique (right oblique) viewpoint as a rendering viewpoint is a left perspective point VR. This is called an image (right perspective point VR image).

補助画像生成部33は、ソフトキーの画像、付帯情報を示す画像その他の補助画像を生成する。   The auxiliary image generation unit 33 generates a soft key image, an image indicating supplementary information, and other auxiliary images.

多視点画像生成部34は、補助画像がボリュームデータに対応する立体像を囲う3次元領域の前面を除く周囲の所定の位置に配置されるよう、多視点レンダリング画像生成部32により生成された視点VR画像と補助画像生成部33により生成された補助画像とを重畳した視点画像と、補助画像が重畳されず視点VR画像のみからなる視点画像とを含む複数の視点画像(多視点画像)を生成する。補助画像がボリュームデータに対応する立体像を囲う3次元領域の前面を除く周囲の所定の位置に配置されることにより、ボリュームデータに対応する立体像を邪魔しないように補助画像を表示させることができる。   The multi-viewpoint image generation unit 34 generates the viewpoint generated by the multi-viewpoint rendering image generation unit 32 so that the auxiliary image is arranged at a predetermined position around the front surface of the three-dimensional area surrounding the stereoscopic image corresponding to the volume data. Generating a plurality of viewpoint images (multi-viewpoint images) including a viewpoint image in which the VR image and the auxiliary image generated by the auxiliary image generation unit 33 are superimposed, and a viewpoint image including only the viewpoint VR image without being superimposed. To do. The auxiliary image can be displayed so as not to disturb the stereoscopic image corresponding to the volume data by being arranged at a predetermined position around the three-dimensional region surrounding the stereoscopic image corresponding to the volume data, excluding the front surface. it can.

本実施形態では、多視点画像生成部34は、補助画像がボリュームデータに対応する立体像を囲う直方体領域の上下左右の側面の一部または全部に貼り付けて配置されるよう、多視点レンダリング画像生成部32により生成された視点VR画像と補助画像生成部33により生成された補助画像とを重畳した視点画像を含む複数の視点画像(多視点画像)を生成する。   In the present embodiment, the multi-viewpoint image generation unit 34 arranges the multi-viewpoint rendering image so that the auxiliary image is pasted and disposed on a part or all of the upper, lower, left and right side surfaces of the rectangular parallelepiped region surrounding the stereoscopic image corresponding to the volume data. A plurality of viewpoint images (multi-viewpoint images) including a viewpoint image obtained by superimposing the viewpoint VR image generated by the generation unit 32 and the auxiliary image generated by the auxiliary image generation unit 33 are generated.

補助画像が側面に貼り付けて配置される場合、正面近傍視点では補助画像を全く視認することができないか、または補助画像の厚さ方向の幅しか視認することができない。このため、正面近傍視点VR画像(正面近傍のレンダリング視点でボリュームレンダリングした視点VR画像)に対して補助画像を重畳しても、ユーザUは補助画像を視認することが難しい。そこで以下の説明では、多視点画像が、補助画像が重畳されず正面近傍視点VR画像のみからなる1または複数の正面近傍視点画像と、斜視点VR画像(左斜視点VR画像または右斜視点VR画像)と補助画像とが重畳された斜視点画像とからなる場合の例について示す。   When the auxiliary image is disposed on the side surface, the auxiliary image cannot be seen at all from the viewpoint near the front, or only the width in the thickness direction of the auxiliary image can be seen. For this reason, it is difficult for the user U to visually recognize the auxiliary image even if the auxiliary image is superimposed on the front vicinity viewpoint VR image (the viewpoint VR image volume-rendered at the rendering viewpoint near the front). Therefore, in the following description, the multi-viewpoint image is composed of one or more front-viewpoint viewpoint images that are composed of only the front-viewpoint viewpoint VR image with no auxiliary image superimposed thereon, and a perspective point VR image (left perspective point VR image or right perspective point VR). An example in the case of an image) and a perspective image in which an auxiliary image is superimposed will be described.

斜視点VR画像と補助画像とを重畳して斜視点画像を生成する際、多視点画像生成部34は、補助画像の透明度を設定して半透明表示とすることにより、補助画像の裏側に隠れる斜視点VR画像を補助画像越しに視認可能とするとよい。この透明度は、あらかじめ設定されて記憶部12に記憶された設定値を用いてもよいし、ユーザUにより入力部11を介して設定されてもよい。   When the perspective image is generated by superimposing the squint point VR image and the auxiliary image, the multi-viewpoint image generation unit 34 sets the transparency of the auxiliary image and displays it as a semi-transparent display so that it is hidden behind the auxiliary image. The squint point VR image may be visible through the auxiliary image. This transparency may be set in advance using a set value stored in the storage unit 12 or may be set by the user U via the input unit 11.

なお、正面近傍視点VR画像とは、裸眼3Dディスプレイ22の正面近傍に設けたカメラでボリュームデータに対応する立体像を撮像した場合の画像に相当し、斜視点VR画像とは、正面近傍から左右にずれた位置に設けたカメラで立体像を撮像した場合の画像に相当する。また、正面近傍視点画像および斜視点画像は、ユーザに立体視させるためには少なくとも両眼用の2つの画像が生成される必要があるが、立体視させずともよい場合は1つであってもよい。たとえば、正面近傍視点VR画像のみが表示される正面近傍視点画像は立体視させたい一方、補助画像が重畳される斜視点画像は立体視させずともよい場合は、制御部14は、正面近傍視点画像を複数生成する一方、斜視点画像は1つだけ生成するようにしてもよい。   Note that the near-front viewpoint VR image corresponds to an image when a stereoscopic image corresponding to volume data is captured by a camera provided near the front of the naked-eye 3D display 22, and the perspective point VR image is left and right from the vicinity of the front. This corresponds to an image when a stereoscopic image is captured by a camera provided at a position shifted to. Further, at least two images for both eyes need to be generated in order to make the user stereoscopically view the front vicinity viewpoint image and the perspective point image. Also good. For example, when it is desired to stereoscopically view the frontal near viewpoint image on which only the frontal near viewpoint VR image is displayed while the perspective point image on which the auxiliary image is superimposed does not need to be stereoscopically viewed, the control unit 14 While a plurality of images are generated, only one perspective point image may be generated.

多視点画像出力部35は、多視点画像を構成する複数の視点画像のそれぞれを視差成分画像として異なる方向に射出する裸眼3Dディスプレイ22に対し、多視点画像生成部34により生成された多視点画像を出力する。   The multi-viewpoint image output unit 35 generates a multi-viewpoint image generated by the multi-viewpoint image generation unit 34 for the naked-eye 3D display 22 that emits each of a plurality of viewpoint images constituting the multi-viewpoint image as a parallax component image in different directions. Is output.

ユーザ位置情報取得部36は、位置センサ23の出力にもとづいてユーザ位置情報を取得し、入力受付部31に与える。   The user position information acquisition unit 36 acquires user position information based on the output of the position sensor 23 and provides the user position information to the input reception unit 31.

ここで、図3〜図6を用いて裸眼3Dディスプレイ22の構成および作用について説明する。   Here, the configuration and operation of the naked-eye 3D display 22 will be described with reference to FIGS.

図3は、裸眼3Dディスプレイ22の一構成例を示す斜視図である。   FIG. 3 is a perspective view showing a configuration example of the naked-eye 3D display 22.

図3に示すように、裸眼3Dディスプレイ22は、画像表示部41と、画像表示部41の前方に所定のギャップをあけて配置された光線制御素子42と、を有する。   As shown in FIG. 3, the naked-eye 3D display 22 includes an image display unit 41 and a light beam control element 42 arranged with a predetermined gap in front of the image display unit 41.

画像表示部41は、たとえば液晶ディスプレイやOLED(Organic Light Emitting Diode)ディスプレイなどの表示出力装置により構成される。たとえば9種の視差成分画像をあつかう場合、画像表示部41の各画素は9つの絵素で構成され、画素ごとに要素画像が表示される。また、画素が出力する光線のうち、同一の視差番号をもつ視差成分画像に対応する光線は、複数の画素から互いに平行に射出される。   The image display unit 41 is configured by a display output device such as a liquid crystal display or an OLED (Organic Light Emitting Diode) display. For example, when nine types of parallax component images are handled, each pixel of the image display unit 41 includes nine picture elements, and an element image is displayed for each pixel. In addition, among the light beams output from the pixels, the light beams corresponding to the parallax component images having the same parallax number are emitted in parallel from the plurality of pixels.

光線制御素子42は、複数の射出瞳43により構成される。光線制御素子42としては、2次元II(インテグラル・イメージング)方式では、マトリックス状に射出瞳43としてのセグメントレンズが配列されたレンズ・アレイや、射出瞳43としてのピン・ホールがアレイ状に配列されたピンホール・アレイを用いることができる。また、光線制御素子42は、1次元II方式では、垂直方向に延出され、水平方向に配列されたシリンドリカル・レンズからなるレンチュキュラー・シートや、垂直方向に延出され、水平方向に配列されたスリットを有するスリット・プレートにより構成される。光線制御素子42としてレンズ・アレイ、レンチュキュラー・シートおよびスリット・プレートのいずれを用いても、光学的には、各レンズまたはスリットは、光学的開口部の射出瞳43として機能する。   The light beam control element 42 includes a plurality of exit pupils 43. In the two-dimensional II (integral imaging) system, as the light beam control element 42, a lens array in which segment lenses as the exit pupil 43 are arranged in a matrix or a pin hole as the exit pupil 43 in an array form. An array of pinhole arrays can be used. Further, in the one-dimensional II system, the light beam control element 42 is a lenticular sheet made up of cylindrical lenses that are extended in the vertical direction and arranged in the horizontal direction, and is extended in the vertical direction and arranged in the horizontal direction. It is comprised by the slit plate which has the slit made. Regardless of which lens array, lenticular sheet, or slit plate is used as the light beam control element 42, each lens or slit optically functions as the exit pupil 43 of the optical aperture.

図4は、裸眼3Dディスプレイ22により視差成分画像が互いに異なる方向に射出される様子の一例を示す説明図である。図4には、9つの撮影番号に相当する9視差方向を示す視差番号(−4、−3、・・・、0、・・・3、4)で視差成分画像が特定される場合の例を示した。なお、下記の説明では、説明を簡単にするために、1次元II方式について説明する。1次元II方式では、視差成分画像が水平方向に沿って画素に振り分けられるが、2次元II方式では、水平方向における視差成分画像の割り当て方法と同様の方法で、垂直方向についても視差成分画像を割り当てればよい。   FIG. 4 is an explanatory diagram illustrating an example of a state in which parallax component images are emitted in different directions by the naked-eye 3D display 22. FIG. 4 shows an example in which a parallax component image is specified by parallax numbers (−4, −3,..., 0,..., 4) indicating nine parallax directions corresponding to nine shooting numbers. showed that. In the following description, the one-dimensional II method will be described in order to simplify the description. In the one-dimensional II method, parallax component images are distributed to pixels along the horizontal direction, but in the two-dimensional II method, a parallax component image is also displayed in the vertical direction in the same manner as the method for assigning parallax component images in the horizontal direction. Assign it.

画像表示部41の表示面には、画素44がほぼ一定の水平ピッチおよび垂直ピッチでマトリクス状に配列されている。各画素44は、水平方向に並んだ所定数の絵素により構成される。図4には、画素44が9つの絵素で構成される場合の例について示した。各絵素は、垂直方向に並んだR、G、Bの各サブピクセルにより構成される。RGBサブピクセル上に、それぞれ対応する縦ストライプ・カラー・フィルターが配列されることにより、高精細液晶パネル・モジュールが構成される。このパネル・モジュールには、視差成分画像から成る要素画像が表示されて立体像が表示される。各視差成分画像は、多視点画像出力部35が出力する多視点画像の各視点画像により構成される。   On the display surface of the image display unit 41, the pixels 44 are arranged in a matrix at substantially constant horizontal and vertical pitches. Each pixel 44 includes a predetermined number of picture elements arranged in the horizontal direction. FIG. 4 shows an example in which the pixel 44 is composed of nine picture elements. Each picture element is composed of R, G, and B subpixels arranged in the vertical direction. A high-definition liquid crystal panel module is configured by arranging corresponding vertical stripe color filters on the RGB sub-pixels. In this panel module, an element image composed of parallax component images is displayed and a stereoscopic image is displayed. Each parallax component image is configured by each viewpoint image of the multi-viewpoint image output from the multi-viewpoint image output unit 35.

9種の視差成分画像は、画素44を構成する9つの絵素のそれぞれに表示される。射出瞳43は画素44のそれぞれに対応して配置される。各絵素から射出された光線は、射出瞳43を通過し、射出瞳43から視距離Lに位置する視域面45に視差成分画像46を投影する。このとき、画素44が出力する光線のうち、同一の視差番号をもつ視差成分画像に対応する光線は、複数の画素44から互いに平行に射出される。   The nine types of parallax component images are displayed on each of the nine picture elements constituting the pixel 44. The exit pupil 43 is arranged corresponding to each of the pixels 44. Light rays emitted from each picture element pass through the exit pupil 43 and project a parallax component image 46 from the exit pupil 43 onto the viewing zone plane 45 located at the viewing distance L. At this time, among the light beams output from the pixels 44, the light beams corresponding to the parallax component images having the same parallax number are emitted in parallel from the plurality of pixels 44.

9種の視差成分画像の集合としての要素画像は、各射出瞳43に対応した画素44に表示され、要素画像からの光線は、射出瞳43で制御または規制されてユーザUに向けられる。そして、ユーザUが位置する方向に向けられた光線で視差成分画像が送られると、ユーザUは、この視差成分画像の集合として立体画像を認識することができる。すなわち、この裸眼3Dディスプレイ22によれば、ユーザUの位置を視域面内の位置近傍に想定すると、ユーザUは、要素画像からの光線にもとづいて画像表示部41の前面(手前に飛び出す方向)および背面(奥行き方向)の近傍に立体映像を観察することができる。   Element images as a set of nine types of parallax component images are displayed on the pixels 44 corresponding to the exit pupils 43, and light rays from the element images are controlled or regulated by the exit pupils 43 and directed to the user U. Then, when the parallax component image is sent with the light beam directed in the direction in which the user U is located, the user U can recognize the stereoscopic image as a set of the parallax component images. That is, according to the naked-eye 3D display 22, assuming that the position of the user U is in the vicinity of the position in the viewing zone plane, the user U can move the front of the image display unit 41 based on the light rays from the element image. ) And the back (in the depth direction), a stereoscopic image can be observed.

図5は、裸眼3Dディスプレイ22と視域47の位置関係の一例を示す説明図である。ここで、視域とは、ユーザUが射出瞳43を介して視差成分画像を観察可能な範囲をいうものとする。   FIG. 5 is an explanatory diagram showing an example of the positional relationship between the naked-eye 3D display 22 and the viewing zone 47. Here, the viewing area refers to a range in which the user U can observe the parallax component image through the exit pupil 43.

ユーザUが左右に移動すると、射出瞳43を介して観察される絵素(RGBサブピクセル)が変化する。1次元II方式では、同一の視差番号をもつ視差成分画像に対応する光線同士が射出瞳43から互いに平行に射出される。このため、ユーザUが透視投影的に観察すると、射出瞳43越しに見える各サブピクセルの位置は、射出瞳43の幅ずつ(たとえばレンチキューラーシートのレンズピッチずつ)異なる。なお、視域47の幅を最大にするために、射出瞳43と画素44との位置関係を射出瞳43ごとに異ならせてもよい。   When the user U moves left and right, the picture element (RGB subpixel) observed through the exit pupil 43 changes. In the one-dimensional II system, rays corresponding to parallax component images having the same parallax number are emitted from the exit pupil 43 in parallel with each other. For this reason, when the user U observes through perspective projection, the position of each sub-pixel seen through the exit pupil 43 differs by the width of the exit pupil 43 (for example, by the lens pitch of the lenticular sheet). In addition, in order to maximize the width of the viewing zone 47, the positional relationship between the exit pupil 43 and the pixel 44 may be different for each exit pupil 43.

II方式では、水平面内において、各射出瞳43に対応する要素画像が定められており、射出瞳43から互いに平行な関係にある光線が視域47に向けて射出されて、立体像が視域に形成される。   In the II system, element images corresponding to the respective exit pupils 43 are determined in a horizontal plane, and light rays that are parallel to each other are emitted from the exit pupil 43 toward the viewing zone 47, so that a stereoscopic image is displayed in the viewing zone. Formed.

なお、視差成分画像数が十分に多い場合には、異なる視差番号を有する視差成分画像が本来表示されるべき2以上の領域、例えば、異なる視差番号を有する視差成分画像が本来表示されるべき3つの領域に、同一の視差成分画像が表示されても良い。   When the number of parallax component images is sufficiently large, two or more areas where parallax component images having different parallax numbers should be originally displayed, for example, parallax component images having different parallax numbers should be originally displayed 3 The same parallax component image may be displayed in one area.

図6は、裸眼3Dディスプレイ22の内部構成の一例を示すブロック図である。   FIG. 6 is a block diagram illustrating an example of the internal configuration of the naked-eye 3D display 22.

裸眼3Dディスプレイ22は、多視点画像取得部48および要素画像生成部49をさらに有する。   The naked-eye 3D display 22 further includes a multi-viewpoint image acquisition unit 48 and an element image generation unit 49.

多視点画像取得部48は、多視点画像出力部35から多視点画像を取得する。要素画像生成部49は、この多視点画像を要素画像に変換する。すなわち、要素画像生成部49は、多視点画像の各視点画像と視差番号とを関連付けることにより各視点画像を視差成分画像としてあつかい、視差成分画像を集めて要素画像を生成する。   The multi-view image acquisition unit 48 acquires a multi-view image from the multi-view image output unit 35. The element image generation unit 49 converts this multi-viewpoint image into an element image. That is, the element image generation unit 49 treats each viewpoint image as a parallax component image by associating each viewpoint image of the multi-viewpoint image with a parallax number, and collects the parallax component images to generate an element image.

要素画像生成部49により生成された要素画像は、画像表示部41の各画素44に表示され、要素画像が射出瞳43を介して視域47に投影されることによって立体画像が視域47の内部でユーザUにより観察される。   The element image generated by the element image generation unit 49 is displayed on each pixel 44 of the image display unit 41, and the element image is projected onto the viewing area 47 through the exit pupil 43, so that a stereoscopic image is displayed in the viewing area 47. Observed by user U inside.

なお、多視点画像取得部48および要素画像生成部49は、CPUにより所定のプログラムが実行されて実現される機能実現部であってもよいし、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。また、ソフトウエアとハードウエアを適宜組み合わせて各機能を実現してもよい。   Note that the multi-viewpoint image acquisition unit 48 and the element image generation unit 49 may be a function realization unit that is realized by a predetermined program being executed by the CPU, or by hardware logic such as a circuit without using the CPU. It may be configured. Each function may be realized by appropriately combining software and hardware.

また、図1では裸眼3Dディスプレイ22が医用画像処理装置10の構成外に設けられ場合の例について示したが、裸眼3Dディスプレイ22を医用画像処理装置10の一構成要素としても構わない。また、医用画像処理装置10は、モダリティ20に組み込まれてもよい。   1 shows an example in which the naked-eye 3D display 22 is provided outside the configuration of the medical image processing apparatus 10, the naked-eye 3D display 22 may be a constituent element of the medical image processing apparatus 10. Further, the medical image processing apparatus 10 may be incorporated in the modality 20.

続いて、補助画像について簡単に説明する。   Next, the auxiliary image will be briefly described.

図7は、補助画像50を構成する補助画像要素の例を示す説明図である。   FIG. 7 is an explanatory diagram illustrating an example of auxiliary image elements constituting the auxiliary image 50.

補助画像50は、各種機能が割り当てられた複数のソフトキーにより構成されたツールバー51、複数のサムネイル画像52aにより構成されたサムネイル画像群52、付帯情報表示画像53、簡易操作パネル54、操作パネル55、患者、シリーズおよび画像のリスト56や、正面近傍視点VR画像とは異なる画像57などの補助画像要素により構成される。正面近傍視点VR画像とは異なる画像57としては、たとえば正面近傍視点VR画像とは異なるレンダリングモードでボリュームレンダリングされたVR画像や、正面近傍視点VR画像とはボリュームデータが異なる画像などを挙げることができる。   The auxiliary image 50 includes a toolbar 51 composed of a plurality of soft keys to which various functions are assigned, a thumbnail image group 52 composed of a plurality of thumbnail images 52a, an accompanying information display image 53, a simple operation panel 54, and an operation panel 55. , And a list 56 of patients, series and images, and auxiliary image elements such as an image 57 different from the near-front viewpoint VR image. Examples of the image 57 that is different from the front vicinity viewpoint VR image include a VR image that is volume-rendered in a rendering mode different from the front vicinity viewpoint VR image, and an image that has different volume data from the front vicinity viewpoint VR image. it can.

補助画像生成部33は、これらの補助画像要素の1つまたは複数により構成される補助画像50を生成する。そして、多視点画像生成部34は、補助画像50の補助画像要素がボリュームデータに対応する立体像を囲う直方体領域の上下左右の側面の少なくとも1つの側面に貼り付けて配置されるよう、多視点レンダリング画像生成部32により生成された視点VR画像と補助画像生成部33により生成された補助画像50とを重畳した複数の視点画像を含む多視点画像を生成する。なお、各補助画像要素のもととなる画像ファイルは、あらかじめ記憶部12に記憶させておいてもよいし、ネットワーク21を介して適宜取得してもよい。   The auxiliary image generation unit 33 generates an auxiliary image 50 composed of one or more of these auxiliary image elements. Then, the multi-viewpoint image generation unit 34 is arranged so that the auxiliary image elements of the auxiliary image 50 are arranged and pasted on at least one of the upper, lower, left, and right sides of the rectangular parallelepiped region surrounding the stereoscopic image corresponding to the volume data. A multi-viewpoint image including a plurality of viewpoint images in which the viewpoint VR image generated by the rendering image generation unit 32 and the auxiliary image 50 generated by the auxiliary image generation unit 33 are superimposed is generated. The image file that is the basis of each auxiliary image element may be stored in the storage unit 12 in advance, or may be acquired as appropriate via the network 21.

図8は、ボリュームデータに対応する立体像60を囲う直方体領域61の側面に補助画像50が表示される際の様子の一例を示す説明図である。   FIG. 8 is an explanatory diagram illustrating an example of a state when the auxiliary image 50 is displayed on the side surface of the rectangular parallelepiped region 61 that surrounds the stereoscopic image 60 corresponding to the volume data.

多視点画像出力部35によって出力された多視点画像にもとづいて裸眼3Dディスプレイ22が要素画像を表示すると、多視点画像を構成する複数の視点画像のそれぞれが、視差成分画像として異なる方向に射出される。このため、ユーザUが観察する視差成分画像は、ユーザUの左右位置に応じて異なる(図4参照)。   When the naked-eye 3D display 22 displays an element image based on the multi-view image output by the multi-view image output unit 35, each of a plurality of viewpoint images constituting the multi-view image is emitted in different directions as a parallax component image. The For this reason, the parallax component image observed by the user U differs depending on the left and right positions of the user U (see FIG. 4).

たとえば、裸眼3Dディスプレイ22を正面近傍から見る場合の視点を正面近傍視点A1、A2、・・・、Anとし、正面近傍から左にずれた位置から見る場合の視点を左斜視点B1、B2、・・・、Bnとし、正面近傍から右にずれた位置から見る場合の視点を右斜視点C1、C2、・・・、Cn(ただしnは正整数)とする場合を考える。   For example, the viewpoint when viewing the naked-eye 3D display 22 from the front vicinity is set to the front vicinity viewpoints A1, A2,..., An, and the viewpoints when viewed from the position shifted to the left from the front vicinity are the left perspective points B1, B2,. .., Bn, and the viewpoint when viewed from a position shifted to the right from the vicinity of the front is assumed to be the right perspective points C1, C2,..., Cn (where n is a positive integer).

この場合、たとえばユーザUが正面近傍に位置して左目が正面近傍視点A1に、右目が正面近傍視点A2に、それぞれ位置しており、正面近傍視点A1およびA2に対して互いに異なる正面近傍視点画像にもとづく視差成分画像の光線が射出されていれば、ユーザUは、正面近傍視点画像を立体的な像(以下、正面近傍認知画像という)として認識することができる。   In this case, for example, the user U is positioned in the vicinity of the front, the left eye is positioned in the front vicinity viewpoint A1, the right eye is positioned in the front vicinity viewpoint A2, and the front vicinity viewpoint images different from each other with respect to the front vicinity viewpoints A1 and A2. If the light beam of the parallax component image based on this is emitted, the user U can recognize the front vicinity viewpoint image as a three-dimensional image (hereinafter referred to as a front vicinity recognition image).

また、ユーザUが左斜視点B1、B2から見る場合は、ユーザUは、斜視点画像のうち左斜視点B1およびB2またはその近傍の視点でレンダリングされた視点VR画像(左斜視点VR画像)を立体的な像(以下、左斜認知画像という)として認識することができる。同様に、ユーザUが右斜視点C1、C2から見る場合は、ユーザUは、斜視点画像のうち左斜視点C1およびC2またはその近傍の視点でレンダリングされたVR画像(右斜視点VR画像)を立体的な像(以下、右斜認知画像という)として認識することができる。なお、2次元II方式であれば、同様に上斜認知画像および下斜認知画像をユーザに知覚可能とすることができる。   Further, when the user U views from the left perspective points B1 and B2, the user U views the viewpoint VR image (left perspective point VR image) rendered at the viewpoints of the left perspective points B1 and B2 or the vicinity thereof among the perspective point images. Can be recognized as a three-dimensional image (hereinafter referred to as a left oblique recognition image). Similarly, when the user U views from the right perspective points C1 and C2, the user U renders the VR image (right perspective point VR image) rendered at the left perspective points C1 and C2 of the perspective point images or viewpoints in the vicinity thereof. Can be recognized as a three-dimensional image (hereinafter referred to as a right oblique recognition image). In addition, if it is a two-dimensional II system, an upper-slope recognition image and a lower-slope recognition image can be perceivable to a user similarly.

左斜認知画像および右斜認知画像は、ボリュームデータに対応する立体像60が主に存在する正面領域62と、補助画像50が主に存在する側面領域63とを有する。図8には、左斜認知画像の側面領域63にサムネイル画像群52のみにより構成された補助画像50が表示され、右斜認知画像の側面領域63に操作パネル55のみにより構成された補助画像50が表示される場合の例について示した。なお、図8には正面領域62と側面領域63との境界線64を一点差線で図示したが、この境界線64は各斜認知画像に表示されなくてもよい。   The left oblique recognition image and the right oblique recognition image have a front area 62 in which the stereoscopic image 60 corresponding to the volume data mainly exists and a side area 63 in which the auxiliary image 50 mainly exists. In FIG. 8, the auxiliary image 50 configured only by the thumbnail image group 52 is displayed in the side region 63 of the left oblique recognition image, and the auxiliary image 50 configured only by the operation panel 55 in the side region 63 of the right oblique recognition image. An example in which is displayed is shown. In FIG. 8, the boundary line 64 between the front area 62 and the side area 63 is shown by a one-point difference line, but the boundary line 64 may not be displayed in each oblique recognition image.

図8に示すように、正面近傍認知画像には側面領域63が含まれない。このため、補助画像50は表示されない。このため、正面近傍認知画像の全ての表示領域は立体像60を表示するために用いることができ、補助画像50が立体像60の表示画像を侵食することがない。したがって、ユーザUは、立体像60をしっかりと観察したい場合は、裸眼3Dディスプレイ22の正面近傍に位置とよい。正面近傍に位置することで、補助画像50を含まない立体像60を認識することができる。   As shown in FIG. 8, the side area 63 is not included in the front vicinity recognition image. For this reason, the auxiliary image 50 is not displayed. For this reason, all the display areas of the front vicinity recognition image can be used to display the stereoscopic image 60, and the auxiliary image 50 does not erode the display image of the stereoscopic image 60. Therefore, when the user U wants to observe the stereoscopic image 60 firmly, the user U may be positioned near the front of the naked-eye 3D display 22. By being positioned in the vicinity of the front, the stereoscopic image 60 that does not include the auxiliary image 50 can be recognized.

また、ユーザUは、位置を左(または右)にずらすことにより、補助画像50が表示される側面領域63を含む左斜認知画像(または右斜認知画像)を認識することができる。このため、ユーザUは、補助画像50に割り当てられた各種機能を利用したい場合は、自らの位置を左または右にずらすとよい。正面近傍から左右にずれた場所に自らを位置することで、補助画像50を視認することができ、補助画像50に対する各種操作を行うことができる。   Further, the user U can recognize the left oblique recognition image (or right oblique recognition image) including the side region 63 on which the auxiliary image 50 is displayed by shifting the position to the left (or right). Therefore, when the user U wants to use various functions assigned to the auxiliary image 50, the user U may shift his / her position to the left or right. The auxiliary image 50 can be visually recognized and various operations can be performed on the auxiliary image 50 by positioning itself at a location shifted left and right from the vicinity of the front.

次に、本実施形態に係る医用画像処理装置10の動作の一例について説明する。   Next, an example of the operation of the medical image processing apparatus 10 according to the present embodiment will be described.

図9は、図1に示す医用画像処理装置10の制御部14により、ボリュームデータに対応する立体像60を囲う直方体領域61の側面に表示された補助画像50に対する操作が受け付けられる際の手順を示すフローチャートである。図9において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 9 shows a procedure when the control unit 14 of the medical image processing apparatus 10 shown in FIG. 1 accepts an operation on the auxiliary image 50 displayed on the side of the rectangular parallelepiped region 61 surrounding the stereoscopic image 60 corresponding to the volume data. It is a flowchart to show. In FIG. 9, the code | symbol which attached | subjected the number to S shows each step of a flowchart.

図9に示す手順は、多視点画像出力部35が出力した多視点画像にもとづいて裸眼3Dディスプレイ22が要素画像を表示した時点でスタートとなる。   The procedure shown in FIG. 9 starts when the naked-eye 3D display 22 displays an element image based on the multi-view image output by the multi-view image output unit 35.

また、図10は、ポインタ管理部31aにより管理される3次元座標のうち、直方体領域61の正面および側面の座標の一例を示す説明図である。なお、図10には、直方体領域61の正面左下を座標原点とし、原点から水平方向右側をX軸正方向、垂直方向上側をY軸正方向、手前側をZ軸正方向としてXYZ軸を定義する場合の一例について示した。また、図10には直方体領域61の展開図65とともに各面の頂点座標の一例を示した。   Moreover, FIG. 10 is explanatory drawing which shows an example of the coordinate of the front and side surface of the rectangular parallelepiped area | region 61 among the three-dimensional coordinates managed by the pointer management part 31a. In FIG. 10, the XYZ axis is defined with the lower left front of the rectangular parallelepiped region 61 as the coordinate origin, the right side in the horizontal direction from the origin as the X axis positive direction, the upper vertical direction as the Y axis positive direction, and the near side as the Z axis positive direction. An example of the case is shown. FIG. 10 shows an example of vertex coordinates of each surface together with a development view 65 of the rectangular parallelepiped region 61.

まず、ステップS1において、ポインタ管理部31aは、入力部11の出力にもとづいて裸眼3Dディスプレイ22に表示されたポインタ70の3次元座標を取得し、補助画像50の補助画像に対する入力を受け付ける。   First, in step S <b> 1, the pointer management unit 31 a acquires the three-dimensional coordinates of the pointer 70 displayed on the naked-eye 3D display 22 based on the output of the input unit 11, and accepts input to the auxiliary image of the auxiliary image 50.

次に、ポインタ管理部31aは、ポインタ70の3次元座標にもとづいて、ポインタ70が側面にあるか否かを判定する(ステップS2)。たとえば、ユーザUが右に移動して視点C1およびC2に位置する場合には、ユーザUは正面領域62および側面領域63の両方を視認することができる(図8参照)。このとき、ユーザUは、たとえば正面領域62にあるポインタ70を操作し、境界線64を横断して側面領域63の補助画像50に対する入力を所望する場合がある(図10参照)。   Next, the pointer management unit 31a determines whether the pointer 70 is on the side surface based on the three-dimensional coordinates of the pointer 70 (step S2). For example, when the user U moves to the right and is positioned at the viewpoints C1 and C2, the user U can visually recognize both the front area 62 and the side area 63 (see FIG. 8). At this time, for example, the user U may operate the pointer 70 in the front area 62 and desire to input the auxiliary image 50 in the side area 63 across the boundary line 64 (see FIG. 10).

ポインタ70が側面にない場合(ステップS2のNO)、一連の手順は終了となる。一方、側面にある場合(ステップS2のYES)、ポインタ管理部31aは、補助画像50に対する入力を受け付ける。そして、制御部14は、受け付けられた入力に対応する機能を実行する(ステップS3)。   When the pointer 70 is not on the side surface (NO in step S2), the series of procedures ends. On the other hand, when it is on the side surface (YES in step S2), the pointer management unit 31a receives an input to the auxiliary image 50. And the control part 14 performs the function corresponding to the received input (step S3).

以上の手順により、ボリュームデータに対応する立体像60を囲う直方体領域61の側面に表示された補助画像50に対する操作を受け付けることができる。   Through the above procedure, an operation for the auxiliary image 50 displayed on the side surface of the rectangular parallelepiped region 61 surrounding the stereoscopic image 60 corresponding to the volume data can be received.

次に、図8に示すように左斜認知画像の側面領域63にサムネイル画像群52により構成された補助画像50が表示され、ユーザUによりサムネイル画像群52に対する入力が行われる場合の例についてより詳細に説明する。   Next, as shown in FIG. 8, an example in which the auxiliary image 50 configured by the thumbnail image group 52 is displayed in the side region 63 of the left oblique recognition image and the user U inputs the thumbnail image group 52 will be described. This will be described in detail.

図11は、図9のステップS3で制御部14によりサムネイル画像群52に対する入力に応じた機能が実行される際の手順を示すサブルーチンフローチャートである。図11において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 11 is a subroutine flowchart showing a procedure when a function corresponding to an input to the thumbnail image group 52 is executed by the control unit 14 in step S3 of FIG. In FIG. 11, reference numerals with numbers added to S indicate the steps in the flowchart.

また、図12は、左斜認知画像の側面領域63に表示されたサムネイル画像群52のサムネイル画像52aの1つにポインタ70が重ねられた(ホバーされた)様子を示す説明図である。また、図13(a)は、図12に示す例においてポインタ70を介して選択されたサムネイル画像52aに対応する立体像60aが左斜認知画像に表示される様子の一例を示す説明図であり、(b)は、サムネイル画像52aに対応する立体像60aが正面近傍認知画像に表示される様子の一例を示す説明図である。   FIG. 12 is an explanatory view showing a state in which the pointer 70 is overlaid (hovered) on one of the thumbnail images 52a of the thumbnail image group 52 displayed in the side region 63 of the left oblique recognition image. FIG. 13A is an explanatory diagram showing an example of a state in which the stereoscopic image 60a corresponding to the thumbnail image 52a selected via the pointer 70 in the example shown in FIG. 12 is displayed on the left oblique recognition image. (B) is explanatory drawing which shows an example of a mode that the three-dimensional image 60a corresponding to the thumbnail image 52a is displayed on a front vicinity recognition image.

図12および図13には、あらかじめ正面近傍認知画像に表示された立体像60を四角すい体で示し、選択(ポインタ70がホバー)されたサムネイル画像52aを直方体で示した。   In FIGS. 12 and 13, the three-dimensional image 60 that is displayed in advance in the front vicinity recognition image is shown as a rectangular cone, and the selected thumbnail image 52 a (the pointer 70 is hovered) is shown as a rectangular parallelepiped.

ポインタ70が側面にあると判定すると(図9のステップS2のYES)、入力受付部31は、入力部11を介したポインタ70などの操作によりサムネイル画像群52の複数のサムネイル画像52aの1つが選択されたか否かを判定する(ステップS31)。   If it is determined that the pointer 70 is on the side surface (YES in step S2 in FIG. 9), the input receiving unit 31 operates one of the thumbnail images 52a of the thumbnail image group 52 by operating the pointer 70 or the like via the input unit 11. It is determined whether or not it has been selected (step S31).

この「選択」のための操作としては、サムネイル画像52aの画像上にポインタ70を載せるいわゆるホバー操作や、サムネイル画像52aの1つをポインタ70によりクリックする操作や、入力部11を構成するキーボードの所定のキーを押下する操作などの様々な操作のうち、1つまたは複数をあらかじめ割り当てておくことができる。たとえば、ホバー操作を選択のための操作として割り当てておく場合、ポインタ管理部31aは、ステップS31において、サムネイル画像52aの1つにポインタ70がホバーされたか否かを判定する。   As an operation for this “selection”, a so-called hover operation for placing the pointer 70 on the thumbnail image 52a, an operation for clicking one of the thumbnail images 52a with the pointer 70, or a keyboard of the input unit 11 is used. One or more of various operations such as an operation of pressing a predetermined key can be assigned in advance. For example, when the hover operation is assigned as an operation for selection, the pointer management unit 31a determines whether or not the pointer 70 is hovered on one of the thumbnail images 52a in step S31.

サムネイル画像52aの1つに対する選択が行われていない場合(ステップS31のNO)は、引き続き補助画像50に対する入力を受け付けるべく図9のステップS2に戻る。一方、サムネイル画像52aの1つが選択された場合(ステップS31のYES)は、多視点レンダリング画像生成部32は、選択されたサムネイル画像52aに対応する立体像60aが正面近傍の視点A1〜Anで立体視可能なように、選択されたサムネイル画像52aに対応する複数の正面近傍視点VR画像を生成する(ステップS32)。このとき、多視点レンダリング画像生成部32は、選択されたサムネイル画像52aに対応する斜視点VR画像をさらに生成してもよい。   If selection for one of the thumbnail images 52a has not been made (NO in step S31), the process returns to step S2 in FIG. On the other hand, when one of the thumbnail images 52a is selected (YES in step S31), the multi-viewpoint rendering image generation unit 32 displays the stereoscopic image 60a corresponding to the selected thumbnail image 52a at the viewpoints A1 to An near the front. A plurality of front vicinity viewpoint VR images corresponding to the selected thumbnail image 52a are generated so as to enable stereoscopic viewing (step S32). At this time, the multi-viewpoint rendering image generation unit 32 may further generate a perspective point VR image corresponding to the selected thumbnail image 52a.

次に、多視点画像生成部34は、選択されたサムネイル画像52aに対応する立体像60aが正面近傍の視点A1〜Anで立体視可能なように(図13(b)参照)、選択されたサムネイル画像52aに対応する正面近傍視点VR画像のみからなる正面近傍視点画像を複数生成する(ステップS33)。このとき、多視点画像生成部34は、多視点レンダリング画像生成部32により選択されたサムネイル画像52aに対応する斜視点VR画像が生成されていれば、この斜視点VR画像に対して補助画像を重畳して斜視点画像をさらに生成してもよい(図13(a)参照)。斜視点VR画像が生成されていない場合は、多視点画像生成部34は、補助画像のみからなる斜視点画像を生成してもよい。   Next, the multi-viewpoint image generation unit 34 is selected so that the stereoscopic image 60a corresponding to the selected thumbnail image 52a can be stereoscopically viewed from the viewpoints A1 to An near the front (see FIG. 13B). A plurality of front vicinity viewpoint images consisting only of the front vicinity viewpoint VR image corresponding to the thumbnail image 52a are generated (step S33). At this time, if a perspective point VR image corresponding to the thumbnail image 52a selected by the multi-viewpoint rendering image generating unit 32 has been generated, the multi-viewpoint image generation unit 34 generates an auxiliary image for the perspective-point VR image. A perspective point image may be further generated by superimposing (see FIG. 13A). When the squint point VR image is not generated, the multi-viewpoint image generation unit 34 may generate a squint point image including only the auxiliary image.

そして、多視点画像出力部35は、裸眼3Dディスプレイ22に、正面近傍視点画像および斜視点画像からなる多視点画像を出力する(ステップS34)。   Then, the multi-viewpoint image output unit 35 outputs a multi-viewpoint image composed of the near-front viewpoint image and the perspective point image to the naked-eye 3D display 22 (step S34).

以上の手順により、サムネイル画像群52の1つが選択されると、選択されたサムネイル画像52aの正面近傍視点画像を生成して裸眼3Dディスプレイに出力することができる。   When one of the thumbnail image groups 52 is selected by the above procedure, a near-front viewpoint image of the selected thumbnail image 52a can be generated and output to the naked-eye 3D display.

次に、図8に示すように右斜認知画像の側面領域63に操作パネル55により構成された補助画像50が表示され、ユーザUにより操作パネル55に対する入力が行われる場合の例についてより詳細に説明する。   Next, as shown in FIG. 8, the auxiliary image 50 configured by the operation panel 55 is displayed in the side region 63 of the right oblique recognition image, and an example in which input to the operation panel 55 is performed by the user U will be described in more detail. explain.

図14は、図9のステップS3で制御部14により、操作パネル55を介して受け付けたレンダリングモードの変更指示に応じた機能が実行される際の手順を示すサブルーチンフローチャートである。図14において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 14 is a subroutine flowchart showing a procedure when a function corresponding to a rendering mode change instruction received via the operation panel 55 is executed by the control unit 14 in step S3 of FIG. In FIG. 14, reference numerals with numbers added to S indicate steps of the flowchart.

ポインタ70が側面にあると判定すると(図9のステップS2のYES)、入力受付部31は、入力部11を介したポインタ70などの操作により、操作パネル55を介してレンダリングリングモードの変更指示が受け付けられたか否かを判定する(ステップS321)。   If it is determined that the pointer 70 is on the side surface (YES in step S2 in FIG. 9), the input reception unit 31 instructs the rendering ring mode to be changed via the operation panel 55 by operating the pointer 70 or the like via the input unit 11. Is received (step S321).

この「変更指示」のための操作としては、レンダリングモードの変更指示機能が割り当てられた操作パネル55のソフトキーの画像上にポインタ70を載せるいわゆるホバー操作や、クリック操作や、入力部11を構成するキーボードの所定のキーを押下する操作など、様々な操作をあらかじめ割り当てておくとよい。たとえば、クリック操作を変更指示のための操作として割り当てておく場合、入力受付部31のポインタ管理部31aは、ステップS321において、レンダリングモードの変更指示機能が割り当てられた操作パネル55のソフトキーがクリックされたか否かを判定する。   As an operation for this “change instruction”, a so-called hover operation for placing the pointer 70 on the image of the soft key on the operation panel 55 to which the rendering mode change instruction function is assigned, a click operation, and the input unit 11 are configured. Various operations such as an operation of pressing a predetermined key of the keyboard to be performed may be assigned in advance. For example, when a click operation is assigned as an operation for a change instruction, the pointer management unit 31a of the input reception unit 31 clicks a soft key on the operation panel 55 to which a rendering mode change instruction function is assigned in step S321. It is determined whether or not it has been done.

レンダリングモードの変更指示がない場合(ステップS321のNO)は、引き続き補助画像50に対する入力を受け付けるべく図9のステップS2に戻る。一方、レンダリングモードの変更指示を受け付けると(ステップS321のYES)、多視点レンダリング画像生成部32は、ボリュームデータにもとづいて少なくとも正面近傍の視点A1〜Anで変更後のレンダリングモードによりボリュームレンダリングを行い、新たに正面近傍視点VR画像を生成する(ステップS322)。このとき、多視点レンダリング画像生成部32は、変更後のレンダリングモードによりボリュームデータにもとづいて斜視点VR画像をさらに生成してもよい。   If there is no instruction to change the rendering mode (NO in step S321), the process returns to step S2 in FIG. On the other hand, when a rendering mode change instruction is received (YES in step S321), the multi-viewpoint rendering image generation unit 32 performs volume rendering in the rendering mode after the change at least from the viewpoints A1 to An near the front based on the volume data. A new front vicinity viewpoint VR image is generated (step S322). At this time, the multi-viewpoint rendered image generation unit 32 may further generate a perspective point VR image based on the volume data according to the changed rendering mode.

次に、多視点画像生成部34は、変更後のレンダリングモードによるボリュームデータに対応する立体像が正面近傍の視点A1〜Anで立体視可能なように、新たに生成された正面近傍視点VR画像のみからなる正面近傍視点画像を複数生成する(ステップS323)。このとき、多視点画像生成部34は、多視点レンダリング画像生成部32により変更後のレンダリングモードでボリュームデータにもとづく斜視点VR画像が生成されていれば、この斜視点VR画像に対して補助画像を重畳して斜視点画像をさらに生成してもよい。斜視点VR画像が生成されていない場合は、多視点画像生成部34は、補助画像のみからなる斜視点画像を生成してもよい。   Next, the multi-viewpoint image generation unit 34 newly generates the front vicinity viewpoint VR image so that the stereoscopic image corresponding to the volume data in the rendering mode after the change can be stereoscopically viewed from the viewpoints A1 to An near the front. A plurality of near-front-view images consisting only of the image are generated (step S323). At this time, if the perspective image VR image based on the volume data is generated in the rendering mode after the change by the multi-viewpoint rendering image generation unit 32, the multi-viewpoint image generation unit 34 performs an auxiliary image on the perspective-point VR image. May be superimposed to further generate a perspective point image. When the squint point VR image is not generated, the multi-viewpoint image generation unit 34 may generate a squint point image including only the auxiliary image.

そして、多視点画像出力部35は、裸眼3Dディスプレイ22に、正面近傍視点画像および斜視点画像からなる多視点画像を出力する(ステップS34)。   Then, the multi-viewpoint image output unit 35 outputs a multi-viewpoint image composed of the near-front viewpoint image and the perspective point image to the naked-eye 3D display 22 (step S34).

以上の手順により、操作パネル55を介してレンダリングモードの変更指示が受け付けられると、変更後のレンダリングモードでボリュームデータをボリュームレンダリングした正面近傍視点画像を生成して裸眼3Dディスプレイに出力することができる。   When an instruction to change the rendering mode is received through the operation panel 55 by the above procedure, a front view viewpoint image in which volume data is volume-rendered in the changed rendering mode can be generated and output to the naked-eye 3D display. .

本実施形態に係る医用画像処理装置10は、裸眼3Dディスプレイ22を用いることにより、ボリュームデータに対応する立体像60の表示領域に対して、補助画像50の表示位置を、3次元空間内で自由に配置することができる。また、本実施形態に示すように補助画像50を、ボリュームデータに対応する立体像60を囲う直方体領域61の側面に配置する場合、図8に示すように、正面近傍認知画像には側面領域63が含まれない。このため、正面近傍認知画像の全ての表示領域は立体像60を表示するために用いることができ、補助画像50が立体像60の表示画像を侵食することがない。したがって、ユーザUは、立体像60をしっかりと観察したい場合は、裸眼3Dディスプレイ22の正面近傍に位置することにより、補助画像50を含まない立体像60を認識することができる。   The medical image processing apparatus 10 according to the present embodiment uses the autostereoscopic 3D display 22 to freely position the auxiliary image 50 in the three-dimensional space with respect to the display area of the stereoscopic image 60 corresponding to the volume data. Can be arranged. Further, when the auxiliary image 50 is arranged on the side surface of the rectangular parallelepiped region 61 surrounding the stereoscopic image 60 corresponding to the volume data as shown in the present embodiment, as shown in FIG. Is not included. For this reason, all the display areas of the front vicinity recognition image can be used to display the stereoscopic image 60, and the auxiliary image 50 does not erode the display image of the stereoscopic image 60. Therefore, when the user U wants to observe the stereoscopic image 60 firmly, the user U can recognize the stereoscopic image 60 that does not include the auxiliary image 50 by being positioned near the front of the naked-eye 3D display 22.

また、ユーザUは、位置を左(または右)にずらすことにより、補助画像50が表示される側面領域63を含む左斜認知画像(または右斜認知画像)を認識することができる。このため、本実施形態に係る医用画像診断装置10によれば、ユーザUは、自らの位置を左(または右)にずらすだけで、補助画像50を視認することができ、補助画像50に対する各種操作を行うことができる。   Further, the user U can recognize the left oblique recognition image (or right oblique recognition image) including the side region 63 on which the auxiliary image 50 is displayed by shifting the position to the left (or right). For this reason, according to the medical image diagnostic apparatus 10 according to the present embodiment, the user U can visually recognize the auxiliary image 50 only by shifting his / her position to the left (or right). The operation can be performed.

したがって、本実施形態に係る医用画像処理装置10によれば、ボリュームデータに対応する立体像60を邪魔しないように補助画像50を表示させることができるとともに、補助画像50を介した立体像60に対する操作を容易に受け付けることができる。   Therefore, according to the medical image processing apparatus 10 according to the present embodiment, the auxiliary image 50 can be displayed so as not to disturb the stereoscopic image 60 corresponding to the volume data, and the stereoscopic image 60 via the auxiliary image 50 can be displayed. Operation can be easily accepted.

また、たとえば左斜認知画像と右斜認知画像の側面領域63に同一の補助画像50を配置した場合、補助画像50に対する入力を行うためのポインタ70の左右方向の移動距離は、画面横幅のほぼ半分以下にできる。また、上下斜認知画像の側面領域63に同一の補助画像50を配置した場合、ポインタ70の移動距離を画面縦幅のほぼ半分以下にできる。この場合、ユーザUは補助画像50に対する入力のためのポインタ70の操作量を減らすことができ、便利である。   Further, for example, when the same auxiliary image 50 is arranged in the side region 63 of the left oblique recognition image and the right oblique recognition image, the movement distance in the left-right direction of the pointer 70 for performing input to the auxiliary image 50 is approximately the horizontal width of the screen. Can be less than half. Further, when the same auxiliary image 50 is arranged in the side region 63 of the up-and-down oblique recognition image, the movement distance of the pointer 70 can be made approximately half or less of the screen vertical width. In this case, the user U can reduce the amount of operation of the pointer 70 for input to the auxiliary image 50, which is convenient.

また、裸眼3Dディスプレイ22に代えて眼鏡式の3Dディスプレイを用いてもよい。裸眼3Dディスプレイ22を用いる場合には、専用の眼鏡を用いる方式の3Dディスプレイで必要とされる眼鏡が不要となるため、術者はめがねの着脱にかかる手間を省くことができる。   Further, instead of the naked-eye 3D display 22, a glasses-type 3D display may be used. When the naked-eye 3D display 22 is used, the eyeglasses required for the 3D display using the dedicated glasses are unnecessary, so that the operator can save time and effort for attaching and detaching the glasses.

また、上記説明では多視点画像生成部34が視点VR画像と補助画像とを重畳する場合の例について示したが、あらかじめ記憶部12に記憶されたボリュームデータに対して補助画像が配置された補助画像付きボリュームデータを作成しておいても良い。この場合、多視点レンダリング画像生成部32により生成された多視点VR画像は、そのまま多視点画像として用いることができ、多視点画像生成部34は不要となる。   In the above description, an example in which the multi-viewpoint image generation unit 34 superimposes the viewpoint VR image and the auxiliary image has been described. However, an auxiliary image in which an auxiliary image is arranged with respect to the volume data stored in the storage unit 12 in advance. Volume data with an image may be created. In this case, the multi-view VR image generated by the multi-view rendering image generation unit 32 can be used as a multi-view image as it is, and the multi-view image generation unit 34 is unnecessary.

また、あらかじめ補助画像付きボリュームデータを作成しておく場合、斜視点画像における補助画像50が、対応する視点においてユーザUに正対するようにしてもよい。この場合、補助画像50がユーザUに正対することにより、側面に貼り付けられた補助画像50が傾いて視認される場合(図8の左斜認知画像や右斜認知画像参照)にくらべ、補助画像50をユーザUにとってより視認しやすくすることができる。   When volume data with an auxiliary image is created in advance, the auxiliary image 50 in the perspective image may face the user U at the corresponding viewpoint. In this case, the auxiliary image 50 faces the user U, so that the auxiliary image 50 attached to the side surface is tilted and visually recognized (see the left oblique recognition image and the right oblique recognition image in FIG. 8). It is possible to make the image 50 more visible to the user U.

また、医用画像処理装置10が位置センサ23からユーザ位置情報が取得可能に構成される場合は、入力受付部31は、ユーザUが上下左右の斜め位置にいるか否かを判定し、斜め位置にいる場合のみ補助画像50を介した入力を受け付け(図9のステップS2からS3への移行を許可し)、正面近傍にいる場合には補助画像50を介した入力を受け付けない(図9のステップS2からS3への移行を禁止する)ようにしてもよい。   When the medical image processing apparatus 10 is configured to be able to acquire user position information from the position sensor 23, the input receiving unit 31 determines whether or not the user U is in an oblique position in the up, down, left, and right directions. The input via the auxiliary image 50 is accepted only when it is present (permission from step S2 to S3 in FIG. 9 is permitted), and the input via the auxiliary image 50 is not accepted when near the front (step in FIG. 9). The transition from S2 to S3 may be prohibited).

また、入力部11の操作に応じて補助画像50の一部または全部を立体表示可能なように、多視点画像生成部34は、補助画像50が含まれる斜視点画像を複数生成してもよい。この場合、多視点画像生成部34は、裸眼3Dディスプレイ22で表示されると補助画像50が立体視可能なように、補助画像50を複数の斜視点からみた複数の視点補助画像を生成するとよい。このとき、多視点画像生成部34は、補助画像50のうちユーザUにより入力部11を介して選択された状態またはユーザUにより選択可能な状態にあるソフトキーなど(以下、選択部分という)があると、この選択部分の情報を入力受付部31から取得し、この補助画像50の選択部分が立体視可能なように、複数の視点補助画像を生成して、複数の視点レンダリング画像のそれぞれと複数の視点補助画像のそれぞれとを重畳して複数の斜視点画像を生成してもよい。この場合、ユーザUは、たとえば操作パネル55の1つのソフトキーにポインタ70をホバーすることにより、このソフトキーの立体視画像を認識することができ、自らが選択しているソフトキーがどのソフトキーであるかを明確に知ることができる。   Further, the multi-viewpoint image generation unit 34 may generate a plurality of perspective point images including the auxiliary image 50 so that a part or all of the auxiliary image 50 can be stereoscopically displayed according to the operation of the input unit 11. . In this case, the multi-viewpoint image generation unit 34 may generate a plurality of viewpoint auxiliary images obtained by viewing the auxiliary image 50 from a plurality of perspective points so that the auxiliary image 50 can be stereoscopically viewed when displayed on the naked-eye 3D display 22. . At this time, the multi-viewpoint image generation unit 34 includes a soft key that is selected by the user U via the input unit 11 in the auxiliary image 50 or is selectable by the user U (hereinafter referred to as a selection portion). If there is, information on the selected portion is acquired from the input receiving unit 31, and a plurality of viewpoint auxiliary images are generated so that the selected portion of the auxiliary image 50 can be viewed stereoscopically. A plurality of perspective point images may be generated by superimposing each of the plurality of viewpoint auxiliary images. In this case, for example, the user U can recognize the stereoscopic image of the soft key by hovering the pointer 70 on one soft key of the operation panel 55, and which soft key is selected by the user U. You can clearly see if it is the key.

また、正面近傍視点画像は1つのVR画像により構成してもよい。このとき、ユーザUの入力部11を介した操作に応じてこのVR画像を回転させるとともに、このVR画像の回転とともに、直方体領域61および直方体領域61の側面に貼り付けられて配置された補助画像50を回転させるとよい。たとえば、ユーザUがポインタ70を用いてVR画像を所定方向にいわゆるドラッグする操作を行うと、多視点画像生成部34は、VR画像が補助画像50とともに回転するように、ユーザUのポインタ70操作に応じて正面近傍視点画像を順次生成する。この場合、ユーザUのポインタ70の操作に応じて、VR画像の回転とともに正面近傍認知画像に対して補助画像50を重畳させることができる。このため、ユーザUは、自らが移動することなく、ポインタ70を操作してVR画像を回転させることにより、補助画像50を必要に応じて正面近傍認知画像の手前に表示させることができる。   Further, the front vicinity viewpoint image may be configured by one VR image. At this time, the VR image is rotated in accordance with an operation via the input unit 11 of the user U, and the auxiliary image arranged and attached to the rectangular parallelepiped region 61 and the side of the rectangular parallelepiped region 61 along with the rotation of the VR image. 50 may be rotated. For example, when the user U performs a so-called dragging operation on the VR image in a predetermined direction using the pointer 70, the multi-viewpoint image generation unit 34 operates the user U with the pointer 70 so that the VR image rotates together with the auxiliary image 50. The near-front viewpoint images are sequentially generated according to the above. In this case, according to the operation of the pointer 70 of the user U, the auxiliary image 50 can be superimposed on the front vicinity recognition image together with the rotation of the VR image. Therefore, the user U can display the auxiliary image 50 in front of the front vicinity recognition image as needed by operating the pointer 70 and rotating the VR image without moving.

図15は、左斜認知画像および右斜認知画像の変形例を示す説明図である。   FIG. 15 is an explanatory diagram illustrating a modified example of the left oblique recognition image and the right oblique recognition image.

多視点画像生成部34は、正面近傍視点画像は正面近傍視点VR画像のみで構成する一方、斜視点画像は補助画像50のみで構成してもよい。このとき、斜視点画像の補助画像50は、対応する視点においてユーザUに正対するようにしてもよい。この場合、図15に示すように、正面近傍認知画像には立体像60のみが含まれ、左右斜認知画像には補助画像50のみが含まれる。また、正面近傍視点VR画像を立体視させずともよい場合は、多視点レンダリング画像生成部32は1つの正面近傍視点VR画像を生成すればよく、同一の正面近傍視点VR画像が視差成分画像として複数の正面近傍視点で観察されてもよい。この場合、正面近傍認知画像は2次元のVR画像としてユーザUに視認される。   The multi-viewpoint image generation unit 34 may be configured with only the near-front viewpoint VR image as the front vicinity viewpoint image, and only the auxiliary image 50 as the perspective image. At this time, the auxiliary image 50 of the perspective point image may face the user U at the corresponding viewpoint. In this case, as illustrated in FIG. 15, only the stereoscopic image 60 is included in the front vicinity recognition image, and only the auxiliary image 50 is included in the left / right oblique recognition image. In addition, when it is not necessary to stereoscopically view the front vicinity viewpoint VR image, the multi-viewpoint rendering image generation unit 32 may generate one front vicinity viewpoint VR image, and the same front vicinity viewpoint VR image is used as the parallax component image. You may observe from a some near front viewpoint. In this case, the front vicinity recognition image is visually recognized by the user U as a two-dimensional VR image.

(第2の実施形態)
次に、本発明に係る3次元画像処理装置および3次元画像処理プログラムの第2実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the 3D image processing apparatus and 3D image processing program according to the present invention will be described.

第2実施形態に係る医用画像処理装置10は、補助画像50が、ボリュームデータに対応する立体像60の背後に配置される点で第1実施形態に係る医用画像処理装置10と異なる。他の構成および作用については図1に示す医用画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。   The medical image processing apparatus 10 according to the second embodiment is different from the medical image processing apparatus 10 according to the first embodiment in that the auxiliary image 50 is disposed behind the stereoscopic image 60 corresponding to the volume data. Since other configurations and operations are not substantially different from those of the medical image processing apparatus 10 shown in FIG. 1, the same components are denoted by the same reference numerals and description thereof is omitted.

図16は、ボリュームデータに対応する立体像60の背後に補助画像50が表示される際の様子の一例を示す説明図である。   FIG. 16 is an explanatory diagram illustrating an example of a state when the auxiliary image 50 is displayed behind the stereoscopic image 60 corresponding to the volume data.

図16に示すように、多視点画像生成部34は、補助画像50がボリュームデータに対応する立体像60の背後に配置されるよう、複数の正面近傍視点VR画像のそれぞれと補助画像50とを重畳して多視点画像を生成してもよい。   As illustrated in FIG. 16, the multi-viewpoint image generation unit 34 combines each of the plurality of front view viewpoint VR images and the auxiliary image 50 so that the auxiliary image 50 is arranged behind the stereoscopic image 60 corresponding to the volume data. A multi-viewpoint image may be generated by superimposing.

この場合、ユーザUは、正面近傍視点から裸眼3Dディスプレイ22を見ると、立体像60の背後に補助画像50が隠れた正面近傍認知画像を認識することになる。したがって、ユーザUは、裸眼3Dディスプレイ22の正面近傍に位置することで、補助画像50にさえぎられることなく立体像60を見ることができる。また、ユーザUが補助画像50に対する操作を所望した場合に備え、ユーザUの入力部11に対する操作やシステムの状態等に応じて、補助画像50と立体像60との前後関係を入れ替える。   In this case, when the user U views the naked-eye 3D display 22 from the front vicinity viewpoint, the user U recognizes the front vicinity recognition image in which the auxiliary image 50 is hidden behind the stereoscopic image 60. Therefore, the user U can view the stereoscopic image 60 without being blocked by the auxiliary image 50 by being positioned in the vicinity of the front of the naked-eye 3D display 22. Further, in preparation for a case where the user U desires an operation on the auxiliary image 50, the front-rear relationship between the auxiliary image 50 and the stereoscopic image 60 is switched according to the operation of the input unit 11 of the user U, the system state, and the like.

補助画像50を立体像60の前面に配置するためのユーザUの入力部11に対する操作としては、たとえば立体像60の表示領域を除く表示領域でポインタ70をクリックする操作や、立体像60の奥に表示された補助画像50に対するクリック操作や、入力部11のキーボード等に対する所定の操作などが挙げられる。また、補助画像50を立体像60の前面に配置するきっかけとなるシステムの状態としては、たとえば所定時間以上ユーザUによる入力部11に対する操作がない場合や、いわゆるスクリーンセーバやスタンバイ状態からの復帰時などが挙げられる。   As an operation on the input unit 11 of the user U for arranging the auxiliary image 50 in front of the stereoscopic image 60, for example, an operation of clicking the pointer 70 in a display area other than the display area of the stereoscopic image 60, Click operation on the auxiliary image 50 displayed on the screen, a predetermined operation on the keyboard of the input unit 11, and the like. The system state that triggers the auxiliary image 50 to be placed in front of the stereoscopic image 60 includes, for example, when the user U has not operated the input unit 11 for a predetermined time or when returning from a so-called screen saver or standby state. Is mentioned.

また、補助画像50を立体像60の前面に配置する際には、補助画像50の透明度を設定して半透明表示とすることにより、補助画像50の裏側に隠れる立体像60を補助画像50越しに視認可能とするとよい。この透明度は、あらかじめ設定されて記憶部12に記憶された設定値を用いてもよいし、ユーザUにより入力部11を介して設定されてもよい。   Further, when the auxiliary image 50 is arranged in front of the stereoscopic image 60, the stereoscopic image 60 hidden behind the auxiliary image 50 is passed through the auxiliary image 50 by setting the transparency of the auxiliary image 50 and making it semi-transparent display. It should be visible. This transparency may be set in advance using a set value stored in the storage unit 12 or may be set by the user U via the input unit 11.

本実施形態に係る医用画像処理装置10によっても、裸眼3Dディスプレイ22を用いることにより、ボリュームデータに対応する立体像60の表示領域に対して、補助画像50の表示位置を、3次元空間内で自由に配置することができる。また、本実施形態に示すように補助画像50を、ボリュームデータに対応する立体像60の背後に配置する場合、図16に示すように、正面近傍認知画像において、補助画像50は立体像60の背後に表示される。このため、本実施形態に係る医用画像処理装置10によっても補助画像50に侵食されない立体像60を観察することができる。   Also by the medical image processing apparatus 10 according to the present embodiment, the display position of the auxiliary image 50 is set in the three-dimensional space with respect to the display area of the stereoscopic image 60 corresponding to the volume data by using the naked eye 3D display 22. It can be arranged freely. In addition, when the auxiliary image 50 is arranged behind the stereoscopic image 60 corresponding to the volume data as shown in the present embodiment, the auxiliary image 50 is the stereoscopic image 60 of the front vicinity recognition image as shown in FIG. Appears behind. Therefore, the stereoscopic image 60 that is not eroded by the auxiliary image 50 can be observed even by the medical image processing apparatus 10 according to the present embodiment.

また、本実施形態に係る医用画像処理装置10は、ユーザUの入力部11に対する操作やシステムの状態等に応じて、補助画像50と立体像60との前後関係を入れ替えることができる。このため、本実施形態に係る医用画像処理装置10によっても、ボリュームデータに対応する立体像60を邪魔しないように補助画像50を表示させることができるとともに、補助画像50を介した立体像60に対する操作を容易に受け付けることができる。   In addition, the medical image processing apparatus 10 according to the present embodiment can exchange the front-rear relationship between the auxiliary image 50 and the stereoscopic image 60 according to the operation of the input unit 11 of the user U, the state of the system, and the like. For this reason, the medical image processing apparatus 10 according to the present embodiment can display the auxiliary image 50 so as not to disturb the stereoscopic image 60 corresponding to the volume data, and the stereoscopic image 60 via the auxiliary image 50 can be displayed. Operation can be easily accepted.

(第3の実施形態)
次に、本発明に係る3次元画像処理装置および3次元画像処理プログラムの第3実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the 3D image processing apparatus and 3D image processing program according to the present invention will be described.

第3実施形態に係る医用画像処理装置10は、補助画像50およびボリュームデータに対応する立体像60が、1つの画面の分割領域内に配置される点で医用画像処理装置10と異なる。他の構成および作用については図1に示す医用画像処理装置10と実質的に異ならないため、同じ構成には同一符号を付して説明を省略する。   The medical image processing apparatus 10 according to the third embodiment is different from the medical image processing apparatus 10 in that the auxiliary image 50 and the stereoscopic image 60 corresponding to the volume data are arranged in a divided area of one screen. Since other configurations and operations are not substantially different from those of the medical image processing apparatus 10 shown in FIG. 1, the same components are denoted by the same reference numerals and description thereof is omitted.

図17は、正面近傍認知画像が、所定の画面レイアウトに応じて1つの画面の分割領域内に補助画像50および立体像60が表示される様子の一例を示す説明図である。図17には、1つの画面が、立体像60を表示するための主画像領域81と、補助画像50の操作パネル55を表示するための補助領域82と、他のレンダリングモードによる画像などのその他の画像を表示するための副画像領域83と、に分割される場合の例について示した。なお、主画像領域81に表示される画像は、立体像60でなくてもよく、二次元のVR画像であってもよい。   FIG. 17 is an explanatory diagram illustrating an example of how the auxiliary image 50 and the three-dimensional image 60 are displayed in a divided area of one screen of the front vicinity recognition image according to a predetermined screen layout. In FIG. 17, one screen has a main image area 81 for displaying the stereoscopic image 60, an auxiliary area 82 for displaying the operation panel 55 of the auxiliary image 50, and other images such as images in other rendering modes. The example in the case of being divided into the sub-image area 83 for displaying the image of the above is shown. Note that the image displayed in the main image area 81 may not be the stereoscopic image 60 but may be a two-dimensional VR image.

図17に示すように、多視点画像生成部34が、1つの画面の分割領域内に補助画像50および立体像60が表示されるように正面近傍視点画像を作成した場合、立体像60が表示される領域(主画像領域81)は、他の表示領域(補助領域82および副画像領域83)により侵食されてしまう。   As shown in FIG. 17, when the multi-viewpoint image generation unit 34 creates a near-front viewpoint image so that the auxiliary image 50 and the three-dimensional image 60 are displayed in a divided area of one screen, the three-dimensional image 60 is displayed. The area to be displayed (main image area 81) is eroded by other display areas (auxiliary area 82 and sub-image area 83).

そこで、入力受付部31によりポインタ70が立体像60にホバーされたことが検知されると、多視点画像生成部34は、立体像60の表示サイズを拡大した拡大立体像60bを含む正面近傍視点画像を再生成する(図17左下参照)。また、入力受付部31によりポインタ70が補助領域82にホバーされたことが検知されると、多視点画像生成部34は、補助領域82の操作パネル55の表示サイズを拡大した拡大補助画像50aを含む正面近傍視点画像を再生成する(図17右下参照)。また、多視点画像生成部34は、操作パネル55を拡大する際に、操作パネル55を立体視可能なように複数の正面近傍視点画像を生成してもよい。   Therefore, when the input receiving unit 31 detects that the pointer 70 has been hovered over the stereoscopic image 60, the multi-viewpoint image generation unit 34 includes a magnified stereoscopic image 60b in which the display size of the stereoscopic image 60 is enlarged. The image is regenerated (see the lower left in FIG. 17). When the input receiving unit 31 detects that the pointer 70 has been hovered over the auxiliary area 82, the multi-viewpoint image generating unit 34 displays an enlarged auxiliary image 50 a in which the display size of the operation panel 55 in the auxiliary area 82 is enlarged. The front vicinity viewpoint image including the image is regenerated (see the lower right in FIG. 17). Further, when the operation panel 55 is enlarged, the multi-viewpoint image generation unit 34 may generate a plurality of near-front viewpoint images so that the operation panel 55 can be stereoscopically viewed.

本実施形態に係る医用画像処理装置10によれば、1つの画面の分割領域内に補助画像50および立体像60が表示される場合であっても、ユーザUの操作に応じて、適宜立体像60や補助画像50を拡大表示することができる。このため、本実施形態に係る医用画像処理装置10によっても、ボリュームデータに対応する立体像60を邪魔しないように補助画像50を表示させることができるとともに、補助画像50を介した立体像60に対する操作を容易に受け付けることができる。   According to the medical image processing apparatus 10 according to the present embodiment, even when the auxiliary image 50 and the three-dimensional image 60 are displayed in a divided area of one screen, the three-dimensional image is appropriately displayed according to the operation of the user U. 60 and the auxiliary image 50 can be enlarged and displayed. For this reason, the medical image processing apparatus 10 according to the present embodiment can display the auxiliary image 50 so as not to disturb the stereoscopic image 60 corresponding to the volume data, and the stereoscopic image 60 via the auxiliary image 50 can be displayed. Operation can be easily accepted.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。   Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.

10 医用画像処理装置
11 入力部
12 記憶部
13 ネットワーク接続部
14 制御部
20 モダリティ
21 ネットワーク
22 裸眼3Dディスプレイ
23 位置センサ
31 入力受付部
31a ポインタ管理部
32 多視点レンダリング画像生成部
33 補助画像生成部
34 多視点画像生成部
35 多視点画像出力部
36 ユーザ位置情報取得部
50 補助画像
60 立体像
61 直方体領域
62 正面領域
63 側面領域
70 ポインタ
81 主画像領域
82 補助領域
83 副画像領域
DESCRIPTION OF SYMBOLS 10 Medical image processing apparatus 11 Input part 12 Storage part 13 Network connection part 14 Control part 20 Modality 21 Network 22 Autostereoscopic 3D display 23 Position sensor 31 Input reception part 31a Pointer management part 32 Multi-viewpoint rendering image generation part 33 Auxiliary image generation part 34 Multi-viewpoint image generation unit 35 Multi-viewpoint image output unit 36 User position information acquisition unit 50 Auxiliary image 60 Three-dimensional image 61 Cuboid region 62 Front region 63 Side region 70 Pointer 81 Main image region 82 Auxiliary region 83 Sub-image region

Claims (13)

ボリュームデータにもとづいて複数の視点でボリュームレンダリングを行うことにより、複数の視点レンダリング画像を生成する多視点レンダリング画像生成部と、
ソフトキーの画像、付帯情報を示す画像その他の補助画像を生成する補助画像生成部と、
前記補助画像が前記ボリュームデータに対応する立体像を囲う3次元領域の前面を除く周囲の所定の位置に配置されるよう、前記視点レンダリング画像と前記補助画像とを重畳した視点画像を含む複数の視点画像を生成する多視点画像生成部と、
前記複数の視点画像のそれぞれを視差成分画像として異なる方向に射出する裸眼3Dディスプレイ装置に、前記複数の視点画像を出力する多視点画像出力部と、
を備えた3次元画像処理装置。
A multi-viewpoint rendering image generation unit that generates a plurality of viewpoint rendering images by performing volume rendering from a plurality of viewpoints based on the volume data;
An auxiliary image generation unit that generates an image of a soft key, an image indicating auxiliary information, and other auxiliary images;
A plurality of viewpoint images including a viewpoint image in which the viewpoint rendering image and the auxiliary image are superimposed so that the auxiliary image is disposed at a predetermined peripheral position excluding the front surface of a three-dimensional region surrounding the stereoscopic image corresponding to the volume data. A multi-viewpoint image generation unit for generating a viewpoint image;
A multi-viewpoint image output unit that outputs the plurality of viewpoint images to a naked-eye 3D display device that emits each of the plurality of viewpoint images as parallax component images in different directions;
A three-dimensional image processing apparatus.
前記多視点画像生成部は、
前記複数の視点レンダリング画像のうち正面近傍視点レンダリング画像には前記補助画像を重畳させずに正面近傍視点画像を生成する一方、前記正面近傍の視点の前記視点レンダリング画像を除く斜視点レンダリング画像には前記補助画像を重畳して斜視点画像を生成し、
前記多視点画像出力部は、
前記裸眼3Dディスプレイ装置が、正面近傍方向に前記正面近傍視点画像を射出し、前記正面近傍方向を除く方向に前記斜視点画像を射出するよう、前記裸眼3Dディスプレイ装置に前記複数の視点画像を出力する、
請求項1記載の3次元画像処理装置。
The multi-viewpoint image generation unit
While generating the front vicinity viewpoint image without superimposing the auxiliary image on the front vicinity viewpoint rendering image among the plurality of viewpoint rendering images, the perspective view rendering image excluding the viewpoint rendering image of the viewpoint near the front is used. A perspective image is generated by superimposing the auxiliary image,
The multi-viewpoint image output unit
The naked-eye 3D display device outputs the plurality of viewpoint images to the naked-eye 3D display device so that the near-front viewpoint image is emitted in a direction near the front and the perspective point image is emitted in a direction other than the near-front direction. To
The three-dimensional image processing apparatus according to claim 1.
前記多視点画像生成部は、
前記補助画像が前記ボリュームデータに対応する立体像を囲う直方体領域の側面に貼り付けて配置されるよう、前記複数の視点レンダリング画像のうち前記斜視点レンダリング画像と前記補助画像とを重畳する、
請求項2記載の3次元画像処理装置。
The multi-viewpoint image generation unit
Superimposing the perspective-point rendering image and the auxiliary image among the plurality of viewpoint rendering images so that the auxiliary image is disposed on a side surface of a rectangular parallelepiped region surrounding the stereoscopic image corresponding to the volume data;
The three-dimensional image processing apparatus according to claim 2.
前記裸眼3Dディスプレイ装置に表示されたポインタの3次元座標を取得し、前記補助画像に対する入力を受け付けるポインタ管理部、
をさらに備えた、
請求項1ないし3のいずれか1項に記載の3次元画像処理装置。
A pointer management unit that acquires the three-dimensional coordinates of the pointer displayed on the naked-eye 3D display device and receives an input to the auxiliary image;
Further equipped with,
The three-dimensional image processing apparatus according to any one of claims 1 to 3.
前記多視点レンダリング画像生成部は、
ユーザにより入力部を介して前記補助画像を介したレンダリングモードの変更指示が受け付けられると、前記ボリュームデータにもとづいて前記正面近傍の視点で変更後のレンダリングモードによりボリュームレンダリングを行い、新たに複数の視点レンダリング画像を生成し、
前記多視点画像生成部は、
前記変更後のレンダリングモードによる前記ボリュームデータに対応する前記立体像が前記正面近傍の視点で立体視可能なように、新たに生成された視点レンダリング画像のみからなる前記正面近傍視点画像を複数生成する、
請求項1ないし4のいずれか1項に記載の3次元画像処理装置。
The multi-viewpoint rendered image generation unit
When an instruction to change the rendering mode via the auxiliary image is received by the user via the input unit, volume rendering is performed in the rendering mode after the change from the viewpoint near the front based on the volume data, and a plurality of new rendering modes are newly created. Generate perspective rendering images,
The multi-viewpoint image generation unit
Generating a plurality of near-front viewpoint images consisting only of newly generated viewpoint rendering images so that the stereoscopic image corresponding to the volume data in the changed rendering mode can be stereoscopically viewed from the near-viewpoint; ,
The three-dimensional image processing apparatus according to any one of claims 1 to 4.
前記多視点レンダリング画像生成部は、
ユーザにより入力部を介して前記補助画像に含まれた複数のサムネイル画像の1つに対する選択が受け付けられると、前記選択されたサムネイル画像に対応する立体像が前記正面近傍の視点で立体視可能なように、前記選択されたサムネイル画像に対応する前記複数の視点レンダリング画像を生成し、
前記多視点画像生成部は、
前記選択されたサムネイル画像に対応する立体像が前記正面近傍の視点で立体視可能なように、前記選択されたサムネイル画像に対応する視点レンダリング画像のみからなる前記正面近傍視点画像を複数生成する、
請求項1ないし5のいずれか1項に記載の3次元画像処理装置。
The multi-viewpoint rendered image generation unit
When the user receives a selection for one of the plurality of thumbnail images included in the auxiliary image via the input unit, the stereoscopic image corresponding to the selected thumbnail image can be stereoscopically viewed from the viewpoint near the front. And generating the plurality of viewpoint rendering images corresponding to the selected thumbnail images,
The multi-viewpoint image generation unit
Generating a plurality of near-front viewpoint images consisting only of viewpoint rendering images corresponding to the selected thumbnail image so that a stereoscopic image corresponding to the selected thumbnail image can be stereoscopically viewed from a viewpoint near the front;
The three-dimensional image processing apparatus according to any one of claims 1 to 5.
前記多視点画像生成部は、
前記補助画像が前記ボリュームデータに対応する立体像の背後に配置されるよう、前記複数の視点レンダリング画像のそれぞれと前記補助画像とを重畳して前記複数の視点画像を生成する、
請求項1記載の3次元画像処理装置。
The multi-viewpoint image generation unit
Generating the plurality of viewpoint images by superimposing each of the plurality of viewpoint rendering images and the auxiliary image so that the auxiliary image is arranged behind a stereoscopic image corresponding to the volume data;
The three-dimensional image processing apparatus according to claim 1.
前記多視点画像生成部は、
ユーザによる入力部を介した指示に応じて、前記視点画像における前記補助画像と前記視点レンダリング画像の前後関係を変更するとともに、前記補助画像を前記視点レンダリング画像の前面に表示する際は前記補助画像を半透明画像とする、
請求項7記載の3次元画像処理装置。
The multi-viewpoint image generation unit
In response to an instruction from the user via the input unit, the front-rear relationship between the auxiliary image and the viewpoint rendering image in the viewpoint image is changed, and the auxiliary image is displayed when the auxiliary image is displayed in front of the viewpoint rendering image. A translucent image,
The three-dimensional image processing apparatus according to claim 7.
前記多視点画像生成部は、
ユーザによる入力部に対する操作が所定時間以上行われないと、前記視点画像における前記補助画像を前記視点レンダリング画像の前面に表示するとともに前記補助画像を半透明画像とする、
請求項7記載の3次元画像処理装置。
The multi-viewpoint image generation unit
When an operation on the input unit by the user is not performed for a predetermined time or more, the auxiliary image in the viewpoint image is displayed in front of the viewpoint rendering image and the auxiliary image is a translucent image.
The three-dimensional image processing apparatus according to claim 7.
前記多視点画像生成部は、
前記複数の視点画像のうち、正面近傍視点画像の所定の表示領域に前記視点レンダリング画像を配置するとともに前記正面近傍視点画像の他の表示領域に前記補助画像を配置し、ユーザにより入力部を介して前記視点レンダリング画像が選択されるとこの視点レンダリング画像を拡大表示するよう前記正面近傍視点画像を再度生成する一方、ユーザにより入力部を介して前記補助画像が選択されるとこの補助画像を拡大表示するよう前記正面近傍視点画像を再度生成する、
請求項1記載の3次元画像処理装置。
The multi-viewpoint image generation unit
Among the plurality of viewpoint images, the viewpoint rendering image is arranged in a predetermined display area of the front vicinity viewpoint image and the auxiliary image is arranged in another display area of the front vicinity viewpoint image. When the viewpoint rendering image is selected, the near-front viewpoint image is generated again so as to enlarge the viewpoint rendering image. On the other hand, when the auxiliary image is selected by the user via the input unit, the auxiliary image is enlarged. Re-generating the near-front perspective image to display,
The three-dimensional image processing apparatus according to claim 1.
前記多視点画像生成部は、
前記裸眼3Dディスプレイ装置で表示されると前記補助画像が立体視可能なように、前記補助画像を複数の視点からみた複数の視点補助画像を生成して前記複数の視点レンダリング画像のそれぞれと前記複数の視点補助画像のそれぞれとを重畳する、
請求項1ないし10のいずれか1項に記載の3次元画像処理装置。
The multi-viewpoint image generation unit
A plurality of viewpoint auxiliary images obtained by viewing the auxiliary image from a plurality of viewpoints so that the auxiliary image can be stereoscopically viewed when displayed on the naked-eye 3D display device, and each of the plurality of viewpoint rendering images and the plurality of viewpoint rendering images are displayed. Superimposing each of the viewpoint auxiliary images of
The three-dimensional image processing apparatus according to any one of claims 1 to 10.
前記多視点画像生成部は、
前記補助画像のうちユーザにより入力部を介して選択された状態または選択可能な状態にあるものについて立体視可能なように、前記複数の視点補助画像を生成して、記複数の視点レンダリング画像のそれぞれと前記複数の視点補助画像のそれぞれとを重畳する、
請求項11記載の3次元画像処理装置。
The multi-viewpoint image generation unit
The plurality of viewpoint auxiliary images are generated so that the auxiliary images can be stereoscopically viewed in a state selected by the user via the input unit or in a selectable state. Superimposing each and each of the plurality of viewpoint auxiliary images,
The three-dimensional image processing apparatus according to claim 11.
コンピュータに、
ボリュームデータにもとづいて複数の視点でボリュームレンダリングを行うことにより、複数の視点レンダリング画像を生成するステップと、
ソフトキーの画像、付帯情報を示す画像その他の補助画像を生成するステップと、
前記補助画像が前記ボリュームデータに対応する立体像を囲う3次元領域の前面を除く周囲に配置されるよう、前記視点レンダリング画像と前記補助画像とを重畳した複数の視点画像を含む複数の視点画像を生成するステップと、
前記多視点画像のそれぞれを異なる方向に射出する裸眼3Dディスプレイ装置に、前記複数の視点画像を出力するステップと、
を実行させるための3次元画像処理プログラム。
On the computer,
Generating a plurality of viewpoint rendering images by performing volume rendering from a plurality of viewpoints based on the volume data;
Generating a soft key image, an image showing supplementary information, and other auxiliary images;
A plurality of viewpoint images including a plurality of viewpoint images obtained by superimposing the viewpoint rendering image and the auxiliary image so that the auxiliary image is arranged around the three-dimensional region surrounding the stereoscopic image corresponding to the volume data, excluding the front surface. A step of generating
Outputting the plurality of viewpoint images to a naked-eye 3D display device that emits each of the multi-viewpoint images in different directions;
3D image processing program for executing
JP2011108581A 2011-05-13 2011-05-13 Three-dimensional image processing device and three-dimensional image processing program Withdrawn JP2012238289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011108581A JP2012238289A (en) 2011-05-13 2011-05-13 Three-dimensional image processing device and three-dimensional image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011108581A JP2012238289A (en) 2011-05-13 2011-05-13 Three-dimensional image processing device and three-dimensional image processing program

Publications (1)

Publication Number Publication Date
JP2012238289A true JP2012238289A (en) 2012-12-06

Family

ID=47461098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011108581A Withdrawn JP2012238289A (en) 2011-05-13 2011-05-13 Three-dimensional image processing device and three-dimensional image processing program

Country Status (1)

Country Link
JP (1) JP2012238289A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181949A1 (en) * 2021-02-25 2022-09-01 삼성전자 주식회사 Electronic device for providing ar/vr environment, and operation method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181949A1 (en) * 2021-02-25 2022-09-01 삼성전자 주식회사 Electronic device for providing ar/vr environment, and operation method thereof

Similar Documents

Publication Publication Date Title
JP6038583B2 (en) 3D image processing device
JP5808146B2 (en) Image processing system, apparatus and method
JP5306422B2 (en) Image display system, apparatus, method, and medical image diagnostic apparatus
JP5167439B1 (en) Stereoscopic image display apparatus and stereoscopic image display method
JP5871705B2 (en) Image display apparatus, method and program
US20020047835A1 (en) Image display apparatus and method of displaying image data
JP6147464B2 (en) Image processing system, terminal device and method
JP5972533B2 (en) Image processing system and method
JP2006229725A (en) Image generation system and image generating method
JP2006203668A (en) Image creation system and image creation method
JP2015154091A (en) Image processing method, image processing device and electronic apparatus
JP5802767B2 (en) Image processing apparatus, stereoscopic image display apparatus, and image processing method
CN102892022A (en) Image processing system, image processing apparatus, and image processing method
CN102833570B (en) Image processing system, apparatus and method
JP2013009864A (en) Three-dimensional image processing device
JP2012238289A (en) Three-dimensional image processing device and three-dimensional image processing program
JP2013214884A (en) Image processing device, method, program, and stereoscopic image display device
JP2013168781A (en) Display device
US9020219B2 (en) Medical image processing apparatus
US20150234196A1 (en) Image display apparatus, lenticular lens, and image display method
JP5832990B2 (en) Image display system
JP5835980B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5868051B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP2014197776A (en) Display device and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805