JP2012252650A - Three dimensional display processing system - Google Patents

Three dimensional display processing system Download PDF

Info

Publication number
JP2012252650A
JP2012252650A JP2011126656A JP2011126656A JP2012252650A JP 2012252650 A JP2012252650 A JP 2012252650A JP 2011126656 A JP2011126656 A JP 2011126656A JP 2011126656 A JP2011126656 A JP 2011126656A JP 2012252650 A JP2012252650 A JP 2012252650A
Authority
JP
Japan
Prior art keywords
sight
image
display
processing system
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011126656A
Other languages
Japanese (ja)
Other versions
JP5788228B2 (en
Inventor
Satoru Oishi
悟 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011126656A priority Critical patent/JP5788228B2/en
Publication of JP2012252650A publication Critical patent/JP2012252650A/en
Application granted granted Critical
Publication of JP5788228B2 publication Critical patent/JP5788228B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To indicate an attention point three-dimensionally on an image which is viewed as a stereoscopic vision by a three dimensional display device 30 in a three dimensional display processing system.SOLUTION: A three dimensional display processing system 1 comprises: a reference image generation part 42 that performs rendering processing for volume data including a specimen image and that generates first three-dimensional image data corresponding to plural lines of sight; an operation device 10 by which an operator sets and operates a position on a plane of projection at right angles to a central line of sight of plural lines of sight and a position of a direction of the center line of sight; an image generation part for plane position settlement 44, which generates second three-dimensional image data that corresponds to the plural lines of sight and in which a cursor image is placed on the basis of the plane of projection position; and a three dimensional display device 30 that performs a three dimensional display on the basis of the first three-dimensional image data corresponding to plural lines of sight or the second three-dimensional image data corresponding to plural lines of sight.

Description

本発明の一態様としての実施形態は、多視差画像を用いて3D表示(3次元表示、立体表示)を行なう場合に適用される3D表示処理システムに関する。   An embodiment as one aspect of the present invention relates to a 3D display processing system applied when 3D display (three-dimensional display, stereoscopic display) is performed using a multi-parallax image.

今日、多視差画像(例えば、9視差画像)を用いて3D表示を行なう技術が開発され、医療業界においても、複数視線に相当する複数のレンダリング画像を用いて3D表示を行なう技術のニーズ技術が高まってきている。3D表示を行なう技術では、裸眼式(パララックスバリア方式及びレンチキュラーレンズ方式等)や、眼鏡式(アナグリフ方式、フレームシーケンシャル方式、及び偏光方式等)が採用される。   Today, a technology for performing 3D display using a multi-parallax image (for example, 9 parallax images) has been developed. In the medical industry, there is a need technology for a technology for performing 3D display using a plurality of rendering images corresponding to a plurality of lines of sight. It is increasing. As a technique for performing 3D display, a naked eye type (such as a parallax barrier method and a lenticular lens method) or a glasses type (such as an anaglyph method, a frame sequential method, and a polarization method) is employed.

裸眼式では、レンチキュラーレンズ等の光線制御子を用いて、複数視点で撮影された多視差画像を裸眼にて立体視可能なシステムが実用化されている。眼鏡式では、立体視用眼鏡等の専用機器を用いて、2つの視点から撮影された2視差画像(両眼視差画像)を立体視可能なシステムが実用化されている。なお、立体視可能な3D表示装置にて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。   In the autostereoscopic system, a system capable of stereoscopically viewing multi-parallax images taken from a plurality of viewpoints with the naked eye using a light controller such as a lenticular lens has been put into practical use. In the glasses type, a system capable of stereoscopically viewing a two-parallax image (binocular parallax image) taken from two viewpoints using a dedicated device such as stereoscopic glasses has been put into practical use. Note that a 2-parallax image or a 9-parallax image displayed on a stereoscopically viewable 3D display device is generated by estimating depth information of an image captured from one viewpoint and using image processing using the estimated information. There is also.

なお、従来技術として、生成されたレンダリング画像を表示エリアに表示し、表示エリア上の所定位置にマークをレンダリング画像上に重ねて表示する技術がある(例えば、特許文献1参照。)。   As a conventional technique, there is a technique in which a generated rendering image is displayed in a display area, and a mark is displayed so as to be superimposed on the rendering image at a predetermined position on the display area (see, for example, Patent Document 1).

特開2011−36474号公報JP 2011-36474 A

裸眼式を採用して3D表示を行なう場合、3D表示用の表示装置が必要である。そして、観察者が表示装置上のカーソルの操作を行なっても、表示装置の表示面に直接にカーソルが表示されてしまうという問題がある。表示装置によって表示される画像は観察者には3Dとして見えているので、観察者は、カーソルを、見えている3D上の点に合わせたくても、3D上の点に合わせることはできない。従来のインターフェースでは、奥行方向(表示装置の垂線方向)は表現できず、2Dでしか表現できないためである。   When 3D display is performed using the naked eye type, a display device for 3D display is required. And even if an observer operates the cursor on a display apparatus, there exists a problem that a cursor will be directly displayed on the display surface of a display apparatus. Since the image displayed by the display device is visible to the viewer as 3D, the viewer cannot match the point on the 3D even if he wants the cursor to be positioned on the visible 3D. This is because the conventional interface cannot express the depth direction (the vertical direction of the display device) and can only express it in 2D.

また、眼鏡式を採用して3D表示を行なう場合も同様に、表示装置の表示面に直接にカーソルが表示されてしまうという問題がある。   Similarly, when 3D display is performed using a glasses type, there is a problem that the cursor is displayed directly on the display surface of the display device.

本実施形態の3D表示処理システムは、上述した課題を解決するために、被検体像を含むボリュームデータに対してレンダリング処理を行なって複数視線に対応する第1の3次元画像データを生成する第1画像生成手段と、操作者が前記複数視線の中心視線に直交する投影面上の位置及び中心視線の方向の位置を設定操作するための操作手段と、前記投影面上の位置に基づいてカーソル像を配置した複数視線に対応する第2の3次元画像データを生成する第2画像生成手段と、前記複数視線に対応する第1の3次元画像データ、または、前記複数視線に対応する第2の3次元画像データに基づいて3D表示を行なう表示手段と、を有する。   In order to solve the above-described problem, the 3D display processing system of the present embodiment performs a rendering process on volume data including a subject image to generate first three-dimensional image data corresponding to a plurality of lines of sight. One image generating means, an operating means for an operator to set and operate a position on the projection plane orthogonal to the central line of sight of the plurality of lines of sight and a position in the direction of the center line of sight, and a cursor based on the position on the projection plane Second image generation means for generating second 3D image data corresponding to a plurality of lines of sight in which an image is arranged, and first 3D image data corresponding to the plurality of lines of sight, or second corresponding to the plurality of lines of sight. Display means for performing 3D display based on the three-dimensional image data.

第1実施形態の3D表示処理システムを示す概略図。Schematic which shows the 3D display processing system of 1st Embodiment. 第1実施形態の3D表示処理システムに備える操作装置の構造を示す概略図。Schematic which shows the structure of the operating device with which the 3D display processing system of 1st Embodiment is equipped. (a)は、第1実施形態の3D表示処理システムに備える3D表示装置の構造を示す概略図であり、(b)は、図3(a)に示すI−I断面図。(A) is the schematic which shows the structure of the 3D display apparatus with which the 3D display processing system of 1st Embodiment is equipped, (b) is II sectional drawing shown to Fig.3 (a). 第1実施形態の3D表示処理システムの構成を示すブロック図。The block diagram which shows the structure of the 3D display processing system of 1st Embodiment. 第1実施形態の3D表示処理システムの機能を示すブロック図。The block diagram which shows the function of the 3D display processing system of 1st Embodiment. 基準モード及び立体位置確定モードにおいて、立体視される被検体像の違いを説明するための図。The figure for demonstrating the difference in the to-be-viewed subject image in a reference | standard mode and a solid-position determination mode. カーソル像の配置を説明するための図。The figure for demonstrating arrangement | positioning of a cursor image. 立体視される、カーソル像を含む画像を模式的に示す図。The figure which shows typically the image containing the cursor image seen stereoscopically. 第2実施形態の3D表示処理システムの機能を示すブロック図。The block diagram which shows the function of the 3D display processing system of 2nd Embodiment. 立体視される、カーソル像を含む画像を模式的に示す図。The figure which shows typically the image containing the cursor image seen stereoscopically. (a),(b)は、複数視線のレンダリング画像の表示方法の第1例を説明するための図。(A), (b) is a figure for demonstrating the 1st example of the display method of the rendering image of multiple eyes | visual_axis. (a),(b)は、複数視線のレンダリング画像の表示方法の第2例を説明するための図。(A), (b) is a figure for demonstrating the 2nd example of the display method of the rendering image of multiple eyes | visual_axis. 複数視線のレンダリング画像の表示レイアウトの第1例を説明するための図。The figure for demonstrating the 1st example of the display layout of the rendering image of multiple eyes | visual_axis. 複数視線のレンダリング画像の表示レイアウトの第2例を説明するための図。The figure for demonstrating the 2nd example of the display layout of the rendering image of multiple eyes | visual_axis.

本実施形態の3D表示処理システムについて、添付図面を参照して説明する。
(第1実施形態)
The 3D display processing system of this embodiment will be described with reference to the accompanying drawings.
(First embodiment)

図1は、第1実施形態の3D表示処理システムを示す概略図である。   FIG. 1 is a schematic diagram illustrating a 3D display processing system according to the first embodiment.

図1は、第1実施形態の3D表示処理システム1を示す。3D表示処理システム1は、光線制御子を用いることで、多視差画像、例えば、9視差画像を観察者が裸眼にて立体視可能である構成である。3D表示処理システム1は、両眼視差による立体視を可能とし、さらに、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能である。3D表示処理システム1は、操作装置(リモートコントローラ)10、画像処理装置20、及び3D表示装置30を備える。   FIG. 1 shows a 3D display processing system 1 of the first embodiment. The 3D display processing system 1 has a configuration in which a viewer can stereoscopically view a multi-parallax image, for example, a 9-parallax image with the naked eye by using a light beam controller. The 3D display processing system 1 enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer. The 3D display processing system 1 includes an operation device (remote controller) 10, an image processing device 20, and a 3D display device 30.

操作装置10は、画像処理装置20との間で相互に通信(例えば、bluetoothに代表される無線通信)可能なように構成される。画像処理装置20は、3D表示装置30との間で相互に通信可能なように構成される。   The operation device 10 is configured to be able to communicate with the image processing device 20 (for example, wireless communication typified by Bluetooth). The image processing device 20 is configured to be able to communicate with the 3D display device 30.

図2は、第1実施形態の3D表示処理システム1に備える操作装置10の構造を示す概略図である。   FIG. 2 is a schematic diagram illustrating a structure of the operation device 10 provided in the 3D display processing system 1 of the first embodiment.

図2に示す操作装置10は、操作部11及びデータ送受信部12を備える。操作部11は、例えば、ボタン11a及び十字ボタン11bを備える。また、操作部11は、ボタン11a及び十字ボタン11bの代わりに、または、同時にホイール等を備えてもよい。   2 includes an operation unit 11 and a data transmission / reception unit 12. The operation unit 11 includes, for example, a button 11a and a cross button 11b. The operation unit 11 may include a wheel or the like instead of the button 11a and the cross button 11b or simultaneously.

ボタン11aは、操作装置10の本体に対して方向vに押圧・押圧解除が可能な構造を有する。   The button 11 a has a structure that can be pressed and released in the direction v with respect to the main body of the operating device 10.

十字ボタン11bは、上下左右に配置された4個のスイッチがあり、その上を十文字のカバーが覆っている。十字の中心には支点があり、カバーがシーソーのように方向vに動くことで、上下または左右のスイッチが同時に押せないようになっている。なお、ボタン11a及び十字ボタン11bは、一体の構造であってもよい。   The cross button 11b has four switches arranged on the top, bottom, left, and right, and a cross-shaped cover covers the switches. There is a fulcrum at the center of the cross, and the cover moves in the direction v like a seesaw so that the up / down or left / right switches cannot be pressed simultaneously. The button 11a and the cross button 11b may have an integral structure.

データ送受信部12は、3D表示装置30の観察者(操作者)によって操作部11が操作されると、操作信号を無線または有線で画像処理装置20に送信する。   When the operation unit 11 is operated by an observer (operator) of the 3D display device 30, the data transmission / reception unit 12 transmits an operation signal to the image processing device 20 wirelessly or by wire.

図3(a)は、第1実施形態の3D表示処理システム1に備える3D表示装置30の構造を示す概略図である。図3(b)は、図3(a)に示すI−I断面図である。   FIG. 3A is a schematic diagram illustrating a structure of the 3D display device 30 provided in the 3D display processing system 1 of the first embodiment. FIG. 3B is a cross-sectional view taken along the line II shown in FIG.

図3(a),(b)に示す3D表示装置30は、画像の表示に加え、外光の照度を検知することが可能なディスプレイ、例えば液晶ディスプレイである。3D表示装置30は、バックライト31、液晶パネル(液晶シャッタ)32、及び凸レンズアレイ33を備える。なお、3D表示装置30は、液晶ディスプレイに限定されるものではなく、有機EL(electro luminescence)ディスプレイや、プラズマディスプレイ等であってもよい。
3D表示装置30のバックライト31は、複数の白色LED(light emitting diode)を含んでおり、液晶パネル32の背面に配置される。バックライト31は、バックライト駆動回路34(図4に図示)から電源電圧が印加されると点灯し、液晶パネル32に光を照明する。なお、バックライト31は、白色LEDに限定されるものではなく、他の色のLEDを含んでいてもよい。また、バックライト31は、LEDに代えて、例えば、冷陰極管(CCFL:cold cathode fluorescent lamp)を含むものであってもよい。
A 3D display device 30 shown in FIGS. 3A and 3B is a display capable of detecting the illuminance of external light in addition to displaying an image, for example, a liquid crystal display. The 3D display device 30 includes a backlight 31, a liquid crystal panel (liquid crystal shutter) 32, and a convex lens array 33. Note that the 3D display device 30 is not limited to a liquid crystal display, and may be an organic EL (Electro Luminescence) display, a plasma display, or the like.
The backlight 31 of the 3D display device 30 includes a plurality of white LEDs (light emitting diodes) and is disposed on the back surface of the liquid crystal panel 32. The backlight 31 is turned on when a power supply voltage is applied from a backlight drive circuit 34 (shown in FIG. 4), and illuminates the liquid crystal panel 32. Note that the backlight 31 is not limited to white LEDs, and may include LEDs of other colors. Further, the backlight 31 may include, for example, a cold cathode fluorescent lamp (CCFL) instead of the LED.

液晶パネル32は、液晶パネル32の水平方向(x方向)及び上下方向(y方向)にマトリクス状に複数備えられるピクセルPを有する。ピクセルPは、偏光板Pa、ガラス基板Pb、画素電極(透明導電膜)Pc、配向膜Pd、液晶Pe、対向電極(透明導電膜)Pf、カラーフィルタPg、及び光センサPhを備える。   The liquid crystal panel 32 includes a plurality of pixels P provided in a matrix in the horizontal direction (x direction) and the vertical direction (y direction) of the liquid crystal panel 32. The pixel P includes a polarizing plate Pa, a glass substrate Pb, a pixel electrode (transparent conductive film) Pc, an alignment film Pd, a liquid crystal Pe, a counter electrode (transparent conductive film) Pf, a color filter Pg, and an optical sensor Ph.

ピクセルPには、液晶パネル32のx方向に、複数視線、例えば9個の視線に相当する絵素が配列される。絵素には、絵素の配列方向に垂直な方向であるy方向に、R(red)、G(green)及びB(blue)の各カラーフィルタPgが配列されることで、RGBの各画素が形成される。なお、絵素の配列方向は、液晶パネル32のx方向に限定されるものではない。また、RGBの表面(xy面)形状は、長方形に限定されるのもではない。例えば、RBの表面形状が右(または左)に傾斜した平行四辺形であり、かつ、Gの表面形状が逆に左(または右)に傾斜した平行四辺形であってもよい。   In the pixel P, pixels corresponding to a plurality of lines of sight, for example, nine lines of sight, are arranged in the x direction of the liquid crystal panel 32. In the picture element, R (red), G (green), and B (blue) color filters Pg are arranged in the y direction, which is a direction perpendicular to the arrangement direction of the picture elements. Is formed. The arrangement direction of the picture elements is not limited to the x direction of the liquid crystal panel 32. In addition, the RGB surface (xy plane) shape is not limited to a rectangle. For example, the surface shape of RB may be a parallelogram inclined to the right (or left), and the surface shape of G may be a parallelogram inclined to the left (or right).

偏光板Paは、ガラス基板Pb上に設けられ、バックライト31からの光のうち特定方向の光のみを通過させる機能を有する。   The polarizing plate Pa is provided on the glass substrate Pb and has a function of allowing only light in a specific direction out of light from the backlight 31 to pass.

画素電極Pcは、ガラス基板Pb上に設けられる。画素電極Pcは、液晶Peを挟む電極のうちTFT(thin film transistor)側に設けている、画素を構成する電極である。   The pixel electrode Pc is provided on the glass substrate Pb. The pixel electrode Pc is an electrode constituting a pixel provided on the thin film transistor (TFT) side of the electrodes sandwiching the liquid crystal Pe.

配向膜Pdは、電極Pc,Pf上にそれぞれ設けられ、液晶分子を特定方向に整列させる機能を有する。   The alignment film Pd is provided on each of the electrodes Pc and Pf and has a function of aligning liquid crystal molecules in a specific direction.

液晶Peは、外部電圧が印加されると、分子配列の並び方が変わる機能を有する。   The liquid crystal Pe has a function of changing the arrangement of molecular arrangement when an external voltage is applied.

対向電極Pfは、ガラス基板Pb上に設けられる。対向電極Pfは、液晶Peを挟む電極のうちTFTに対向する側に設けている電極である。   The counter electrode Pf is provided on the glass substrate Pb. The counter electrode Pf is an electrode provided on the side facing the TFT among the electrodes sandwiching the liquid crystal Pe.

カラーフィルタPgは、TFTに対向する側のガラス基板Pb上に設けられ、各画素に対して、各RGBが配列される。   The color filter Pg is provided on the glass substrate Pb on the side facing the TFT, and each RGB is arranged for each pixel.

図3(a),(b)に示す3D表示装置30の凸レンズアレイ33は、液晶パネル32の前面に備えられる。凸レンズアレイ33は、例えば、絵素の配列方向に垂直なy方向を軸とするレンチキュラーレンズ(かまぼこ型レンズ)が、絵素の配列方向であるx方向に複数配置されるレンチキュラーレンズアレイである。なお、図示しないが、凸レンズアレイ33は、ピクセルP毎に割り当てられたフライアイレンズ(蝿の目レンズ)を複数のピクセルPの分配列したフライアイレンズアレイであってもよい。   A convex lens array 33 of the 3D display device 30 shown in FIGS. 3A and 3B is provided on the front surface of the liquid crystal panel 32. The convex lens array 33 is, for example, a lenticular lens array in which a plurality of lenticular lenses (kamaboko lenses) having an axis in the y direction perpendicular to the pixel arrangement direction are arranged in the x direction, which is the pixel arrangement direction. Although not shown, the convex lens array 33 may be a fly-eye lens array in which fly-eye lenses (eye-eye lenses) assigned to each pixel P are arranged for a plurality of pixels P.

図4は、第1実施形態の3D表示処理システム1の構成を示すブロック図である。   FIG. 4 is a block diagram illustrating a configuration of the 3D display processing system 1 according to the first embodiment.

図4に示す3D表示処理システム1の操作装置10は、図2を用いて説明したように、操作部11(ボタン11a及び十字ボタン11b)、及びデータ送受信部12を備える。   The operation device 10 of the 3D display processing system 1 illustrated in FIG. 4 includes the operation unit 11 (the button 11a and the cross button 11b) and the data transmission / reception unit 12 as described with reference to FIG.

データ送受信部12は、ボタン11a及び十字ボタン11bの操作に従って、操作信号を発生して、操作信号を画像処理装置20に送信する。   The data transmission / reception unit 12 generates an operation signal in accordance with the operation of the button 11 a and the cross button 11 b and transmits the operation signal to the image processing device 20.

画像処理装置20は、処理部(CPU)21、メモリ22、HDD(hard disk drive)23、IF(interface)24、データ送受信部25等の基本的なハードウェアから構成される。処理部21は、共通信号伝送路としてのバスを介して、画像処理装置20を構成する各ハードウェア構成要素に相互接続されている。なお、画像処理装置20は、図示しない記憶媒体ドライブを具備する場合もある。   The image processing apparatus 20 includes basic hardware such as a processing unit (CPU) 21, a memory 22, an HDD (hard disk drive) 23, an IF (interface) 24, and a data transmission / reception unit 25. The processing unit 21 is interconnected to each hardware component constituting the image processing apparatus 20 via a bus as a common signal transmission path. Note that the image processing apparatus 20 may include a storage medium drive (not shown).

処理部21は、半導体で構成された電子回路が複数の端子を持つパッケージに封入されている集積回路(LSI)の構成をもつ制御装置である。観察者によって操作装置10が操作等されることにより指令が入力されると、処理部21は、メモリ22に記憶しているプログラムを実行する。または、処理部21は、HDD23に記憶しているプログラム、ネットワークNから転送されてHDD23にインストールされたプログラム、または記憶媒体ドライブに装着された記憶媒体から読み出されてHDD23にインストールされたプログラムを、メモリ22にロードして実行する。   The processing unit 21 is a control device having a configuration of an integrated circuit (LSI) in which an electronic circuit made of a semiconductor is enclosed in a package having a plurality of terminals. When a command is input by operating the operation device 10 by an observer, the processing unit 21 executes a program stored in the memory 22. Alternatively, the processing unit 21 reads a program stored in the HDD 23, a program transferred from the network N and installed in the HDD 23, or a program read from the storage medium installed in the storage medium drive and installed in the HDD 23. , Loaded into the memory 22 and executed.

メモリ22は、ROM(read only memory)及びRAM(random access memory)等の要素を兼ね備える構成をもつ記憶装置である。メモリ22は、IPL(initial program loading)、BIOS(basic input/output system)及びデータを記憶したり、処理部21のワークメモリやデータの一時的な記憶に用いられたりする。   The memory 22 is a storage device having a configuration that combines elements such as a ROM (read only memory) and a RAM (random access memory). The memory 22 stores IPL (initial program loading), BIOS (basic input / output system), and data, and is used for work memory of the processing unit 21 and temporary storage of data.

HDD23は、磁性体を塗布または蒸着した金属のディスクが着脱不能で内蔵されている構成をもつ記憶装置である。HDD23は、画像処理装置20にインストールされたプログラム(アプリケーションプログラムの他、OS(operating system)等も含まれる)や、データを記憶する記憶装置である。また、OSに、観察者に対する情報の表示にグラフィックを多用し、基礎的な操作を操作装置10によって行なうことができるGUI(graphical user interface)を提供させることもできる。   The HDD 23 is a storage device having a configuration in which a metal disk coated or vapor-deposited with a magnetic material is not removable and is built in. The HDD 23 is a storage device that stores programs installed in the image processing apparatus 20 (including an OS (operating system) in addition to application programs) and data. In addition, the OS can be provided with a graphical user interface (GUI) capable of performing basic operations using the operation device 10 by frequently using graphics for displaying information to the observer.

IF24は、パラレル接続仕様やシリアル接続仕様に合わせたコネクタによって構成され、各規格に応じた通信制御を行なう。IF24は、ネットワークNに接続することができる機能を有しており、これにより、画像処理装置20は、IF24からネットワークN網に接続することができる。   The IF 24 includes a connector that conforms to a parallel connection specification or a serial connection specification, and performs communication control according to each standard. The IF 24 has a function capable of being connected to the network N, whereby the image processing apparatus 20 can be connected from the IF 24 to the network N network.

データ送受信部25は、操作装置10のデータ送受信部12から送信される操作信号を受信する。   The data transmitter / receiver 25 receives an operation signal transmitted from the data transmitter / receiver 12 of the controller device 10.

3D表示装置30は、図3を用いて説明したように、バックライト31、液晶パネル32、及び凸レンズアレイ33を備える。また、3D表示装置30は、バックライト駆動回路34、液晶パネル駆動回路35、及び制御部36を備える。   As described with reference to FIG. 3, the 3D display device 30 includes the backlight 31, the liquid crystal panel 32, and the convex lens array 33. The 3D display device 30 includes a backlight drive circuit 34, a liquid crystal panel drive circuit 35, and a control unit 36.

バックライト駆動回路34は、制御部36による制御に従ってバックライト31に電圧を印加してバックライト31を駆動させる。   The backlight drive circuit 34 drives the backlight 31 by applying a voltage to the backlight 31 according to control by the control unit 36.

液晶パネル駆動回路35は、制御部36による制御に従って液晶パネル32のピクセルPの画素回路を駆動させる。   The liquid crystal panel drive circuit 35 drives the pixel circuit of the pixel P of the liquid crystal panel 32 according to control by the control unit 36.

制御部36は、画像処理装置20の処理部21からの指示に従ってバックライト駆動回路34及び液晶パネル駆動回路35を制御する。   The control unit 36 controls the backlight drive circuit 34 and the liquid crystal panel drive circuit 35 in accordance with instructions from the processing unit 21 of the image processing apparatus 20.

図5は、第1実施形態の3D表示処理システム1の機能を示すブロック図である。   FIG. 5 is a block diagram illustrating functions of the 3D display processing system 1 according to the first embodiment.

図4に示す処理部21がプログラムを実行することによって、図5に示すように、3D表示処理システム1の画像処理装置20は、ボリュームデータ取得部41、基準画像生成部42、モード判断部43、平面位置確定用画像生成部44、平面位置確定部45、部位抽出部46、奥行確定用画像生成部47、及び奥行確定部48として機能する。なお、画像処理装置20は、各部41乃至48の全部または一部をハードウェアとして備えるものであってもよい。   When the processing unit 21 illustrated in FIG. 4 executes the program, as illustrated in FIG. 5, the image processing apparatus 20 of the 3D display processing system 1 includes a volume data acquisition unit 41, a reference image generation unit 42, and a mode determination unit 43. , Function as a plane position determination image generation unit 44, a plane position determination unit 45, a part extraction unit 46, a depth determination image generation unit 47, and a depth determination unit 48. Note that the image processing apparatus 20 may include all or a part of each of the units 41 to 48 as hardware.

ボリュームデータ取得部41は、HDD23等の記憶装置に記憶された、被検体像を含むボリュームデータを取得する機能を有する。なお、ボリュームデータ取得部41は、外部からネットワークNを介して受信したボリュームデータを取得してもよい。例えば、ボリュームデータは、超音波診断装置、X線CT(computed tomography)装置、MRI(magnetic resonance imaging)装置、及び核医学診断装置等によって生成される。   The volume data acquisition unit 41 has a function of acquiring volume data including a subject image stored in a storage device such as the HDD 23. The volume data acquisition unit 41 may acquire volume data received from the outside via the network N. For example, the volume data is generated by an ultrasonic diagnostic apparatus, an X-ray CT (computed tomography) apparatus, an MRI (magnetic resonance imaging) apparatus, and a nuclear medicine diagnostic apparatus.

基準画像生成部42は、モード判断部43によって基準モード(通常モード)であると判断された場合、ボリュームデータ取得部41によって取得されたボリュームデータに対して、立体位置確定モードによってレンダリングされる視差角を以下の視差角にて、複数視線、例えば9個の視線でレンダリング処理を行なって9個のレンダリング画像を生成する機能を有する。基準画像生成部42によって生成された9個のレンダリング画像は、データ信号として3D表示装置30の制御部36に送られる。9個のレンダリング画像のデータ信号は、液晶パネル駆動回路35を介して、液晶パネル32のピクセルPを構成する9個の絵素に、視線の順にそれぞれ割り当てられて表示される。以下、9個の視線でレンダリング処理を行なう場合について説明する。レンダリング画像は、サーフェイスレンダリング(surface rendering)処理や、ボリュームレンダリング(volume rendering)処理によって得られる。   When the mode determination unit 43 determines that the reference mode (normal mode) is set, the reference image generation unit 42 performs the parallax rendered in the stereoscopic position determination mode on the volume data acquired by the volume data acquisition unit 41. It has a function of generating nine rendering images by performing rendering processing with a plurality of visual lines, for example, nine visual lines, with the following parallax angles. The nine rendering images generated by the reference image generation unit 42 are sent to the control unit 36 of the 3D display device 30 as data signals. The data signals of the nine rendering images are assigned to the nine picture elements constituting the pixel P of the liquid crystal panel 32 through the liquid crystal panel driving circuit 35 and are displayed in the order of the line of sight. Hereinafter, a case where rendering processing is performed with nine lines of sight will be described. The rendered image is obtained by a surface rendering process or a volume rendering process.

なお、液晶パネル32のピクセルPを構成する絵素の数と、レンダリング画像の数とが同一となるような構成について説明したが、ピクセルPを構成する絵素の数が、レンダリング画像の数以上となるような構成であればよい。例えば、3個のレンダリング画像を表示するために、ピクセルPを9個の絵素によって構成する場合、左端の視線のレンダリング画像をピクセルPの右端の3絵素に割り当て、中央の視線のレンダリング画像をピクセルPの中央の3絵素に割り当て、右端の視線のレンダリング画像をピクセルPの左端の3絵素に割り当てる。また、複数視線のレンダリング画像の各レンダリング画像に割り当てられる絵素の数が異なっていてもよい。   Note that the configuration in which the number of picture elements constituting the pixel P of the liquid crystal panel 32 is the same as the number of rendering images has been described, but the number of picture elements constituting the pixel P is equal to or greater than the number of rendering images. Any configuration may be used. For example, in order to display three rendering images, when the pixel P is configured by nine picture elements, the rendering image of the leftmost line of sight is assigned to the three pixels of the rightmost line of the pixel P, and the rendering image of the central visual line is displayed. Are assigned to the three pixels at the center of the pixel P, and the rendered image of the rightmost line of sight is assigned to the three pixels at the left end of the pixel P. Further, the number of picture elements assigned to each rendering image of a plurality of line-of-sight rendering images may be different.

基準画像生成部42によって生成された9個のレンダリング画像を3D表示装置30によって表示させると、被検体像が3D表示される。   When the nine rendering images generated by the reference image generation unit 42 are displayed by the 3D display device 30, the subject image is displayed in 3D.

モード判断部43は、操作装置10のデータ送受信部12から送信された操作信号に従って、3D表示処理システム1が基準モードであるか、または、立体位置確定(同定)モードであるかを判断する機能を有する。立体位置確定時のような高精度の位置合わせが必要な場合は、立体位置確定モードを設定する。   The mode determination unit 43 determines whether the 3D display processing system 1 is in the reference mode or the three-dimensional position determination (identification) mode according to the operation signal transmitted from the data transmission / reception unit 12 of the controller device 10. Have If high-precision alignment is required, such as when determining the three-dimensional position, a three-dimensional position determination mode is set.

平面位置確定用画像生成部44は、モード判断部43によって立体位置確定モードであると判断された場合、基準モードによって基準画像生成部42によってレンダリングされたボリュームデータに対して、基準モードによってレンダリングされた視差角を超える視差角にて、9個の視線でレンダリング処理を行なって9個のレンダリング画像を生成する機能を有する。平面位置確定用画像生成部44によって生成された9個のレンダリング画像は、データ信号として3D表示装置30の制御部36に送られる。9個のレンダリング画像のデータ信号は、液晶パネル駆動回路35を介して、液晶パネル32のピクセルPを構成する9個の絵素に、視線の順にそれぞれ割り当てられて表示される。   When the mode determination unit 43 determines that the plane position determination image generation unit 44 is in the three-dimensional position determination mode, the plane position determination image generation unit 44 is rendered in the reference mode with respect to the volume data rendered by the reference image generation unit 42 in the reference mode. In addition, it has a function of generating nine rendering images by performing rendering processing with nine lines of sight at a parallax angle exceeding the parallax angle. The nine rendering images generated by the plane position determination image generation unit 44 are sent to the control unit 36 of the 3D display device 30 as data signals. The data signals of the nine rendering images are assigned to the nine picture elements constituting the pixel P of the liquid crystal panel 32 through the liquid crystal panel driving circuit 35 and are displayed in the order of the line of sight.

図6は、基準モード及び立体位置確定モードにおいて、立体視される被検体像の違いを説明するための図である。   FIG. 6 is a diagram for explaining a difference in a subject image stereoscopically viewed in the reference mode and the stereoscopic position determination mode.

図6は、基準モードにおける、立体視される被検体像O、視差角θ1、及び3D表示装置30と、立体位置確定モードにおける、立体視される被検体像O、視差角θ2、及び3D表示装置30とを示す。基準モードによってレンダリングされた視差角θ1を超える視差角θ2にて、複数視線でレンダリング処理を行なって9個のレンダリング画像を生成して表示する。3D表示装置30を観察する観察者は、平面位置確定用画像生成部44によって生成された複数視線のレンダリング画像に基づいて立体視される被検体像Oが、基準画像生成部42によって生成された複数視線のレンダリング画像に基づいて立体視される被検体像Oより手前に存在するように見える。   FIG. 6 shows the stereoscopically viewed subject image O, the parallax angle θ1, and the 3D display device 30 in the reference mode, and the stereoscopically viewed subject image O, the parallax angle θ2, and the 3D display in the stereoscopic position determination mode. Device 30 is shown. At a parallax angle θ2 that exceeds the parallax angle θ1 rendered in the reference mode, rendering processing is performed with a plurality of lines of sight to generate and display nine rendering images. An observer observing the 3D display device 30 has generated, by the reference image generation unit 42, a subject image O that is stereoscopically viewed based on a plurality of visual line rendering images generated by the plane position determination image generation unit 44. It appears to exist in front of the subject image O that is stereoscopically viewed based on the rendered images of multiple lines of sight.

平面位置確定用画像生成部44によって立体位置確定モードで生成された複数視線のレンダリング画像の表示によると、被検体像Oの奥行方向(z方向)の位置の違いが判別し易くなる。しかしながら、立体位置確定モードでは観察者は強制的に左右の眼球が内側(鼻の方向)になるような状態(寄り目)を維持しなければならないので、観察者の目が非常に疲れてしまう。しかしながら、3D表示処理システム1では、モード判断部43によって基準モードと立体位置確定モードとの切り替えが可能である。   According to the display of a plurality of visual line rendering images generated in the stereoscopic position determination mode by the plane position determination image generation unit 44, the difference in the position of the subject image O in the depth direction (z direction) can be easily determined. However, in the three-dimensional position determination mode, the observer must maintain a state (crossed eye) in which the left and right eyeballs are inward (in the direction of the nose), so that the observer's eyes become very tired. However, in the 3D display processing system 1, the mode determination unit 43 can switch between the reference mode and the three-dimensional position determination mode.

図5に示す平面位置確定部45は、平面位置確定用画像生成部44によって生成された9個の視線のレンダリング画像に基づいて立体視される被検体像Oを見ながら観察者が操作装置10を操作することで操作装置10のデータ送受信部12から送信された操作信号に従って、液晶パネル32上のx−y平面位置を確定する機能を有する。すなわち、平面位置確定部45は、立体視モードで、操作信号に従って、3D表示装置30に表示された9個のレンダリング画像に相当する9個の視線の中心視線に直交する投影面上の位置を確定する。立体視モードでx−y平面位置を確定するためには、平面位置確定部45は、カーソルのあるx−y平面と直交する軸を点線等で表示させ、そのガイドに基づいてx−y平面位置を確定させることが好適である。   The plane position determination unit 45 illustrated in FIG. 5 allows the observer to view the subject image O stereoscopically viewed based on the nine line-of-sight rendering images generated by the plane position determination image generation unit 44. Is operated to determine the xy plane position on the liquid crystal panel 32 in accordance with the operation signal transmitted from the data transmitting / receiving unit 12 of the controller device 10. That is, the plane position determination unit 45 determines the position on the projection plane orthogonal to the central line of sight of the nine lines of sight corresponding to the nine rendered images displayed on the 3D display device 30 according to the operation signal in the stereoscopic mode. Determine. In order to determine the xy plane position in the stereoscopic mode, the plane position determination unit 45 displays an axis orthogonal to the xy plane on which the cursor is located with a dotted line or the like, and based on the guide, the xy plane It is preferable to fix the position.

なお、平面位置確定部45は、1個の視線のレンダリング画像に基づいて平面視される被検体像Oを見ながら観察者が操作装置10を操作することで操作装置10のデータ送受信部12から送信された操作信号に従って、液晶パネル32上のx−y平面位置を確定してもよい。   The plane position determining unit 45 operates from the data transmitting / receiving unit 12 of the operating device 10 by the observer operating the operating device 10 while viewing the subject image O viewed in plan based on a rendering image of one line of sight. The xy plane position on the liquid crystal panel 32 may be determined according to the transmitted operation signal.

部位抽出部46は、平面位置確定用画像生成部44によってレンダリングされたボリュームデータを構成する複数のボクセルのうち、平面位置確定部45によって確定された平面位置を通り、かつ、9個のレンダリング画像に相当する9個の視線の中心視線上のボクセルに基づいて、所望の部位を抽出する機能を有する。例えば、部位抽出部46は、確定された確定位置を通り、かつ、中心視線上のボクセルついてボクセル値の変化量の閾値処理を施して、エッジ部分の抽出を行なう。   The part extraction unit 46 passes through the plane position determined by the plane position determination unit 45 among the plurality of voxels constituting the volume data rendered by the plane position determination image generation unit 44, and includes nine rendering images. And a function of extracting a desired part based on voxels on the central line of sight of nine lines of sight. For example, the part extraction unit 46 extracts the edge portion by performing threshold processing of the amount of change in the voxel value for the voxel that passes through the confirmed position and is on the center line of sight.

奥行確定用画像生成部47は、部位抽出部46によって抽出されたエッジ部分にカーソル像が配置された9個のレンダリング画像を生成する機能を有する。例えば、奥行確定用画像生成部47は、部位抽出部46によって抽出されたエッジ部分に相当するボクセルのボクセル値を置換して、当該ボクセルにカーソル像が配置されたボリュームデータを生成し、そのボリュームデータに対して、9個の視線でレンダリング処理を行なって9個のレンダリング画像を生成する。   The depth determination image generation unit 47 has a function of generating nine rendering images in which a cursor image is arranged at the edge portion extracted by the part extraction unit 46. For example, the depth determination image generation unit 47 replaces the voxel value of the voxel corresponding to the edge portion extracted by the part extraction unit 46, generates volume data in which the cursor image is arranged in the voxel, and the volume The rendering process is performed on the data with nine lines of sight to generate nine rendering images.

図7は、カーソル像の配置を説明するための図である。   FIG. 7 is a diagram for explaining the arrangement of the cursor image.

図7は、ボリュームデータVと、9個の視線の中心視線Lに直交する投影面とを示す。投影面は、液晶パネル32に相当する。図7に示すボリュームデータVは、平面位置確定部45によって確定された液晶パネル32のx−y平面位置を含むy−z断面及びx−z断面、すなわち、投影面位置Tを含むy−z断面及びx−z断面として示されている。なお、投影面に直交する中心視線Lは、液晶パネル32に直交するz方向に等しい。   FIG. 7 shows volume data V and a projection plane orthogonal to the central line of sight L of the nine lines of sight. The projection surface corresponds to the liquid crystal panel 32. The volume data V shown in FIG. 7 includes the yz section and the xz section including the xy plane position of the liquid crystal panel 32 determined by the plane position determining unit 45, that is, the yz including the projection plane position T. It is shown as a cross section and an xz cross section. The central line of sight L that is orthogonal to the projection plane is equal to the z direction that is orthogonal to the liquid crystal panel 32.

平面位置確定部45によって投影面位置Tが確定されると、奥行確定用画像生成部47は、ボリュームデータVを構成する複数のボクセルのうち、投影面位置Tを通る中心視線L上のエッジ部分を含むボクセル(または当該ボクセル及びその隣接ボクセルを含むボクセル群)にカーソル像Bを配置する。図7に示す例では、4個のエッジ部分が示されている。   When the projection plane position T is determined by the plane position determination unit 45, the depth determination image generation unit 47, among the plurality of voxels constituting the volume data V, the edge portion on the central line of sight L passing through the projection plane position T. A cursor image B is placed on a voxel including (or a voxel group including the voxel and its neighboring voxels). In the example shown in FIG. 7, four edge portions are shown.

奥行確定用画像生成部47によって生成された9個のレンダリング画像は、データ信号として3D表示装置30の制御部36に送られる。9個のレンダリング画像のデータ信号は、液晶パネル駆動回路35を介して、液晶パネル32のピクセルPを構成する9個の絵素に、視線の順にそれぞれ割り当てられて表示される。   The nine rendering images generated by the depth determination image generation unit 47 are sent to the control unit 36 of the 3D display device 30 as data signals. The data signals of the nine rendering images are assigned to the nine picture elements constituting the pixel P of the liquid crystal panel 32 through the liquid crystal panel driving circuit 35 and are displayed in the order of the line of sight.

図8は、立体視される、カーソル像を含む画像を模式的に示す図である。   FIG. 8 is a diagram schematically illustrating an image including a cursor image that is stereoscopically viewed.

図8に示すように、奥行確定用画像生成部47によって3D表示装置30に表示された9個のレンダリング画像の立体視によって、観察者は、操作装置10を用いてx−y平面内の位置(投影面位置)Tを指示すれば、その位置Tを含むz方向(中心視線の方向)のエッジ部分を、カーソル像Bを介して立体視することができる。各カーソル像Bは、色分けしてもよいし、キャプション付き(1,2,3,…)等で区別できるようにしておくことが好適である。   As shown in FIG. 8, the observer uses the operation device 10 to determine the position in the xy plane by stereoscopic viewing of the nine rendering images displayed on the 3D display device 30 by the depth determination image generation unit 47. If the (projection plane position) T is indicated, the edge portion in the z direction (the direction of the central line of sight) including the position T can be stereoscopically viewed via the cursor image B. Each cursor image B may be color-coded, or preferably with a caption (1, 2, 3,...) Or the like.

図5に示す奥行確定部48は、奥行確定用画像生成部47によって生成された9個の視線のレンダリング画像に基づいて立体視される図8に示す被検体像を見ながら観察者が操作装置10を操作することで操作装置10のデータ送受信部12から送信された操作信号に従って、カーソル像Bの中から所望のカーソル像を選択して確定する機能を有する。奥行確定部48によってカーソル像の位置が確定されると、操作装置10及び/または3D表示装置30は、確定完了を出力するように構成されてもよい。例えば、操作装置10は、カーソル像の位置の確定時に振動される。また、例えば、3D表示装置30は、奥行確定用画像生成部47からの指示に従って、表示されるカーソル像の色を変化させる。
(第2実施形態)
The depth determination unit 48 illustrated in FIG. 5 is configured so that the observer operates the operation device while viewing the subject image illustrated in FIG. 8 stereoscopically based on the nine line-of-sight rendering images generated by the depth determination image generation unit 47. 10 has a function of selecting and confirming a desired cursor image from the cursor image B in accordance with an operation signal transmitted from the data transmitting / receiving unit 12 of the controller device 10. When the position of the cursor image is confirmed by the depth confirmation unit 48, the controller device 10 and / or the 3D display device 30 may be configured to output confirmation completion. For example, the controller device 10 is vibrated when the position of the cursor image is determined. For example, the 3D display device 30 changes the color of the displayed cursor image in accordance with an instruction from the depth determination image generation unit 47.
(Second Embodiment)

第2実施形態の3D表示処理システムの構成において、図1乃至図4に示す3D表示処理システム1の構成と同一部材には同一符号を付して説明を省略する。   In the configuration of the 3D display processing system of the second embodiment, the same members as those in the configuration of the 3D display processing system 1 shown in FIGS.

図9は、第2実施形態の3D表示処理システムの機能を示すブロック図である。   FIG. 9 is a block diagram illustrating functions of the 3D display processing system according to the second embodiment.

図4に示す処理部21がプログラムを実行することによって、図9に示すように、3D表示処理システム1Aの画像処理装置20は、ボリュームデータ取得部41、基準画像生成部42、モード判断部43、平面位置確定用画像生成部44、平面位置確定部45、部位抽出部46A、奥行確定用画像生成部47A、奥行確定部48、及び奥行変更部49として機能する。なお、画像処理装置20は、各部41乃至49の全部または一部をハードウェアとして備えるものであってもよい。なお、図9に示す第2実施形態の3D表示処理システム1Aの機能において、図5に示す3D表示処理システム1の機能と同一部材には同一符号を付して説明を省略する。   When the processing unit 21 illustrated in FIG. 4 executes the program, as illustrated in FIG. 9, the image processing apparatus 20 of the 3D display processing system 1A includes a volume data acquisition unit 41, a reference image generation unit 42, and a mode determination unit 43. , Function as a plane position determination image generation unit 44, a plane position determination unit 45, a part extraction unit 46A, a depth determination image generation unit 47A, a depth determination unit 48, and a depth change unit 49. Note that the image processing apparatus 20 may include all or a part of each of the units 41 to 49 as hardware. In addition, in the function of 3D display processing system 1A of 2nd Embodiment shown in FIG. 9, the same code | symbol is attached | subjected to the same member as the function of 3D display processing system 1 shown in FIG. 5, and description is abbreviate | omitted.

部位抽出部46Aは、平面位置確定用画像生成部44によってレンダリングされたボリュームデータを構成する複数のボクセルのうち、平面位置確定部45によって確定された投影面位置を通り、かつ、9個のレンダリング画像に相当する9個の視線の中心視線上のボクセルに基づいて、所望の部位を抽出する機能を有する。例えば、部位抽出部46は、投影面位置を通り、かつ、中心視線上のボクセルについてボクセル値の変化量の閾値処理を施して、1つのエッジ部分の抽出を行なう機能を有する。また、例えば、部位抽出部46は、投影面位置を通り、かつ、中心視線上に存在する、被検体像Oの複数表面部分のうち、投影面位置から最も離れた表面部分を検出する。   The part extraction unit 46A passes through the projection plane positions determined by the plane position determination unit 45 among the plurality of voxels constituting the volume data rendered by the plane position determination image generation unit 44, and nine renderings are performed. It has a function of extracting a desired part based on voxels on the central line of sight of nine lines of sight corresponding to an image. For example, the part extraction unit 46 has a function of extracting one edge portion by performing threshold processing of the amount of change in the voxel value for voxels that pass through the projection plane position and on the central line of sight. In addition, for example, the part extracting unit 46 detects a surface portion farthest from the projection plane position among a plurality of surface portions of the subject image O that passes through the projection plane position and exists on the central line of sight.

奥行確定用画像生成部47Aは、部位抽出部46Aによって抽出された1つのエッジ部分にカーソル像が配置された9個のレンダリング画像を生成する機能を有する。例えば、奥行確定用画像生成部47Aは、部位抽出部46Aによって抽出された1つのエッジ部分に相当するボクセルのボクセル値を置換して、1つのカーソル像が配置されたボリュームデータを生成し、そのボリュームデータに対して、9個の視線でレンダリング処理を行なって9個のレンダリング画像を生成する。奥行確定用画像生成部47Aによって生成されるボリュームデータに配置される1つのカーソル像は、図7に示す4個のカーソル像のうちの1個である。   The depth determination image generation unit 47A has a function of generating nine rendering images in which a cursor image is arranged on one edge portion extracted by the part extraction unit 46A. For example, the depth determination image generation unit 47A replaces the voxel value of the voxel corresponding to one edge portion extracted by the part extraction unit 46A, generates volume data in which one cursor image is arranged, and The volume data is subjected to rendering processing with nine lines of sight to generate nine rendering images. One cursor image arranged in the volume data generated by the depth determination image generation unit 47A is one of the four cursor images shown in FIG.

奥行確定用画像生成部47Aによって生成された9個のレンダリング画像は、データ信号として3D表示装置30の制御部36に送られる。9個のレンダリング画像のデータ信号は、液晶パネル駆動回路35を介して、液晶パネル32のピクセルPを構成する9個の絵素に、視線の順にそれぞれ割り当てられて表示される。   The nine rendering images generated by the depth determination image generation unit 47A are sent to the control unit 36 of the 3D display device 30 as data signals. The data signals of the nine rendering images are assigned to the nine picture elements constituting the pixel P of the liquid crystal panel 32 through the liquid crystal panel driving circuit 35 and are displayed in the order of the line of sight.

奥行変更部49は、奥行確定用画像生成部47Aによって生成された9個の視線のレンダリング画像に基づいて立体視される被検体像Oを見ながら観察者が操作装置10を操作することで操作装置10のデータ送受信部12から送信された操作信号に従って、カーソル像の位置を、z方向に変更する機能を有する。すなわち、奥行変更部49は、操作信号に従って、カーソル像の位置を、3D表示装置30に表示された9個のレンダリング画像に相当する9個の視線の中心視線上で変更する。   The depth changing unit 49 is operated by the observer operating the operating device 10 while viewing the subject image O stereoscopically viewed based on the nine line-of-sight rendering images generated by the depth determination image generating unit 47A. It has a function of changing the position of the cursor image in the z direction according to the operation signal transmitted from the data transmitting / receiving unit 12 of the apparatus 10. That is, the depth changing unit 49 changes the position of the cursor image on the central line of sight of nine lines of sight corresponding to the nine rendered images displayed on the 3D display device 30 in accordance with the operation signal.

奥行確定用画像生成部47Aは、奥行変更部49によって変更後のカーソル像が配置された9個のレンダリング画像を生成する機能を有する。例えば、奥行確定用画像生成部47Aは、変更前のカーソル像が配置されるボクセルから変更量に従って離れ、かつ、中心視線上のボクセルのボクセル値を置換して、1つのカーソル像が配置されたボリュームデータを生成し、そのボリュームデータに対して、9個の視線でレンダリング処理を行なって9個のレンダリング画像を生成する。   The depth determination image generation unit 47A has a function of generating nine rendering images in which the cursor image after the change by the depth change unit 49 is arranged. For example, the depth determination image generation unit 47A moves away from the voxel in which the cursor image before the change is arranged according to the change amount, and replaces the voxel value of the voxel on the center line of sight, thereby arranging one cursor image. Volume data is generated, and rendering processing is performed on the volume data with nine lines of sight to generate nine rendering images.

図10は、立体視される、カーソル像を含む画像を模式的に示す図である。   FIG. 10 is a diagram schematically illustrating an image including a cursor image that is stereoscopically viewed.

図10に示すように、奥行確定用画像生成部47Aによって3D表示装置30に表示された9個のレンダリング画像の立体視によって、観察者は、操作装置10を用いてx−y平面内の位置(投影面位置)Tを指示すれば、その位置Tを含むz方向(中心視線の方向)の1つのエッジ部分を、1つのカーソル像B1を介して立体視することができる。   As shown in FIG. 10, the observer uses the operation device 10 to determine the position in the xy plane by stereoscopic viewing of the nine rendering images displayed on the 3D display device 30 by the depth determination image generation unit 47A. If (projection plane position) T is indicated, one edge portion in the z direction (direction of the central line of sight) including the position T can be stereoscopically viewed via one cursor image B1.

さらに、観察者は、操作装置10を用いてカーソル像B1のz方向(中心視線の方向)への変更を指示すれば、カーソル像B1の位置を、z方向の手前側または奥側に変更することができる。   Furthermore, if the observer uses the operation device 10 to indicate a change in the z direction (the direction of the central line of sight) of the cursor image B1, the position of the cursor image B1 is changed to the near side or the far side in the z direction. be able to.

第2実施形態の3D表示処理システム1Aにおける、複数視線のレンダリング画像の表示方法について説明する。   A display method for rendering images with a plurality of lines of sight in the 3D display processing system 1A of the second embodiment will be described.

図11(a),(b)は、複数視線のレンダリング画像の表示方法の第1例を説明するための図である。   FIGS. 11A and 11B are diagrams for explaining a first example of a display method for rendering images with a plurality of lines of sight.

図11(a),(b)は、ボリュームデータVと、9個の視線の中心視線Lに直交する投影面とを示す。投影面は、液晶パネル32に相当する。図11(a),(b)に示すボリュームデータVは、平面位置確定部45によって確定された液晶パネル32のx−y平面位置を含むy−z断面、すなわち、投影面位置Tを含むy−z断面として示されている。なお、投影面に直交する中心視線Lは、液晶パネル32に直交するz方向に等しい。   FIGS. 11A and 11B show the volume data V and the projection plane orthogonal to the central line of sight L of the nine lines of sight. The projection surface corresponds to the liquid crystal panel 32. The volume data V shown in FIGS. 11A and 11B is a y-z cross section including the xy plane position of the liquid crystal panel 32 determined by the plane position determination unit 45, that is, y including the projection plane position T. Shown as -z cross section. The central line of sight L that is orthogonal to the projection plane is equal to the z direction that is orthogonal to the liquid crystal panel 32.

平面位置確定部45によって投影面位置Tが確定されると、奥行確定用画像生成部47Aは、ボリュームデータVを構成する複数のボクセルのうち1つのカーソル像B1を配置する。その際、奥行確定用画像生成部47Aは、図11(a)に示すように、カーソル像B1の投影面側のボクセルの輝度及び色と、投影面の反対側のボクセルの輝度及び色とのうち少なくとも一方が異なるようにボリュームデータを生成する。   When the projection plane position T is determined by the plane position determination unit 45, the depth determination image generation unit 47A arranges one cursor image B1 among the plurality of voxels constituting the volume data V. At that time, as shown in FIG. 11A, the depth determination image generation unit 47A calculates the luminance and color of the voxel on the projection plane side of the cursor image B1 and the luminance and color of the voxel on the opposite side of the projection plane. Volume data is generated so that at least one of them is different.

さらに、奥行変更部49によってカーソル像の位置が中心視線L上で変更されると、図11(b)に示すように、高輝度エリアと低輝度エリアの割合が変化する。   Further, when the position of the cursor image is changed on the central line of sight L by the depth changing unit 49, the ratio of the high luminance area and the low luminance area changes as shown in FIG.

図12(a),(b)は、複数視線のレンダリング画像の表示方法の第2例を説明するための図である。   FIGS. 12A and 12B are diagrams for explaining a second example of a display method of rendering images with a plurality of lines of sight.

図12(a),(b)は、ボリュームデータVと、9個の視線の中心視線Lに直交する投影面とを示す。投影面は、液晶パネル32に相当する。図12(a),(b)に示すボリュームデータVは、平面位置確定部45によって確定された液晶パネル32のx−y平面位置を含むy−z断面、すなわち、投影面位置Tを含むy−z断面として示されている。なお、投影面に直交する中心視線Lは、液晶パネル32に直交するz方向に等しい。   12A and 12B show the volume data V and the projection plane orthogonal to the central line of sight L of the nine lines of sight. The projection surface corresponds to the liquid crystal panel 32. Volume data V shown in FIGS. 12A and 12B is a y-z cross section including the xy plane position of the liquid crystal panel 32 determined by the plane position determination unit 45, that is, y including the projection plane position T. Shown as -z cross section. The central line of sight L that is orthogonal to the projection plane is equal to the z direction that is orthogonal to the liquid crystal panel 32.

平面位置確定部45によって投影面位置Tが確定されると、奥行確定用画像生成部47Aは、ボリュームデータVを構成する複数のボクセルのうち1つのカーソル像B1を配置する。その際、奥行確定用画像生成部47Aは、図12(a)に示すように、カーソル像B1を含みz方向に直交する面のボクセルの輝度及び色と、その他のボクセルの輝度及び色とのうち少なくとも一方が異なるようにボリュームデータを生成する。   When the projection plane position T is determined by the plane position determination unit 45, the depth determination image generation unit 47A arranges one cursor image B1 among the plurality of voxels constituting the volume data V. At that time, as shown in FIG. 12A, the depth determination image generation unit 47A calculates the luminance and color of the voxel on the plane including the cursor image B1 and orthogonal to the z direction, and the luminance and color of the other voxels. Volume data is generated so that at least one of them is different.

さらに、奥行変更部49によってカーソル像の位置が中心視線L上で変更されると、図12(b)に示すように、高輝度エリアの中心視線Lの方向の位置が変化する。   Further, when the position of the cursor image is changed on the center line of sight L by the depth changing unit 49, the position in the direction of the center line of sight L in the high luminance area changes as shown in FIG.

第1実施形態の3D表示処理システム1を、第2実施形態の3D表示処理システム1Aに組み合わせてもよいことは言うまでもない。その場合、奥行変更部49は、奥行確定用画像生成部47によって生成された9個の視線のレンダリング画像に基づいて立体視される被検体像Oを見ながら観察者が操作装置10を操作することで操作装置10のデータ送受信部12から送信された操作信号に従って、カーソル像の位置を、部位抽出部46によって抽出された4個のカーソル像B間を切り替える。   Needless to say, the 3D display processing system 1 of the first embodiment may be combined with the 3D display processing system 1A of the second embodiment. In that case, in the depth changing unit 49, the observer operates the operation device 10 while viewing the subject image O stereoscopically viewed based on the nine line-of-sight rendering images generated by the depth determination image generating unit 47. Thus, according to the operation signal transmitted from the data transmitting / receiving unit 12 of the controller device 10, the position of the cursor image is switched between the four cursor images B extracted by the part extracting unit 46.

(操作装置10の操作方法)   (Operation method of the operation device 10)

本実施形態の3D表示処理システム1,1Aにおいて、観察者が、操作装置10を用いて液晶パネル32上のxy平面位置を確定するための操作と、確定されたxy平面位置を通るz方向の位置を変更・確定するための操作方法の例について説明する。   In the 3D display processing system 1, 1 </ b> A of the present embodiment, the observer performs an operation for determining the xy plane position on the liquid crystal panel 32 using the operation device 10 and the z direction passing through the determined xy plane position. An example of an operation method for changing / determining the position will be described.

例えば、操作装置10は、位置センサを備える。その場合、観察者が、表示されたカーソル像を操作装置10で操作することにより、3D表示処理システム1,1Aは、カーソル像のxy平面位置及びz方向位置を変更操作する。具体的には、観察者が操作装置10のボタン11aを押しながら操作装置10を操作装置10の左右方向に移動させるとカーソル像がx方向に変更され、ボタン11aを押しながら操作装置10を操作装置10の上下方向に移動させるとカーソル像がy方向に変更され、ボタン11aを押しながら操作装置10を操作装置10の軸方向に移動させるとカーソル像がz方向に変更される。そして、操作装置10の移動量がカーソル像の変更量として反映される。なお、以上の操作方法は、単純な例を示したものであり、当然複合的な移動も可能である。   For example, the operating device 10 includes a position sensor. In that case, when the observer operates the displayed cursor image with the operation device 10, the 3D display processing systems 1 and 1A change the xy plane position and the z-direction position of the cursor image. Specifically, when the observer moves the operating device 10 in the horizontal direction of the operating device 10 while pressing the button 11a of the operating device 10, the cursor image is changed in the x direction, and the operating device 10 is operated while pressing the button 11a. When the device 10 is moved in the vertical direction, the cursor image is changed in the y direction, and when the operation device 10 is moved in the axial direction of the operation device 10 while pressing the button 11a, the cursor image is changed in the z direction. Then, the movement amount of the controller device 10 is reflected as the change amount of the cursor image. Note that the above operation method shows a simple example, and of course, complex movement is possible.

また、第2実施形態の3D表示処理システム1Aにおいて、例えば、操作装置10は、自体が振られたり傾けられたりといった動作を検知する加速度センサ(3次元のモーションセンサ、図示しない)を備える。その場合、観察者が、表示されたカーソル像を操作装置10で操作することにより、3D表示処理システム1Aは、カーソル像のz方向位置を変更操作する。具体的には、観察者が操作装置10のボタン11aをドラッグしながら操作装置10をy方向に移動させるとカーソル像B1がz方向に素早く変更され、ボタン11aをドラッグしながら操作装置10をx方向に移動させるとカーソル像B1がz方向にゆっくりと変更される。   Further, in the 3D display processing system 1A of the second embodiment, for example, the operation device 10 includes an acceleration sensor (a three-dimensional motion sensor, not shown) that detects an operation such as swinging or tilting itself. In that case, when the observer operates the displayed cursor image with the operation device 10, the 3D display processing system 1A changes the z-direction position of the cursor image. Specifically, when the observer moves the operation device 10 in the y direction while dragging the button 11a of the operation device 10, the cursor image B1 is quickly changed in the z direction, and the operation device 10 is moved to the x direction while dragging the button 11a. When moved in the direction, the cursor image B1 is slowly changed in the z direction.

(3D表示装置30の表示レイアウト)   (Display layout of 3D display device 30)

本実施形態の3D表示処理システム1,1Aにおいて、複数視線のレンダリング画像の表示方法の例について説明する。   In the 3D display processing systems 1 and 1A of the present embodiment, an example of a display method for rendering images with a plurality of lines of sight will be described.

図13は、複数視線のレンダリング画像の表示レイアウトの第1例を説明するための図である。   FIG. 13 is a diagram for describing a first example of a display layout of a rendering image having a plurality of lines of sight.

図13に示す3D表示装置30の液晶パネル32は、3D表示領域R3と2D表示領域R2とを有する。3D表示処理システム1,1Aで説明したように、平面位置確定用画像生成部44と、奥行確定用画像生成部47,47Aによって生成された複数視線のレンダリング画像は、3D表示領域R3に表示される。画像生成部44,47,47Aは、3D表示領域R3において、9個の視線のレンダリング画像を各ピクセルPの9個の絵素にそれぞれ割り当てて表示する。つまり、画像生成部44,47,47Aは、3D表示装置30の各ピクセルPを構成する9個の絵素に、9個のレンダリング画像に相当する9個のピクセル値をそれぞれ与える。   The liquid crystal panel 32 of the 3D display device 30 shown in FIG. 13 has a 3D display region R3 and a 2D display region R2. As described in the 3D display processing systems 1 and 1A, the rendering images of the plurality of lines of sight generated by the plane position determination image generation unit 44 and the depth determination image generation units 47 and 47A are displayed in the 3D display region R3. The The image generation units 44, 47, and 47A display the nine line-of-sight rendering images by assigning them to the nine picture elements of each pixel P in the 3D display region R3. That is, the image generation units 44, 47, and 47A give nine pixel values corresponding to nine rendering images to the nine picture elements constituting each pixel P of the 3D display device 30, respectively.

一方で、レンダリング画像に関する情報(撮像条件等)を提示するコマンド情報は、2D表示領域R2に表示される。画像生成部44,47,47Aは、2D表示領域R2において、通常の2D表示装置の各ピクセルに与えるピクセル値(データ信号)を、3D表示装置30の各ピクセルPに与える。つまり、画像生成部44,47,47Aは、2D表示領域R2において、各ピクセルPを構成する9個の絵素に同一のピクセル値を与える。   On the other hand, command information that presents information related to the rendered image (such as imaging conditions) is displayed in the 2D display area R2. The image generation units 44, 47, and 47A provide pixel values (data signals) to be given to the respective pixels of the normal 2D display device to the respective pixels P of the 3D display device 30 in the 2D display region R2. That is, the image generation units 44, 47, 47A give the same pixel value to the nine picture elements constituting each pixel P in the 2D display region R2.

図14は、複数視線のレンダリング画像の表示レイアウトの第2例を説明するための図である。   FIG. 14 is a diagram for explaining a second example of the display layout of a rendering image with a plurality of lines of sight.

図14に示す3D表示装置30の液晶パネル32は、3D表示領域R3と2D表示領域R21,R22,R23とを有する。3D表示処理システム1,1Aで説明したように、画像生成部44,47,47Aによって生成された複数視線のレンダリング画像は、3D表示領域R3に表示される。画像生成部44,47,47Aは、3D表示領域R3において、9個の視線のレンダリング画像を各ピクセルPの9個の絵素にそれぞれ割り当てて表示する。つまり、画像生成部44,47,47Aは、3D表示装置30の各ピクセルPを構成する9個の絵素に、9個のレンダリング画像に相当する9個のピクセル値をそれぞれ与える。   The liquid crystal panel 32 of the 3D display device 30 shown in FIG. 14 has a 3D display region R3 and 2D display regions R21, R22, R23. As described in the 3D display processing systems 1 and 1A, the rendering images of a plurality of lines of sight generated by the image generation units 44, 47, and 47A are displayed in the 3D display region R3. The image generation units 44, 47, and 47A display the nine line-of-sight rendering images by assigning them to the nine picture elements of each pixel P in the 3D display region R3. That is, the image generation units 44, 47, and 47A give nine pixel values corresponding to nine rendering images to the nine picture elements constituting each pixel P of the 3D display device 30, respectively.

画像生成部44,47,47Aは、ボリュームデータに対してMPR(multi planar reconstruction)及びMIP(maximum intensity projection)等の処理を施してMPR画像等の画像を取得する。MPR画像は、2D表示領域R21に表示される。画像生成部44,47,47Aは、2D表示領域R21において、図13のコマンド情報の表示と同様に、各ピクセルPを構成する9個の絵素に同一のピクセル値を与える。   The image generation units 44, 47, and 47A perform processing such as MPR (Multi Planar Reconstruction) and MIP (Maximum Intensity Projection) on the volume data to acquire an image such as an MPR image. The MPR image is displayed in the 2D display area R21. In the 2D display area R21, the image generation units 44, 47, and 47A give the same pixel value to the nine picture elements constituting each pixel P, as in the case of displaying the command information in FIG.

レンダリング画像に関する情報を提示するコマンド情報は、2D表示領域R22に表示される。画像生成部44,47,47Aは、2D表示領域R22において、図13のコマンド情報の表示と同様に、各ピクセルPを構成する9個の絵素に同一のピクセル値を与える。   Command information that presents information related to the rendered image is displayed in the 2D display area R22. In the 2D display area R22, the image generation units 44, 47, and 47A give the same pixel value to the nine picture elements constituting each pixel P in the same manner as the display of command information in FIG.

MPR画像に関する情報を提示するコマンド情報は、2D表示領域R23に表示される。画像生成部44,47,47Aは、2D表示領域R23において、図13のコマンド情報の表示と同様に、各ピクセルPを構成する9個の絵素に同一のピクセル値を与える。   Command information that presents information related to the MPR image is displayed in the 2D display area R23. In the 2D display area R23, the image generation units 44, 47, and 47A give the same pixel value to the nine picture elements constituting each pixel P in the same manner as the display of command information in FIG.

以上のように、本実施形態の3D表示処理システム1,1Aによると、3D表示装置30によって立体視される画像上で、ディスカッション相手等に注目点を3次元的に示すことができる。   As described above, according to the 3D display processing system 1, 1 </ b> A of the present embodiment, the point of interest can be three-dimensionally shown to the discussion partner or the like on the image stereoscopically viewed by the 3D display device 30.

本実施形態の3D表示処理システム1,1Aは、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、本実施形態の3D表示処理システム1,1Aに開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The 3D display processing systems 1 and 1A of the present embodiment are described in order to facilitate understanding of the present invention, and are not described in order to limit the present invention. Therefore, each element disclosed in the 3D display processing systems 1 and 1A of the present embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

例えば、本実施形態の3D表示処理システム1,1Aにおいて、レンチキュラーレンズ方式の裸眼式を採用する構成について説明した。しかし、3D表示処理システム1,1Aは、その場合に限定するものではなく、パララックスバリア方式の裸眼式を採用する構成であってもよい。また、本実施形態の3D表示処理システム1,1Aの技術思想は、専用眼鏡を備える眼鏡式(アナグリフ方式、フレームシーケンシャル方式、及び偏光方式等)を採用する構成にも応用できる。   For example, in the 3D display processing systems 1 and 1A of the present embodiment, the configuration in which the lenticular lens type naked eye type is employed has been described. However, the 3D display processing systems 1 and 1A are not limited to that case, and may be configured to employ a parallax barrier type naked eye type. The technical idea of the 3D display processing systems 1 and 1A of the present embodiment can also be applied to a configuration that employs a spectacle type (an anaglyph method, a frame sequential method, a polarization method, etc.) that includes dedicated glasses.

1,1A 3D表示処理システム
10 操作装置
20 画像処理装置
21 処理部
30 3D表示装置
33 凸レンズアレイ
41 ボリュームデータ取得部
42 基準画像生成部
43 モード判断部
44 平面位置確定用画像生成部
45 平面位置確定部
46,46A 部位抽出部
47,47A 奥行確定用画像生成部
48 奥行確定部
49 奥行変更部
L 中心視線
T 投影面位置
1,1A 3D display processing system 10 operation device 20 image processing device 21 processing unit 30 3D display device 33 convex lens array 41 volume data acquisition unit 42 reference image generation unit 43 mode determination unit 44 plane position determination image generation unit 45 plane position determination Unit 46, 46A Site extraction unit 47, 47A Depth determination image generation unit 48 Depth determination unit 49 Depth change unit L Center line of sight T Projection plane position

Claims (15)

被検体像を含むボリュームデータに対してレンダリング処理を行なって複数視線に対応する第1の3次元画像データを生成する第1画像生成手段と、
操作者が前記複数視線の中心視線に直交する投影面上の位置及び中心視線の方向の位置を設定操作するための操作手段と、
前記投影面上の位置に基づいてカーソル像を配置した複数視線に対応する第2の3次元画像データを生成する第2画像生成手段と、
前記複数視線に対応する第1の3次元画像データ、または、前記複数視線に対応する第2の3次元画像データに基づいて3D表示を行なう表示手段と、
を有する3D表示処理システム。
First image generation means for performing rendering processing on volume data including a subject image to generate first three-dimensional image data corresponding to a plurality of lines of sight;
An operating means for an operator to set and operate the position on the projection plane orthogonal to the central line of sight of the plurality of lines of sight and the position of the direction of the central line of sight
Second image generation means for generating second three-dimensional image data corresponding to a plurality of lines of sight in which a cursor image is arranged based on a position on the projection plane;
Display means for performing 3D display based on the first three-dimensional image data corresponding to the plurality of lines of sight or the second three-dimensional image data corresponding to the plurality of lines of sight;
3D display processing system.
前記操作手段は、前記第1の3次元画像データを生成するための前記複数視線の視差角のモードと、前記第2の3次元画像データを生成するための前記複数視線の視差角のモードとを切り替え可能である構成とする請求項1に記載の3D表示処理システム。   The operation means includes a parallax angle mode of the plurality of visual lines for generating the first three-dimensional image data, and a parallax angle mode of the plurality of visual lines for generating the second three-dimensional image data. The 3D display processing system according to claim 1, wherein the 3D display processing system is configured to be switchable. 前記第2画像生成手段は、前記2つのモードのうち、前記複数視線の視差角が大きいモードにて、前記第2の3次元画像データを生成する構成とする請求項2に記載の3D表示処理システム。   The 3D display process according to claim 2, wherein the second image generation unit is configured to generate the second three-dimensional image data in a mode in which a parallax angle of the plurality of lines of sight is large among the two modes. system. 前記操作手段は、前記投影面上の位置の変更操作と、前記中心視線の方向への変更操作とが可能であり、
前記第2画像生成手段は、前記変更操作後のカーソル像を配置した複数視線に対応する第2の3次元画像データを生成し、
前記操作手段は、前記変更操作後のカーソル像を配置した複数視線に対応する第2の3次元画像データに基づいて、前記カーソル像の位置を確定する構成とする請求項1乃至3のうちいずれか一項に記載の3D表示処理システム。
The operation means is capable of changing the position on the projection plane and changing the direction of the central line of sight,
The second image generation means generates second 3D image data corresponding to a plurality of lines of sight in which the cursor image after the change operation is arranged,
4. The configuration according to claim 1, wherein the operation unit is configured to determine a position of the cursor image based on second 3D image data corresponding to a plurality of lines of sight in which the cursor image after the change operation is arranged. The 3D display processing system according to claim 1.
前記操作手段は、位置センサ及びボタンを有し、
前記ボタンが押されながら前記操作手段が移動されると、その移動量が前記カーソル像の変更量として反映される構成とする請求項4に記載の3D表示処理システム。
The operating means has a position sensor and a button,
The 3D display processing system according to claim 4, wherein when the operation unit is moved while the button is pressed, the movement amount is reflected as a change amount of the cursor image.
前記第2画像生成手段は、前記被検体像内で、かつ、前記中心視線上の複数のエッジ部分のうちの1個にカーソル像を配置した前記複数視線に対応する第2の3次元画像データを生成する構成とする請求項5に記載の3D表示処理システム。   The second image generation means includes second 3D image data corresponding to the plurality of lines of sight in which a cursor image is arranged at one of a plurality of edge portions on the central line of sight in the subject image. The 3D display processing system according to claim 5, wherein the 3D display processing system is configured to generate an image. 前記第2画像生成手段は、前記カーソル像の投影面側の輝度及び色と、投影面の対向側の輝度及び色とのうち少なくとも一方が異なるような前記第2の3次元画像データを生成する構成とする請求項1乃至6のうちいずれか一項に記載の3D表示処理システム。   The second image generation unit generates the second three-dimensional image data in which at least one of the luminance and color on the projection plane side of the cursor image is different from the luminance and color on the opposite side of the projection plane. The 3D display processing system according to any one of claims 1 to 6, which is configured. 前記第2画像生成手段は、前記カーソル像を含み前記中心視線の方向に直交する面の輝度及び色と、その他の輝度及び色とのうち少なくとも一方が異なるような前記第2の3次元画像データを生成する構成とする請求項1乃至6のうちいずれか一項に記載の3D表示処理システム。   The second image generation means includes the second three-dimensional image data in which at least one of luminance and color of a surface including the cursor image and orthogonal to the direction of the central line of sight differs from other luminance and color. The 3D display processing system according to any one of claims 1 to 6, wherein the 3D display processing system is configured to generate an image. 前記第2画像生成手段は、前記被検体像内で、かつ、前記中心視線上の複数の部位にそれぞれカーソル像を配置した前記複数視線に対応する第2の3次元画像データを生成し、
前記操作手段は、前記複数のカーソル像から所要のカーソル像を確定する構成である請求項1乃至3のうちいずれか一項に記載の3D表示処理システム。
The second image generation means generates second three-dimensional image data corresponding to the plurality of lines of sight in which a cursor image is arranged at each of a plurality of parts on the central line of sight in the subject image;
The 3D display processing system according to claim 1, wherein the operation unit is configured to determine a required cursor image from the plurality of cursor images.
前記操作手段は、前記カーソル像の位置の確定時に、確定完了を出力する構成とする請求項4乃至9のうちいずれか一項に記載の3D表示処理システム。   10. The 3D display processing system according to claim 4, wherein when the position of the cursor image is confirmed, the operation unit outputs a confirmation completion. 前記操作手段は、前記カーソル像の位置の確定時に振動される構成とする請求項10に記載の3D表示処理システム。   The 3D display processing system according to claim 10, wherein the operation unit is configured to vibrate when the position of the cursor image is determined. 前記表示手段は、前記カーソル像の位置の確定時に、前記カーソル像の色を変化させる構成とする請求項4乃至9のうちいずれか一項に記載の3D表示処理システム。   The 3D display processing system according to any one of claims 4 to 9, wherein the display unit is configured to change a color of the cursor image when the position of the cursor image is determined. 前記表示手段は、前記複数視線に対応する第1の3次元画像データ、または、前記複数視線に対応する第2の3次元画像データの3D表示と、コマンド情報の2D表示とを並列に行なう構成とする請求項1乃至12のうちいずれか一項に記載の3D表示処理システム。   The display means is configured to perform the 3D display of the first 3D image data corresponding to the plurality of lines of sight or the second 3D image data corresponding to the lines of sight, and the 2D display of command information in parallel. The 3D display processing system according to any one of claims 1 to 12. 前記表示手段は、前記複数視線に対応する第1の3次元画像データ、または、前記複数視線に対応する第2の3次元画像データの3D表示と、前記ボリュームデータに基づく2次元画像の2D表示と、コマンド情報の2D表示とを並列に行なう構成とする請求項1乃至12のうちいずれか一項に記載の3D表示処理システム。   The display means includes a 3D display of the first three-dimensional image data corresponding to the plurality of lines of sight or a second three-dimensional image data corresponding to the plurality of lines of sight, and a 2D display of a two-dimensional image based on the volume data. The 3D display processing system according to claim 1, wherein the 2D display of command information is performed in parallel. 前記表示手段は、前記ボリュームデータに基づく2次元画像としてのMPR(multi planar reconstruction)画像の2D表示を行なう構成とする請求項14に記載の3D表示処理システム。   The 3D display processing system according to claim 14, wherein the display unit is configured to perform 2D display of an MPR (Multi Planar Reconstruction) image as a two-dimensional image based on the volume data.
JP2011126656A 2011-06-06 2011-06-06 3D display processing system Expired - Fee Related JP5788228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011126656A JP5788228B2 (en) 2011-06-06 2011-06-06 3D display processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011126656A JP5788228B2 (en) 2011-06-06 2011-06-06 3D display processing system

Publications (2)

Publication Number Publication Date
JP2012252650A true JP2012252650A (en) 2012-12-20
JP5788228B2 JP5788228B2 (en) 2015-09-30

Family

ID=47525374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126656A Expired - Fee Related JP5788228B2 (en) 2011-06-06 2011-06-06 3D display processing system

Country Status (1)

Country Link
JP (1) JP5788228B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH077253B2 (en) * 1990-05-10 1995-01-30 株式会社東芝 Three-dimensional cursor and image display method using three-dimensional cursor
JPH10137190A (en) * 1996-11-13 1998-05-26 Toshiba Iyou Syst Eng Kk Medical image processor
JP2001149366A (en) * 1999-11-25 2001-06-05 Toshiba Corp Three-dimensional image processing device
JP2005107972A (en) * 2003-09-30 2005-04-21 Canon Inc Mixed reality presentation method and mixed reality presentation system
JP2010505175A (en) * 2006-09-29 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D linked shadow mouse pointer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH077253B2 (en) * 1990-05-10 1995-01-30 株式会社東芝 Three-dimensional cursor and image display method using three-dimensional cursor
JPH10137190A (en) * 1996-11-13 1998-05-26 Toshiba Iyou Syst Eng Kk Medical image processor
JP2001149366A (en) * 1999-11-25 2001-06-05 Toshiba Corp Three-dimensional image processing device
JP2005107972A (en) * 2003-09-30 2005-04-21 Canon Inc Mixed reality presentation method and mixed reality presentation system
JP2010505175A (en) * 2006-09-29 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D linked shadow mouse pointer

Also Published As

Publication number Publication date
JP5788228B2 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
JP5909055B2 (en) Image processing system, apparatus, method and program
JP5306422B2 (en) Image display system, apparatus, method, and medical image diagnostic apparatus
JP6058290B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
KR20160010169A (en) Curved multiview image display apparatus and control method thereof
WO2006111919A2 (en) Auto-stereoscopic display with mixed mode for concurrent display of two- and three-dimensional images
CN109561294A (en) Method and apparatus for rendering image
WO2012157493A1 (en) Image processing system, apparatus and method
JP6147464B2 (en) Image processing system, terminal device and method
JP2011525253A (en) Autostereoscopic display with pixelated lighting device
CN104717475A (en) Display device and display method thereof
JP5797485B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
US9210397B2 (en) Image processing system, apparatus, and method
JP5846791B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5788228B2 (en) 3D display processing system
JP5832990B2 (en) Image display system
CZ308335B6 (en) The method of describing the points of objects of the subject space and connection for its implementation
JP2012244420A (en) Image processing system, device, and method
US9020219B2 (en) Medical image processing apparatus
JP2012234498A (en) Three-dimensional display processing system
JP2012252276A (en) Three dimensional display system
CN113489965B (en) Three-dimensional display method and device, electronic equipment and storage medium
JP6526516B2 (en) Medical image processing device
JP2013022247A (en) Image processing system, device and method, and medical image diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150729

R150 Certificate of patent or registration of utility model

Ref document number: 5788228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees