WO2013021440A1 - 画像処理装置、画像表示装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像表示装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2013021440A1
WO2013021440A1 PCT/JP2011/067988 JP2011067988W WO2013021440A1 WO 2013021440 A1 WO2013021440 A1 WO 2013021440A1 JP 2011067988 W JP2011067988 W JP 2011067988W WO 2013021440 A1 WO2013021440 A1 WO 2013021440A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
unit
display
dimensional
Prior art date
Application number
PCT/JP2011/067988
Other languages
English (en)
French (fr)
Inventor
大介 平川
快行 爰島
洋次郎 登内
古藤 晋一郎
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2011/067988 priority Critical patent/WO2013021440A1/ja
Priority to JP2012537250A priority patent/JP5414906B2/ja
Publication of WO2013021440A1 publication Critical patent/WO2013021440A1/ja
Priority to US14/061,318 priority patent/US20140047378A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume

Definitions

  • Embodiments described herein relate generally to an image processing device, an image display device, an image processing method, and a program.
  • a volume rendering process can be performed by selecting a cross-sectional image including a portion (for example, an organ) that the user wants to observe from the generated volume data. Then, stereoscopic display can be performed using a plurality of parallax images obtained by the volume rendering process.
  • the above-described technique has a problem that the user cannot grasp the entire image of the volume data and a part of the internal structure at the same time.
  • the problem to be solved by the present invention is to provide an image processing device, an image display device, an image processing method, and a program that allow a user to simultaneously grasp the whole image of a three-dimensional image and a part of the internal structure. .
  • the image processing apparatus includes an acquisition unit, a designation unit, a first setting unit, a second setting unit, and a processing unit.
  • the acquisition unit acquires a three-dimensional image.
  • the designation unit designates a three-dimensional coordinate value in the three-dimensional image according to a user input.
  • the first setting unit sets an instruction area indicating an area including a three-dimensional coordinate value.
  • a 2nd setting part sets the shielding area
  • the processing unit performs image processing on the three-dimensional image in which the display of the shielding area is more transparent than the display of other areas.
  • the block diagram of an image display apparatus. 1 is a block diagram of an image processing apparatus.
  • the flowchart which shows the operation example of an image display apparatus.
  • FIG. 1 is a block diagram illustrating a schematic configuration example of an image display device 1 of the present embodiment.
  • the image display device 1 includes an image processing device 100 and a display device 200.
  • the image processing apparatus 100 performs image processing on the acquired three-dimensional image. Details of this will be described later.
  • the display device 200 stereoscopically displays a three-dimensional image using the result of image processing by the image processing device 100.
  • the user designates (points) a predetermined position in a three-dimensional space on the monitor with an input unit such as a pen while viewing an image stereoscopically displayed on a monitor (not shown). Then, the area that the user wants to observe is estimated, and the estimated area is exposed and displayed from the whole image. Specific contents will be described below.
  • FIG. 2 is a block diagram illustrating a configuration example of the image processing apparatus 100.
  • the image processing apparatus 100 includes an acquisition unit 10, a sensor unit 20, a reception unit 30, a designation unit 40, a first setting unit 50, a second setting unit 60, and a processing unit 70.
  • the acquisition unit 10 acquires a three-dimensional image.
  • the acquisition method of a 3D image is arbitrary.
  • the acquisition unit 10 can acquire a 3D image from a database, or can access a server device to acquire a 3D image stored in the server device. You can also.
  • the three-dimensional image acquired by the acquisition unit 10 is medical volume data.
  • a plurality of slice images (cross-sectional images) along the body axis direction of the subject are photographed by an X-ray CT apparatus, and a set of the photographed slice images is obtained as medical volume data.
  • Adopt as.
  • the type of the three-dimensional image acquired by the acquisition unit 10 is not limited to this, and is arbitrary.
  • the acquisition unit 10 can also acquire an image created by three-dimensional computer graphics (3DCG).
  • the acquisition unit 10 can acquire not only a three-dimensional image but also image information necessary for rendering processing. Generally, such image information is added to a three-dimensional image.
  • the acquired three-dimensional image is 3DCG
  • the vertex information and material information of the object modeled on the virtual three-dimensional, or the virtual three-dimensional Light source information and the like for placement on the top can be acquired as image information.
  • the acquired three-dimensional image is medical volume data composed of a set of slice images taken by an X-ray CT apparatus, an ID for identifying the slice image and an X-ray absorption amount of each voxel are stored.
  • information divided into regions such as veins, arteries, hearts, bones, and tumors in each slice image can be acquired as image information.
  • the sensor unit 20 detects (calculates) a coordinate value of an input unit (for example, a pen) in a three-dimensional space on a monitor on which a stereoscopic image to be described later is displayed.
  • an input unit for example, a pen
  • FIG. 5 is a side view of the monitor.
  • the sensor unit 20 includes a first detection unit 21 and a second detection unit 22.
  • the input part used for a user's input is comprised with the pen which radiate
  • the first detection unit 21 detects the position of the input unit on the XY plane of FIG.
  • the first detection unit 21 detects sound waves and infrared rays emitted from the input unit, and the time until the sound waves reach the first detection unit 21 and the infrared rays reach the first detection unit 21. Based on the time difference from the time until the calculation, the coordinate value in the X direction and the coordinate value in the Y direction of the input unit are calculated. Moreover, the 2nd detection part 22 detects the position of the input part in the Z direction of FIG. Similar to the first detection unit 21, the second detection unit 22 detects sound waves and infrared rays emitted from the input unit, and the time until the sound waves reach the second detection unit 22 and the infrared rays are the second detection unit.
  • the coordinate value in the Z direction of the input unit is calculated based on the time difference from the time until reaching 22.
  • the input unit may be configured with a pen that emits only sound waves or infrared rays from the tip portion.
  • the first detection unit 21 detects sound waves (or infrared rays) emitted from the input unit, and based on the time until the sound waves (or infrared rays) reach the first detection unit 21, X of the input unit A coordinate value in the direction and a coordinate value in the Y direction can be calculated.
  • the second detection unit 22 detects sound waves (or infrared rays) emitted from the input unit, and based on the time until the sound waves (or infrared rays) reach the second detection unit 22, the Z of the input unit The coordinate value of the direction can be calculated.
  • the configuration of the sensor unit 20 is not limited to the above-described content.
  • the sensor unit 20 only needs to be able to detect the coordinate value of the input unit in the three-dimensional space on the monitor.
  • the type of the input unit is not limited to the pen, and is arbitrary.
  • the input unit may be a user's finger, or a scalpel or scissors.
  • the sensor unit 20 when the user designates a predetermined position in the three-dimensional space on the monitor while viewing the stereoscopically displayed image on the monitor, the sensor unit 20 is connected to the input unit at that time. A three-dimensional coordinate value (x, y, z) is detected.
  • the accepting unit 30 accepts an input of a three-dimensional coordinate value (x, y, z) detected by the sensor unit 20 (that is, accepts an input from a user).
  • the designation unit 40 designates a three-dimensional coordinate value in the three-dimensional image acquired by the acquisition unit 10 in response to an input from the user.
  • the specifying unit 40 converts the three-dimensional coordinate values (x, y, z) received by the receiving unit 30 into a coordinate system in the volume data acquired by the acquiring unit 10, and after the conversion A three-dimensional coordinate value (x2, y2, z2) is designated.
  • the first setting unit 50 sets an instruction area indicating an area including the three-dimensional coordinate value designated by the designation unit 40.
  • the first setting unit 50 uses the designated three-dimensional coordinate value (x2, y2, z2). Rectangle with four points at the center (x2- ⁇ , y2 + ⁇ , z2 + ⁇ ), (x2 + ⁇ , y2 + ⁇ , z2 + ⁇ ), (x2 + ⁇ , y2- ⁇ , z2 + ⁇ ), (x2- ⁇ , y2- ⁇ , z2 + ⁇ )
  • This area can be set as the designated area.
  • FIG. 6 is a conceptual diagram of volume data. In this example, a rectangular area 202 shown in FIG. 6 is set as an instruction area.
  • region is not restricted but this is arbitrary.
  • the second setting unit 60 sets a shielding region indicating a region that covers and hides the designated region when a three-dimensional image is observed.
  • the second setting unit 60 can also set the quadrangular prism-shaped area 203 having the area 202 as a bottom surface as the shielding area.
  • the coordinate value in the Z direction is in the range of 0 to mz, the closer to 0, the closer to the user side, and the closer to mz (away from 0), the farther from the user side.
  • the shaded area shown in FIG. 3 corresponds to the shielding area 203.
  • the present invention is not limited to this, and the method for setting the shielding area is arbitrary.
  • the acquisition unit 10 acquires image processing in which the display of the shielding area set by the second setting unit 60 is more transparent than the display of another area (an area other than the shielding area). This is performed on the three-dimensional image (volume data).
  • the processing unit 70 may display each pixel of the volume data acquired by the acquisition unit 10 so that the display of the shielding area set by the second setting unit 60 is more transparent than the display of other areas. Set the transparency of. In this example, as the transparency of each pixel is closer to “1”, the display of the pixel is closer to transparency, and as the transparency of each pixel is closer to “0”, the display of the pixel is closer to opaque.
  • the processing unit 70 performs volume rendering processing by moving the viewpoint position (observation position) by a predetermined parallax angle with respect to the volume data that has been subjected to the above-described image processing.
  • a parallax image is generated.
  • the plurality of parallax images generated by the processing unit 70 are sent to the display device 200.
  • the display device 200 performs stereoscopic display using a plurality of parallax images from the processing unit 70.
  • the display device 200 according to the present embodiment includes a stereoscopic display monitor that allows an observer (user) to stereoscopically view a plurality of parallax images.
  • the type of the stereoscopic display monitor is arbitrary.
  • a stereoscopic display monitor that emits a plurality of parallax images in multiple directions can be adopted by using a light beam control element such as a lenticular lens.
  • a light beam control element such as a lenticular lens.
  • the light of each pixel of each parallax image is emitted in multiple directions, so that the light incident on the right eye and left eye of the observer is linked to the position of the observer (viewpoint position). Change.
  • the observer can visually recognize the parallax image three-dimensionally with the naked eye.
  • a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image (binocular parallax image) can be used by using a dedicated device such as stereoscopic glasses.
  • the processing unit 70 sets the transparency of each pixel of the volume data so that the display of the shielding area set by the second setting unit 60 is closer to the transparency than the display of other areas. Therefore, in the image stereoscopically displayed by the display device 200, the indication area is exposed and displayed (in other words, the shielding area is not displayed).
  • FIG. 8 is a diagram showing a display example at this time, and is displayed so that the blood vessel image in the shielding area is cut out and the instruction area is exposed.
  • the processing unit 70 performs volume rendering processing to generate a plurality of parallax images.
  • the present invention is not limited to this, and for example, the display device 200 performs volume rendering processing to generate a plurality of parallax images. You can also In this case, the processing unit 70 sends the volume data subjected to the above-described image processing to the display device 200. Then, the display device 200 performs volume rendering on the volume data passed from the processing unit 70 to generate a plurality of parallax images and perform stereoscopic display.
  • the display device 200 may be any device that stereoscopically displays a three-dimensional image using the result of image processing by the processing unit 70.
  • FIG. 7 is a flowchart showing an operation example of the image display apparatus 1 of the present embodiment.
  • the acquisition unit 10 first acquires volume data (step S1).
  • the processing unit 70 performs a volume rendering process on the volume data acquired in step S1 (step S2), and generates a plurality of parallax images.
  • the processing unit 70 passes the generated plurality of parallax images to the display device 200.
  • the display device 200 performs stereoscopic display of the parallax image by emitting each of the plurality of parallax images passed from the processing unit 70 in multiple directions (step S3).
  • step S5 When the input of the three-dimensional coordinate value is received by the receiving unit 30 (the result of step S4: YES), the specifying unit 40 in the volume data acquired by the acquiring unit 10 according to the received three-dimensional coordinate value.
  • a three-dimensional coordinate value is designated (step S5).
  • the specifying unit 40 converts the three-dimensional coordinate value received by the receiving unit 30 into a coordinate system in the volume data, and specifies the converted value.
  • the first setting unit 50 sets an instruction area indicating an area including the three-dimensional coordinate value specified in step S5 (step S6).
  • step S6 When the volume data is observed, the second setting unit 60 sets a shielding area indicating an area that covers and hides the instruction area set in step S5 (step S7).
  • the processing unit 70 performs image processing on the volume data so that the display of the shielding area set in step S7 is more transparent than the display of other areas (step S8).
  • the processing unit 70 performs a volume rendering process on the volume data that has been subjected to the image processing in step S8, and generates a plurality of parallax images (step S9).
  • the processing unit 70 passes the generated plurality of parallax images to the display device 200, and the display device 200 performs stereoscopic display of the parallax images by emitting the plurality of parallax images passed from the processing unit 70 in multiple directions ( Step S10). Thereafter, the process returns to step S4 described above, and steps S4 to S10 are repeatedly executed.
  • the processing unit 70 performs image processing on the volume data so that the display of the shielding area covering and hiding the instruction area is more transparent than the display of other areas. Therefore, when a plurality of parallax images obtained by performing the volume rendering process on the volume data after the image processing are stereoscopically displayed, the indication area is displayed so as to be exposed. That is, according to the present embodiment, it is possible to simultaneously display the entire volume data and a part of the internal structure (instruction area). In this embodiment, the user exposes a region (instructed region) to be observed by designating a predetermined position in the three-dimensional space on the monitor with the input unit while viewing the stereoscopically displayed image. Therefore, the user can intuitively and efficiently perform an operation for designating an area to be observed.
  • the setting method of the designated area by the first setting unit 50 is arbitrary.
  • an area within a circle having a radius r drawn on the XY plane with the three-dimensional coordinate value (x2, y2, z2) designated by the designation unit 40 as the center can be set as the designated area.
  • the three-dimensional coordinate value (x2, y2, z2) designated by the designation unit 40 can be set as one of the vertices of the rectangle.
  • an area in a plane other than the XY plane (for example, the XZ plane or the YZ plane) can be set as the instruction area.
  • four points (x2- ⁇ , y2 + ⁇ , z2 + ⁇ ), (x2 + ⁇ , y2 + ⁇ , z2 + ⁇ ), (x2 + ⁇ , y2- ⁇ , z2- ⁇ ), (x2- ⁇ , y2- ⁇ , z2- ⁇ ) are defined as vertices.
  • a rectangular area to be set can also be set as the instruction area.
  • Each of the plurality of slice images constituting the volume data is divided into a plurality of regions for each object to be displayed, and an object (referred to as a specific object) including a three-dimensional coordinate value designated by the designation unit 40 belongs.
  • the area may be set as an instruction area.
  • an area to which a specific object belongs in one slice image can be set as an instruction area, or a set of areas to which a specific object belongs in each of a plurality of slice images can be set as an instruction area.
  • the method for setting the shielding area by the second setting unit 60 is arbitrary.
  • an area having a shape as shown in FIG. 9 or 10 may be set as the shielding area.
  • the shielding area may be variably set according to the angle of the input unit described above. More specifically, for example, as shown in FIG. 11, the shielding region may be set to a region having a shape along the extending direction of the input unit (here, a pen that radiates sound waves).
  • the processing unit 70 can set the pixel value of each pixel in the shielding area set by the second setting unit 60 to a value at which the pixel is not displayed. Even with this configuration, since the shielding area in the volume data is not displayed, the indication area can be displayed so as to be exposed. In short, the processing unit 70 only needs to perform image processing on the volume data so that the display of the shielding area set by the second setting unit 60 becomes more transparent than the display of other areas.
  • the processing unit 70 can perform image processing on the volume data so that the display of the portion included in the occlusion area among the objects displayed in each slice image becomes more transparent than the display of other areas. . Similar to the above-described embodiment, the processing unit 70 sets the volume data so that the display of the portion included in the occlusion area among the objects displayed in each slice image is closer to the transparency than the display of other areas. The transparency of each pixel can also be set, and the pixel value of each pixel in the portion included in the shielding area of the object displayed in each slice image is set to a value at which the pixel is not displayed. You can also. Furthermore, the processing unit 70 can also perform image processing in which a portion other than the outline of the portion included in the shielding region among the objects displayed in each slice image is closer to transparency than other regions.
  • the processing unit 70 can perform image processing in which the display of the portion included in the occlusion area is almost transparent for all objects, It is also possible to perform image processing that makes the display of the portion included in the occluded region almost transparent with respect to the object specified by. For example, when a blood vessel object is designated by the user among various objects (objects such as bones, organs, blood vessels, and tumors) displayed on each of a plurality of slice images constituting medical volume data, the processing unit 70 In addition, it is possible to perform image processing in which the portion of the blood vessel object included in the shielding region is more transparent than the display of other regions.
  • the processing unit 70 transmits each pixel of the volume data so that the display of the portion included in the occlusion area of the blood vessel object is more transparent than the display of other areas.
  • the degree can be set, and the pixel value of each pixel in the portion of the blood vessel object included in the shielding region can be set to a value at which the pixel is not displayed.
  • the processing unit 70 performs image processing in which the display of the portion other than the contour of the portion included in the shielding region of the blood vessel object is closer to transparency (for example, only the contour is displayed) than the display of the other region. Can also be done.
  • the type and number of objects specified by the user are also arbitrary.
  • the user inputs a three-dimensional coordinate value in a three-dimensional space on the monitor by operating an input unit such as a pen.
  • the method is arbitrary.
  • the user can directly input a three-dimensional coordinate value in a three-dimensional space on the monitor by operating a keyboard.
  • the user designates a two-dimensional coordinate value (x, y) on the monitor screen by operating the mouse, and the coordinate value z in the Z direction is determined according to the value of the mouse wheel or the time of clicking.
  • An input configuration may be used.
  • the user may specify a two-dimensional coordinate value (x, y) on the monitor screen by a touch operation, and the coordinate value z in the Z direction may be input according to the duration of the touch.
  • a slide bar whose slide amount changes according to the user's operation is displayed, and the coordinate value z in the Z direction may be input according to the slide amount.
  • the image processing apparatuses of the above-described embodiments and modifications have a hardware configuration including a CPU (Central Processing Unit), a ROM, a RAM, a communication I / F device, and the like.
  • the function of each unit described above is realized by the CPU developing and executing a program stored in the ROM on the RAM.
  • the present invention is not limited to this, and at least a part of the functions of the respective units can be realized by individual circuits (hardware).
  • the program executed by the image processing apparatuses of the above-described embodiments and modifications may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. .
  • the program executed by the image processing apparatuses according to the above-described embodiments and modifications may be provided or distributed via a network such as the Internet.
  • a program executed by the image processing apparatus of each of the above-described embodiments and modifications may be provided by being incorporated in advance in a ROM or the like.

Abstract

 3次元画像の全体像と、一部の内部構造とを同時に把握することが可能になる画像処理装置、画像表示装置、画像処理方法およびプログラムを提供する。実施形態の画像処理装置は、取得部と第1設定部と第2設定部と処理部とを備える。取得部は3次元画像を取得する。指定部は、ユーザーの入力に応じて、3次元画像内の3次元座標値を指定する。第1設定部は、3次元座標値を含む領域を示す指示領域を設定する。第2設定部は、3次元画像を観察した場合に、指示領域を覆い隠している領域を示す遮蔽領域を設定する。処理部は、遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を3次元画像に対して行う。

Description

画像処理装置、画像表示装置、画像処理方法およびプログラム
 本発明の実施形態は、画像処理装置、画像表示装置、画像処理方法およびプログラムに関する。
 従来、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像(ボリュームデータ)を生成可能な装置が実用化されている。このような装置では、生成されたボリュームデータのうち、ユーザーが観測したい部分(例えば臓器など)を含む断面画像を選択してボリュームレンダリング処理を行うことができる。そして、そのボリュームレンダリング処理で得られた複数の視差画像により立体表示を行うことができる。
 しかしながら、上述の技術では、ユーザーは、ボリュームデータの全体像と、一部の内部構造とを同時に把握することができないという問題がある。
特開2009-207677号公報
 本発明が解決しようとする課題は、ユーザーが、3次元画像の全体像と、一部の内部構造とを同時に把握できる画像処理装置、画像表示装置、画像処理方法およびプログラムを提供することである。
 実施形態の画像処理装置は、取得部と指定部と第1設定部と第2設定部と処理部とを備える。取得部は3次元画像を取得する。指定部は、ユーザーの入力に応じて、3次元画像内の3次元座標値を指定する。第1設定部は、3次元座標値を含む領域を示す指示領域を設定する。第2設定部は、3次元画像を観察した場合に、指示領域を覆い隠している領域を示す遮蔽領域を設定する。処理部は、遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を3次元画像に対して行う。
画像表示装置のブロック図。 画像処理装置のブロック図。 ボリュームデータを説明するための図。 モニタの正面図。 モニタの側面図。 指示領域及び遮蔽領域を説明するための概念図。 画像表示装置の動作例を示すフローチャート。 表示例を示す図。 遮蔽領域の変形例を示す図。 遮蔽領域の変形例を示す図。 遮蔽領域の変形例を示す図。
 以下、添付図面を参照しながら、本発明に係る画像処理装置、画像表示装置、画像処理方法およびプログラムの実施の形態を詳細に説明する。図1は、本実施形態の画像表示装置1の概略構成例を示すブロック図である。画像表示装置1は、画像処理装置100と表示装置200とを備える。本実施形態では、画像処理装置100は、取得した3次元画像に対して画像処理を行う。この詳細な内容については後述する。表示装置200は、画像処理装置100による画像処理の結果を用いて、3次元画像を立体表示する。
 本実施形態では、ユーザーは、不図示のモニタ上に立体表示された画像を見ながら、当該モニタ上の3次元空間内における所定の位置を例えばペンなどの入力部で指定(ポインティング)する。そうすると、ユーザーが観測したいと考えられる領域が推定され、その推定された領域が全体像から露出して表示される。以下、具体的な内容を説明する。
 図2は、画像処理装置100の構成例を示すブロック図である。画像処理装置100は、取得部10と、センサ部20と、受付部30と、指定部40と、第1設定部50と、第2設定部60と、処理部70とを備える。
 取得部10は、3次元画像を取得する。3次元画像の取得方法は任意であり、例えば取得部10は、データベースから3次元画像を取得することもできるし、サーバ装置にアクセスして当該サーバ装置に格納された3次元画像を取得することもできる。また、本実施形態では、取得部10が取得する3次元画像は、医用のボリュームデータである。ここでは、図3に示すように、被検者の体軸方向に沿った複数のスライス画像(断面画像)をX線CT装置で撮影し、その撮影されたスライス画像の集合を医用のボリュームデータとして採用する。なお、これに限らず、取得部10が取得する3次元画像の種類は任意である。例えば取得部10は、3次元コンピュータ・グラフィックス(3DCG)で作成された画像を取得することもできる。また、取得部10は、3次元画像だけでなく、レンダリング処理に必要な画像情報を取得することもできる。かかる画像情報は3次元画像に付加されるのが一般的であり、取得する3次元画像が3DCGの場合は、仮想3次元上にモデリングされたオブジェクトの頂点情報やマテリアル情報、あるいは、仮想3次元上に配置するための光源情報などを画像情報として取得することができる。また、取得する3次元画像が、X線CT装置により撮影されたスライス画像の集合で構成される医用のボリュームデータの場合は、スライス画像を識別するID、各ボクセルのX線の吸収量を蓄えた情報、各スライス画像において静脈・動脈・心臓・骨・腫瘍といった部位ごとに領域分けされた情報などを画像情報として取得することもできる。
 センサ部20は、後述の立体画像が表示されるモニタ上の3次元空間内における入力部(例えばペン)の座標値を検出(算出)する。図4は、モニタの正面図であり、図5はモニタの側面図である。図4および図5に示すように、センサ部20は、第1検出部21と第2検出部22とを含んで構成される。また、本実施形態では、ユーザーの入力に用いられる入力部は、先端部分から音波および赤外線を出射するペンで構成される。第1検出部21は、図4のX-Y平面上における入力部の位置を検出する。より具体的には、第1検出部21は、入力部から出射された音波および赤外線を検出し、音波が第1検出部21に到達するまでの時間と、赤外線が第1検出部21に到達するまでの時間との時間差に基づいて、入力部のX方向の座標値およびY方向の座標値を算出する。また、第2検出部22は、図5のZ方向における入力部の位置を検出する。第1検出部21と同様に、第2検出部22は、入力部から出射された音波および赤外線を検出し、音波が第2検出部22に到達するまでの時間と、赤外線が第2検出部22に到達するまでの時間との時間差に基づいて、入力部のZ方向の座標値を算出する。なお、これに限らず、例えば入力部は、先端部分から音波または赤外線のみを出射するペンで構成されてもよい。この場合、第1検出部21は、入力部から出射された音波(または赤外線)を検出し、音波(または赤外線)が第1検出部21に到達するまでの時間に基づいて、入力部のX方向の座標値およびY方向の座標値を算出することができる。同様に、第2検出部22は、入力部から出射された音波(または赤外線)を検出し、音波(または赤外線)が第2検出部22に到達するまでの時間に基づいて、入力部のZ方向の座標値を算出することができる。
 なお、センサ部20の構成は上述した内容に限定されるものではない。要するに、センサ部20は、モニタ上の3次元空間内における入力部の座標値を検出できるものであればよい。また、入力部の種類もペンに限らず任意である。例えば入力部は、ユーザーの指であってもよいし、メスやハサミなどであってもよい。本実施形態では、ユーザーが、モニタ上に立体表示された画像を見ながら、そのモニタ上の3次元空間における所定の位置を入力部で指定した場合、センサ部20は、そのときの入力部の3次元座標値(x、y、z)を検出する。
 受付部30は、センサ部20で検出された3次元座標値(x、y、z)の入力を受け付ける(つまりはユーザーからの入力を受け付ける)。指定部40は、ユーザーからの入力に応じて、取得部10で取得された3次元画像内の3次元座標値を指定する。本実施形態では、指定部40は、受付部30で受け付けた3次元座標値(x、y、z)を、取得部10で取得されたボリュームデータ内の座標系に変換し、その変換後の3次元座標値(x2、y2、z2)を指定する。
 第1設定部50は、指定部40で指定された3次元座標値を含む領域を示す指示領域を設定する。一例として、指定部40で指定された3次元座標値が(x2、y2、z2)であった場合、第1設定部50は、その指定された3次元座標値(x2、y2、z2)を中心とした(x2-α、y2+α、z2+α)、(x2+α、y2+α、z2+α)、(x2+α、y2-α、z2+α)、(x2-α、y2-α、z2+α)の4点を頂点とする矩形の領域を指示領域として設定することができる。図6は、ボリュームデータの概念図であり、この例では、図6に示す矩形の領域202が、指示領域として設定される。なお、これに限らず、指示領域の設定方法は任意である。
 第2設定部60は、3次元画像を観察した場合に、指示領域を覆い隠している領域を示す遮蔽領域を設定する。一例として、図6に示す矩形の領域202が指示領域として設定された場合、第2設定部60は、領域202を底面とする四角柱状の領域203を遮蔽領域として設定することもできる。Z方向の座標値が0~mzの範囲である場合、0に近いほどユーザー側に近い位置となり、mzに近いほど(0から離れるほど)ユーザー側から離れた位置となる。図6の例を図3の例に置き換えてみると、図3に示す斜線部分の領域が遮蔽領域203に相当する。なお、これに限らず、遮蔽領域の設定方法は任意である。
 処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域(当該遮蔽領域以外の領域)の表示に比べて透明に近くなる画像処理を、取得部10で取得された3次元画像(ボリュームデータ)に対して行う。一例として、処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近くなるように、取得部10で取得されたボリュームデータの各画素の透過度を設定する。この例では、各画素の透過度が「1」に近いほど当該画素の表示は透明に近づき、各画素の透過度が「0」に近いほど当該画素の表示は不透明に近づくので、処理部70は、第2設定部60で設定された遮蔽領域内の各画素の透過度を「1」に設定する一方、他の領域内の各画素の透過度を「0」に設定する。なお、遮蔽領域内の各画素の透過度は必ずしも「1」に設定される必要は無く、当該遮蔽領域が、当該遮蔽領域以外の領域に比べて透明に近くなる範囲内の値であればよい。
 また、本実施形態では、処理部70は、前述の画像処理を施したボリュームデータに対して、所定の視差角ずつ視点位置(観察位置)を移動させてボリュームレンダリング処理を行うことで、複数の視差画像を生成する。処理部70で生成された複数の視差画像は表示装置200へ送られる。そして、表示装置200は、処理部70からの複数の視差画像により立体表示を行う。本実施形態の表示装置200は、観察者(ユーザー)が複数の視差画像を立体視可能な立体表示モニタを含んで構成される。立体表示モニタの種類は任意であり、例えばレンチキュラーレンズ等の光線制御素子を用いることで、複数の視差画像を多方向に出射させる立体表示モニタを採用することもできる。このような立体表示モニタでは、各視差画像の各画素の光を多方向に出射することにより、観察者の右目および左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。そして、各視点において、観察者は裸眼にて視差画像を立体的に視認できる。また、立体表示モニタの他の例として、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像)を立体視可能な立体表示モニタを用いることもできる。
 前述したように、処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近づくように、ボリュームデータの各画素の透過度を設定するので、表示装置200により立体表示される画像においては指示領域が露出して表示される(言い換えれば遮蔽領域が表示されない)。図8は、このときの表示例を示す図であり、遮蔽領域内の血管画像がくり抜かれて指示領域が露出するように表示されている。
 なお、本実施形態では、処理部70がボリュームレンダリング処理を行って複数の視差画像を生成しているが、これに限らず、例えば表示装置200がボリュームレンダリング処理を行って複数の視差画像を生成することもできる。この場合、処理部70は、前述の画像処理を施したボリュームデータを表示装置200へ送る。そして、表示装置200は、処理部70から渡されたボリュームデータに対してボリュームレンダリング処理を行って複数の視差画像を生成して立体表示を行う。要するに、表示装置200は、処理部70による画像処理の結果を用いて、3次元画像を立体表示するものであればよい。
 次に、本実施形態の画像表示装置1の動作例を説明する。図7は、本実施形態の画像表示装置1の動作例を示すフローチャートである。図7に示すように、まず取得部10は、ボリュームデータを取得する(ステップS1)。処理部70は、ステップS1で取得されたボリュームデータに対してボリュームレンダリング処理を行い(ステップS2)、複数の視差画像を生成する。処理部70は、生成した複数の視差画像を表示装置200へ渡す。表示装置200は、処理部70から渡された複数の視差画像の各々を多方向に出射することで視差画像の立体表示を行う(ステップS3)。
 受付部30で3次元座標値の入力を受け付けた場合(ステップS4の結果:YES)、指定部40は、その受け付けた3次元座標値に応じて、取得部10で取得されたボリュームデータ内の3次元座標値を指定する(ステップS5)。前述したように、本実施形態では、指定部40は、受付部30で受け付けた3次元座標値を、ボリュームデータ内の座標系に変換し、その変換後の値を指定する。次に、第1設定部50は、ステップS5で指定された3次元座標値を含む領域を示す指示領域を設定する(ステップS6)。第2設定部60は、ボリュームデータを観察した場合に、ステップS5で設定された指示領域を覆い隠している領域を示す遮蔽領域を設定する(ステップS7)。処理部70は、ステップS7で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行う(ステップS8)。処理部70は、ステップS8で画像処理を施した後のボリュームデータに対してボリュームレンダリング処理を行い、複数の視差画像を生成する(ステップS9)。処理部70は、生成した複数の視差画像を表示装置200へ渡し、表示装置200は、処理部70から渡された複数の視差画像を多方向に出射することで視差画像の立体表示を行う(ステップS10)。その後、処理は上述のステップS4に戻され、ステップS4~ステップS10が繰り返し実行される。
 以上に説明したように、本実施形態では、処理部70は、指示領域を覆い隠している遮蔽領域の表示が他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行うので、画像処理後のボリュームデータに対してボリュームレンダリング処理を行うことで得られた複数の視差画像を立体表示する場合、指示領域が露出するように表示される。すなわち、本実施形態によれば、ボリュームデータの全体像と、一部の内部構造(指示領域)とを同時に表示できる。また、本実施形態では、ユーザーは、立体表示された画像を見ながら、モニタ上の3次元空間内の所定の位置を入力部で指定することで、観察したい領域(指示領域)を露出させることができるので、ユーザーは、観測したい領域を指定する操作を直感的かつ効率的に行うことができる。
 以上、本発明の実施形態を説明したが、上述の実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。以下に変形例を記載する。なお、以下に記載する変形例のうちの2以上を任意に組み合わせることもできる。
(1)変形例1
 第1設定部50による指示領域の設定方法は任意である。例えば指定部40により指定された3次元座標値(x2、y2、z2)を中心としてX-Y平面上に描かれる半径rの円内の領域を指示領域として設定することもできる。また、例えば指定部40により指定された3次元座標値(x2、y2、z2)を矩形の頂点の一つとすることもできる。さらに、X-Y平面以外の平面(例えばX-Z平面やY-Z平面など)における領域を指示領域として設定することもできる。例えば(x2-α、y2+α、z2+α)、(x2+α、y2+α、z2+α)、(x2+α、y2-α、z2-β)、(x2-α、y2-α、z2-β)の4点を頂点とする矩形の領域を指示領域として設定することもできる。
 また、ボリュームデータを構成する複数のスライス画像の各々は、表示されるオブジェクトごとに複数の領域に区分され、指定部40により指定された3次元座標値を含むオブジェクト(特定オブジェクトと呼ぶ)が属する領域が、指示領域として設定されてもよい。この場合、ひとつのスライス画像において特定オブジェクトが属する領域を指示領域として設定することもできるし、複数のスライス画像の各々において特定オブジェクトが属する領域の集合を指示領域として設定することもできる。
(2)変形例2
 第2設定部60による遮蔽領域の設定方法は任意であり、例えば図9や図10のような形状の領域が遮蔽領域として設定されてもよい。また、例えば遮蔽領域は、前述の入力部の角度に応じて可変に設定されてもよい。より具体的には、例えば図11に示すように、遮蔽領域は、入力部(ここでは音波を放射するペン)の延在方向に沿った形状の領域に設定されてもよい。
(3)変形例3
 例えば処理部70は、第2設定部60で設定された遮蔽領域内の各画素の画素値を、当該画素が非表示となる値に設定することもできる。この構成であっても、ボリュームデータのうちの遮蔽領域は表示されないので、指示領域が露出するように表示させることができる。要するに、処理部70は、第2設定部60で設定された遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行うものであればよい。
(4)変形例4
 例えば処理部70は、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなる画像処理をボリュームデータに対して行うことができる。上述の実施形態と同様に、処理部70は、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなるように、ボリュームデータの各画素の透過度を設定することもできるし、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分における各画素の画素値を、当該画素が非表示となる値に設定することもできる。さらに、処理部70は、各スライス画像に表示されるオブジェクトのうち遮蔽領域に含まれる部分の輪郭以外の部分が、他の領域に比べて透明に近くなる画像処理を行うこともできる。
 また、各スライス画像に複数種類のオブジェクトが表示される場合は、処理部70は、全てのオブジェクトについて、遮蔽領域に含まれる部分の表示が透明に近くなる画像処理を行うこともできるし、ユーザーによって指定されたオブジェクトについて、遮蔽領域に含まれる部分の表示が透明に近くなる画像処理を行うこともできる。例えば医用のボリュームデータを構成する複数のスライス画像の各々に表示される各種のオブジェクト(骨、臓器、血管、腫瘍等のオブジェクト)のうち血管のオブジェクトがユーザーによって指定された場合、処理部70は、血管のオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなる画像処理を行うこともできる。上述の実施形態と同様に、処理部70は、血管のオブジェクトのうち遮蔽領域に含まれる部分の表示が、他の領域の表示に比べて透明に近くなるように、ボリュームデータの各画素の透過度を設定することもできるし、血管のオブジェクトのうち遮蔽領域に含まれる部分における各画素の画素値を、当該画素が非表示となる値に設定することもできる。さらに、処理部70は、血管のオブジェクトのうち遮蔽領域に含まれる部分の輪郭以外の部分の表示が、他の領域の表示に比べて透明に近くなる(例えば輪郭のみが表示される)画像処理を行うこともできる。また、ユーザーによって指定されるオブジェクトの種類や数も任意である。
(5)変形例5
 上述の実施形態では、ユーザーは、ペンなどの入力部を操作することによりモニタ上の3次元空間内の3次元座標値を入力しているが、これに限らず、当該3次元座標値の入力方法は任意である。例えばユーザーが、キーボードを操作することで、モニタ上の3次元空間内の3次元座標値を直接入力することもできる。また、ユーザーが、マウス操作により、モニタの画面上における2次元座標値(x、y)を指定し、マウスホイールの値やクリックを継続している時間に応じて、Z方向における座標値zが入力される構成であってもよい。また、ユーザーが、タッチ操作により、モニタの画面上における2次元座標値(x、y)を指定し、タッチを継続している時間に応じてZ方向における座標値zが入力されてもよいし、ユーザーがモニタの画面上にタッチすると、ユーザーの操作に応じてスライド量が変化するスライドバーが表示され、そのスライド量に応じてZ方向における座標値zが入力されてもよい。
 上述の各実施形態および各変形例の画像処理装置は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部の機能は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、各部の機能のうちの少なくとも一部を個別の回路(ハードウェア)で実現することもできる。
 また、上述の各実施形態および各変形例の画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の各実施形態および各変形例の画像処理装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の各実施形態および各変形例の画像処理装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。
1 画像表示装置
10 取得部
20 センサ部
21 第1検出部
22 第2検出部
30 受付部
40 指定部
50 第1設定部
60 第2設定部
70 処理部
100 画像処理装置
200 表示装置

Claims (12)

  1.  3次元画像を取得する取得部と、
     ユーザーの入力に応じて、前記3次元画像内の3次元座標値を指定する指定部と、
     前記3次元座標値を含む領域を示す指示領域を設定する第1設定部と、
     前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定する第2設定部と、
     前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う処理部と、を備える、
     画像処理装置。
  2.  前記処理部は、前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなるように、前記3次元画像の各画素の透過度を設定する、
     請求項1の画像処理装置。
  3.  前記処理部は、前記遮蔽領域内の各画素の画素値を、当該画素が非表示となる値に設定する、
     請求項1の画像処理装置。
  4.  前記3次元画像は、対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、前記複数の断面画像の各々は、表示されるオブジェクトごとに複数の領域に区分され、
     前記第1設定部は、前記指定部により指定された前記3次元座標値を含む前記オブジェクトが属する前記領域を、前記指示領域として設定する、
     請求項1の画像処理装置。
  5.  前記3次元画像は、対象物体の所定の軸方向に沿った複数の断面画像から構成されるボリュームデータであり、
     前記処理部は、各前記断面画像に表示されるオブジェクトのうち前記遮蔽領域に含まれる部分の表示は、他の領域の表示に比べて透明に近くなる画像処理を行う、
     請求項1の画像処理装置。
  6.  前記処理部は、前記オブジェクトのうち前記遮蔽領域に含まれる部分の輪郭以外の領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を行う、
     請求項5の画像処理装置。
  7.  前記第2設定部は、前記遮蔽領域を、前記ユーザーの入力に用いられる入力部の角度に応じて可変に設定する、
     請求項1の画像処理装置。
  8.  前記ユーザーの入力に用いられる入力部の3次元座標値を検出するセンサ部を備え、
     前記指定部は、前記センサ部で検出された3次元座標値を用いて、前記3次元画像内の3次元座標値を指定する、
     請求項1の画像処理装置。
  9.  前記センサ部は、立体画像が表示されるモニタ上の3次元空間内における前記入力部の3次元座標値を検出する、
     請求項8の画像処理装置。
  10.  3次元画像を取得する取得部と、
     ユーザーの入力に応じて、前記3次元画像内の3次元座標値を指定する指定部と、
     前記3次元座標値を含む領域を示す指示領域を設定する第1設定部と、
     前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定する第2設定部と、
     前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う処理部と、
     前記画像処理の結果を用いて、前記3次元画像を立体表示する表示装置と、を備える、
     画像表示装置。
  11.  3次元画像を取得し、
     ユーザーの入力に応じて、前記3次元画像内の3次元座標値を指定し、
     前記3次元座標値を含む領域を示す指示領域を設定し、
     前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定し、
     前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う、
     画像処理方法。
  12.  コンピュータを、
     3次元画像を取得する取得手段と、
     ユーザーの入力に応じて、前記3次元画像内の3次元座標値を指定する指定手段と、
     前記3次元座標値を含む領域を示す指示領域を設定する第1設定手段と、
     前記3次元画像を観察した場合に、前記指示領域を覆い隠している領域を示す遮蔽領域を設定する第2設定手段と、
     前記遮蔽領域の表示が、他の領域の表示に比べて透明に近くなる画像処理を前記3次元画像に対して行う処理手段として機能させるためのプログラム。
PCT/JP2011/067988 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム WO2013021440A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/067988 WO2013021440A1 (ja) 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム
JP2012537250A JP5414906B2 (ja) 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム
US14/061,318 US20140047378A1 (en) 2011-08-05 2013-10-23 Image processing device, image display apparatus, image processing method, and computer program medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/067988 WO2013021440A1 (ja) 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/061,318 Continuation US20140047378A1 (en) 2011-08-05 2013-10-23 Image processing device, image display apparatus, image processing method, and computer program medium

Publications (1)

Publication Number Publication Date
WO2013021440A1 true WO2013021440A1 (ja) 2013-02-14

Family

ID=47667993

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/067988 WO2013021440A1 (ja) 2011-08-05 2011-08-05 画像処理装置、画像表示装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20140047378A1 (ja)
JP (1) JP5414906B2 (ja)
WO (1) WO2013021440A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222848A (ja) * 2013-05-14 2014-11-27 株式会社東芝 画像処理装置、方法、及びプログラム
CN104282029A (zh) * 2013-07-11 2015-01-14 北京中盈安信技术服务有限公司 一种三维模型影像处理方法和电子终端
US20150022467A1 (en) * 2013-07-17 2015-01-22 Kabushiki Kaisha Toshiba Electronic device, control method of electronic device, and control program of electronic device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204711B (zh) * 2016-06-29 2020-12-18 深圳开立生物医疗科技股份有限公司 一种三维容积图像处理方法和系统
EP3901910A1 (en) * 2017-12-14 2021-10-27 Canon Kabushiki Kaisha Generation device, generation method and program for three-dimensional model
US11550012B2 (en) * 2018-06-11 2023-01-10 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and imaging processing method for determining a region to which processing is to be performed
US11281351B2 (en) * 2019-11-15 2022-03-22 Adobe Inc. Selecting objects within a three-dimensional point cloud environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355441A (ja) * 2002-03-06 2002-12-10 Konami Co Ltd ゲーム装置及びゲームプログラム
JP2006334259A (ja) * 2005-06-06 2006-12-14 Toshiba Corp 三次元画像処理装置および三次元画像表示方法
JP2008029703A (ja) * 2006-07-31 2008-02-14 Toshiba Corp 三次元画像表示装置
JP2010092507A (ja) * 2002-09-06 2010-04-22 Sony Computer Entertainment Inc 画像処理方法、画像処理装置、および画像処理システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JPH07262412A (ja) * 1994-03-16 1995-10-13 Fujitsu Ltd 三次元モデル断面指示装置および指示方式
US6694163B1 (en) * 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
JP4776834B2 (ja) * 2001-09-19 2011-09-21 東芝医用システムエンジニアリング株式会社 画像処理装置
JP3845682B2 (ja) * 2002-02-18 2006-11-15 独立行政法人理化学研究所 シミュレーション方法
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
US8747319B2 (en) * 2005-10-07 2014-06-10 Hitachi Medical Corporation Image displaying method and medical image diagnostic system
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
EP2312534A3 (en) * 2009-10-15 2011-07-06 Hitachi Aloka Medical, Ltd. Ultrasonic volume data processing device
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002355441A (ja) * 2002-03-06 2002-12-10 Konami Co Ltd ゲーム装置及びゲームプログラム
JP2010092507A (ja) * 2002-09-06 2010-04-22 Sony Computer Entertainment Inc 画像処理方法、画像処理装置、および画像処理システム
JP2006334259A (ja) * 2005-06-06 2006-12-14 Toshiba Corp 三次元画像処理装置および三次元画像表示方法
JP2008029703A (ja) * 2006-07-31 2008-02-14 Toshiba Corp 三次元画像表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222848A (ja) * 2013-05-14 2014-11-27 株式会社東芝 画像処理装置、方法、及びプログラム
CN104282029A (zh) * 2013-07-11 2015-01-14 北京中盈安信技术服务有限公司 一种三维模型影像处理方法和电子终端
CN104282029B (zh) * 2013-07-11 2018-10-19 北京中盈安信技术服务股份有限公司 一种三维模型影像处理方法和电子终端
US20150022467A1 (en) * 2013-07-17 2015-01-22 Kabushiki Kaisha Toshiba Electronic device, control method of electronic device, and control program of electronic device

Also Published As

Publication number Publication date
JP5414906B2 (ja) 2014-02-12
US20140047378A1 (en) 2014-02-13
JPWO2013021440A1 (ja) 2015-03-05

Similar Documents

Publication Publication Date Title
JP5414906B2 (ja) 画像処理装置、画像表示装置、画像処理方法およびプログラム
EP2486548B1 (en) Interactive selection of a volume of interest in an image
JP5808146B2 (ja) 画像処理システム、装置及び方法
US20090147073A1 (en) Methods and Systems for Stereoscopic Three Dimensional Viewing
US20130009957A1 (en) Image processing system, image processing device, image processing method, and medical image diagnostic device
US9746989B2 (en) Three-dimensional image processing apparatus
US20180310907A1 (en) Simulated Fluoroscopy Images with 3D Context
JP6245840B2 (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP2008259699A (ja) 画像処理方法および装置並びにプログラム
US20160081759A1 (en) Method and device for stereoscopic depiction of image data
US20180020992A1 (en) Systems and methods for medical visualization
US20120327080A1 (en) Image processing system, terminal device, and image processing method
JP2015515296A (ja) 対象物の画像情報の提供
JP6887449B2 (ja) レンダリングされた画像を照明するシステム及び方法
CN109937435A (zh) 用于在绘制的图像中进行模拟光源定位的系统和方法
JP2013223792A (ja) 画像処理装置、画像処理方法
JP5802767B2 (ja) 画像処理装置、立体画像表示装置、および、画像処理方法
US20140055448A1 (en) 3D Image Navigation Method
WO2020205714A1 (en) Surgical planning, surgical navigation and imaging system
JP5974238B2 (ja) 画像処理システム、装置、方法及び医用画像診断装置
JP2008067915A (ja) 医用画像表示装置
JP5065740B2 (ja) 画像処理方法および装置並びにプログラム
WO2017149107A1 (en) Medical image navigation system
JP6104982B2 (ja) 画像処理装置、画像処理方法及び医用画像診断装置
JP2013017056A (ja) 画像処理装置、画像処理方法及び医用画像診断装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2012537250

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11870573

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11870573

Country of ref document: EP

Kind code of ref document: A1