JP5377153B2 - Image processing apparatus, image processing program, and medical diagnostic system - Google Patents
Image processing apparatus, image processing program, and medical diagnostic system Download PDFInfo
- Publication number
- JP5377153B2 JP5377153B2 JP2009189421A JP2009189421A JP5377153B2 JP 5377153 B2 JP5377153 B2 JP 5377153B2 JP 2009189421 A JP2009189421 A JP 2009189421A JP 2009189421 A JP2009189421 A JP 2009189421A JP 5377153 B2 JP5377153 B2 JP 5377153B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- direction change
- display control
- change guide
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 107
- 230000008859 change Effects 0.000 claims description 137
- 239000003550 marker Substances 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000002059 diagnostic imaging Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 5
- 210000002429 large intestine Anatomy 0.000 description 62
- 238000002591 computed tomography Methods 0.000 description 25
- 238000003745 diagnosis Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 206010009944 Colon cancer Diseases 0.000 description 1
- 208000029742 colonic neoplasm Diseases 0.000 description 1
- 238000002675 image-guided surgery Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Endoscopes (AREA)
Description
本発明は、画像処理装置、画像処理プログラムおよび医用診断システムに関する。 The present invention relates to an image processing apparatus, an image processing program, and a medical diagnosis system.
従来、例えば大腸などの検査では、電子式内視鏡を用いて、大腸内部にある病変部などの関心領域を診察することが行われている。また、近年では、電子式内視鏡を用いた診察に加えて、仮想内視鏡システムを用いた診察も行われている。 Conventionally, for example, in an examination of the large intestine, an area of interest such as a lesion in the large intestine is examined using an electronic endoscope. In recent years, in addition to medical examination using an electronic endoscope, medical examination using a virtual endoscope system is also performed.
仮想内視鏡システムは、例えば、X線CT(Computed Tomography)装置などの画像診断装置によって生成された画像データから仮想内視鏡画像を生成し、生成した仮想内視鏡画像を表示する(例えば、非特許文献1参照)。なお、以下では、電子式内視鏡と仮想内視鏡とを区別するため、電子式内視鏡を「実内視鏡」と呼ぶ。 The virtual endoscope system generates a virtual endoscopic image from image data generated by an image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, and displays the generated virtual endoscopic image (for example, Non-Patent Document 1). Hereinafter, in order to distinguish between an electronic endoscope and a virtual endoscope, the electronic endoscope is referred to as a “real endoscope”.
かかる仮想内視鏡システムを利用することによって、医師は、実内視鏡を用いて大腸内部を直接診察する代わりに、仮想内視鏡画像を用いて大腸内部を仮想的に診察することができる。また、CAD(Computer Aided Design)システムを用いて、仮想内視鏡システムによって生成された仮想内視鏡画像から病変部を自動検出する技術もある。 By using such a virtual endoscope system, a doctor can virtually examine the inside of the large intestine using a virtual endoscopic image instead of directly examining the inside of the large intestine using a real endoscope. . There is also a technique for automatically detecting a lesion from a virtual endoscope image generated by a virtual endoscope system using a CAD (Computer Aided Design) system.
しかしながら、上述した従来の技術では、以下に説明するように、診察で用いられる画像に表示されない範囲があった場合に、操作者が、その範囲に位置する関心領域を容易に確認することができないという課題があった。 However, in the above-described conventional technology, as described below, when there is a range that is not displayed in an image used for diagnosis, the operator cannot easily confirm the region of interest located in the range. There was a problem.
例えば、実内視鏡は、視線方向が進行方向の一方向のみであることから、視野に死角が生じる。図9は、従来技術の課題を説明するための図である。図9に示すように、例えば、実内視鏡1は、先端に設けられたカメラ2が関心領域3の付近に到達しても、進行方向に向かって関心領域3がヒダ4の裏側に位置するような場合には、関心領域3を撮影することができない。そのため、操作者は、例えば、被検体の大腸にガスを注入して大腸を膨らませたうえで、実内視鏡を死角に回り込ませて撮影するなどの特別な操作を行って、関心領域の状態を確認していた。
For example, a real endoscope has a blind spot in the field of view because the line-of-sight direction is only one direction of travel. FIG. 9 is a diagram for explaining the problems of the prior art. As shown in FIG. 9, for example, in the
また、例えば、実内視鏡による観察の前に、仮想内視鏡システムによって生成された仮想内視鏡画像の展開図を観察することで、関心領域周辺のヒダの情報を得る方法もある。しかし、展開図の生成および観察は長い時間を要することから、操作者は関心領域の状態を容易に確認することができなかった。 In addition, for example, there is a method of obtaining fold information around a region of interest by observing a developed view of a virtual endoscope image generated by a virtual endoscope system before observation with a real endoscope. However, since it takes a long time to generate and observe the development view, the operator cannot easily confirm the state of the region of interest.
本発明は、上記に鑑みてなされたものであって、診察で用いられる画像に表示されない範囲があった場合でも、その範囲に位置する関心領域を容易に確認することができるように操作者を支援することが可能な画像処理装置、画像処理プログラムおよび医用診断システムを提供することを目的とする。 The present invention has been made in view of the above, and even when there is a range that is not displayed on the image used in the examination, the operator can be easily confirmed so that the region of interest located in the range can be easily confirmed. An object of the present invention is to provide an image processing apparatus, an image processing program, and a medical diagnosis system that can be supported.
上述した課題を解決し、目的を達成するために、請求項1記載の本発明は、画像処理装置が、被検体の部位を所定方向から撮影した画像を第1の画像として表示部に表示する第1の表示制御手段と、前記第1の表示制御手段によって表示された前記第1の画像上で任意の視点を指定する操作を操作者から受け付ける操作受付手段と、所定の画像診断装置によって得られた画像データを用いて、前記操作受付手段による操作の受け付けによって指定された視点から前記部位を撮影した場合の仮想画像を生成し、生成した仮想画像を第2の画像として前記表示部に表示する第2の表示制御手段とを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, according to the first aspect of the present invention, the image processing apparatus displays an image obtained by photographing the region of the subject from a predetermined direction on the display unit as a first image. Obtained by a first display control means, an operation acceptance means for accepting an operation for designating an arbitrary viewpoint on the first image displayed by the first display control means from an operator, and a predetermined diagnostic imaging apparatus. Using the obtained image data, a virtual image when the part is imaged from a viewpoint designated by accepting an operation by the operation accepting unit is generated, and the generated virtual image is displayed on the display unit as a second image And a second display control means.
また、請求項6記載の本発明は、画像処理プログラムが、被検体の部位を所定方向から撮影した画像を第1の画像として表示部に表示する第1の表示制御手順と、前記第1の表示制御手順によって表示された前記第1の画像上で任意の視点を指定する操作を操作者から受け付ける操作受付手順と、所定の画像診断装置によって得られた画像データを用いて、前記操作受付手順による操作の受け付けによって指定された視点から前記部位を撮影した場合の仮想画像を生成し、生成した仮想画像を第2の画像として前記表示部に表示する第2の表示制御手順とをコンピュータに実行させることを特徴とする。 According to a sixth aspect of the present invention, the image processing program displays a first display control procedure in which an image obtained by photographing a part of a subject from a predetermined direction is displayed on the display unit as a first image; An operation acceptance procedure for accepting an operation for designating an arbitrary viewpoint on the first image displayed by the display control procedure from an operator, and the operation acceptance procedure using image data obtained by a predetermined image diagnostic apparatus. And generating a virtual image when the part is imaged from the viewpoint specified by accepting an operation by the computer and executing a second display control procedure for displaying the generated virtual image on the display unit as a second image. It is characterized by making it.
また、請求項7記載の本発明は、内視鏡と画像処理装置とを有する医用診断システムであって、前記内視鏡が、被検体の部位を所定方向から撮影する撮影手段を備え、前記画像処理装置が、前記内視鏡によって撮影された画像を第1の画像として表示部に表示する第1の表示制御手段と、前記第1の表示制御手段によって表示された前記第1の画像上で任意の視点を指定する操作を操作者から受け付ける操作受付手段と、所定の画像診断装置によって得られた画像データを用いて、前記操作受付手段による操作の受け付けによって指定された視点から前記部位を撮影した場合の仮想画像を生成し、生成した仮想画像を第2の画像として前記表示部に表示する第2の表示制御手段とを備えたことを特徴とする。 The present invention according to claim 7 is a medical diagnosis system having an endoscope and an image processing device, wherein the endoscope includes an imaging unit that images a region of a subject from a predetermined direction, An image processing apparatus displays a first display control unit that displays an image captured by the endoscope as a first image on a display unit; and the first display control unit displays the first image on the first image displayed by the first display control unit. The operation accepting means for accepting an operation for designating an arbitrary viewpoint from the operator and the image data obtained by a predetermined image diagnostic apparatus, and the part from the viewpoint designated by accepting the operation by the operation accepting means. And a second display control unit configured to generate a virtual image when the image is taken and display the generated virtual image on the display unit as a second image.
請求項1、6または7記載の本発明によれば、診断用の画像において表示されない範囲に関心領域が位置する場合でも、関心領域の状態を容易に確認することができるという効果を奏する。 According to the present invention, the state of the region of interest can be easily confirmed even when the region of interest is located in a range that is not displayed in the diagnostic image.
以下に、本発明に係る画像処理装置、画像処理プログラムおよび医用診断システムの実施例を図面に基づいて詳細に説明する。なお、以下に示す実施例では、大腸の検査を行う場合について説明するが、この実施例によって本発明が限定されるものではない。 Embodiments of an image processing apparatus, an image processing program, and a medical diagnosis system according to the present invention will be described below in detail with reference to the drawings. In addition, although the Example shown below demonstrates the case where the test | inspection of a large intestine is performed, this invention is not limited by this Example.
まず、本実施例1に係る医用診断システムの概要について説明する。本実施例1に係る医用診断システムは、実内視鏡によって撮影された実内視鏡画像と、X線CT装置によって得られた画像データから生成された仮想内視鏡画像とをそれぞれ表示する。ここで、実内視鏡の視野方向は進行方向のみであるので、視野に死角が存在する。 First, an outline of the medical diagnosis system according to the first embodiment will be described. The medical diagnosis system according to the first embodiment displays a real endoscopic image captured by a real endoscope and a virtual endoscopic image generated from image data obtained by an X-ray CT apparatus, respectively. . Here, since the visual field direction of the real endoscope is only the traveling direction, there is a blind spot in the visual field.
そこで、本実施例1では、医用診断システムが、実内視鏡画像上で任意の視点を指定する操作を操作者から受け付ける。そして、医用診断システムは、操作者によって指定された視点から大腸内部を撮影した場合の仮想内視鏡画像を生成し、生成した仮想内視鏡画像を表示部に表示する。 Therefore, in the first embodiment, the medical diagnosis system receives an operation for designating an arbitrary viewpoint on the actual endoscopic image from the operator. Then, the medical diagnosis system generates a virtual endoscopic image when the inside of the large intestine is imaged from the viewpoint designated by the operator, and displays the generated virtual endoscopic image on the display unit.
すなわち、本実施例1に係る医用診断システムは、実内視鏡の視野方向とは異なる任意の方向から撮影した場合の仮想内視鏡画像を表示することができる。したがって、本実施例1によれば、診察で用いられる実内視鏡画像に表示されない範囲があった場合でも、その範囲に位置する関心領域を容易に確認することができるように操作者を支援することが可能になる。 That is, the medical diagnosis system according to the first embodiment can display a virtual endoscopic image when the image is taken from an arbitrary direction different from the visual field direction of the real endoscope. Therefore, according to the first embodiment, even when there is a range that is not displayed in the actual endoscope image used in the diagnosis, the operator is supported so that the region of interest located in the range can be easily confirmed. It becomes possible to do.
次に、本実施例1に係る医用診断システムの構成について説明する。図1は、本実施例1に係る医用診断システム10の構成を示す図である。図1に示すように、本実施例1に係る医用診断システム10は、実内視鏡11と、記憶装置12と、画像処理装置13とを有する。
Next, the configuration of the medical diagnosis system according to the first embodiment will be described. FIG. 1 is a diagram illustrating a configuration of a
実内視鏡11は、カメラ11aと、マーカ11bと、実内視鏡操作部11cと、視線方向変更ガイド操作部11dとを有する。カメラ11aは、実内視鏡11の先端に設けられ、実内視鏡11の進行方向を撮影する。マーカ11bは、カメラ11aの位置および進行方向を検出する。実内視鏡操作部11cは、カメラ11aのアングルや撮影の調整に関する操作を操作者から受け付ける。
The
視線方向変更ガイド操作部11dは、後述する画像処理装置13によって表示された実内視鏡画像上で任意の視線方向を指定する操作を操作者から受け付ける。また、例えば、視線方向変更ガイド操作部11dは、画像処理装置13によって表示される仮想内視鏡画像の視線方向を変更するための視線方向変更モードを起動または終了する操作を操作者から受け付ける。かかる視線方向変更ガイド操作部11dは、例えば、マウスやトラックボールなどの入力ユーザインタフェースを有する。
The line-of-sight direction change guide operation unit 11d receives an operation for designating an arbitrary line-of-sight direction on an actual endoscopic image displayed by the
記憶装置12は、被検体に関する3次元画像データを記憶する。例えば、記憶装置12は、X線CT装置によって生成されたCT像データを記憶する。かかる記憶装置12は、例えば、ハードディスクドライブ、DVDドライブなどである。 The storage device 12 stores three-dimensional image data related to the subject. For example, the storage device 12 stores CT image data generated by an X-ray CT apparatus. Such a storage device 12 is, for example, a hard disk drive or a DVD drive.
画像処理装置13は、各種画像を処理する。例えば、画像処理装置13は、実内視鏡11によって得られた画像データから実内視鏡画像を生成して表示する。また、画像処理装置13は、記憶装置12によって記憶されている画像データから仮想内視鏡画像を生成して表示する。この画像処理装置13は、表示部13aと、実内視鏡画像処理部13bと、実内視鏡位置検出部13cと、視線方向変更ガイド画像処理部13dと、視線方向変更ガイド操作量処理部13eと、仮想内視鏡画像処理部13fとを有する。
The
表示部13aは、各種画像を表示する。例えば、表示部13aは、実内視鏡11によって撮影された実内視鏡画像や、記憶装置12によって記憶されている画像データから生成された仮想内視鏡画像を表示する。
The
実内視鏡画像処理部13bは、大腸内部を実内視鏡11の進行方向から撮影した実内視鏡画像を表示部13aに表示する。具体的には、実内視鏡画像処理部13bは、実内視鏡11のカメラ11aによって得られた画像データから実内視鏡画像を再構成し、再構成した実内視鏡画像を表示部13aに表示する。
The real endoscopic
実内視鏡位置検出部13cは、実内視鏡11が有するカメラ11aの位置を検出する。具体的には、実内視鏡位置検出部13cは、検査対象の被検体に関するCT像データを記憶装置12から取得し、取得したCT像データに基づいて、大腸に含まれる各部の位置関係を示す大腸マップを作成する。そして、実内視鏡位置検出部13cは、実内視鏡11のマーカ11bによってカメラ11aの位置が検出されると、検出された位置を大腸マップに配置する。
The actual endoscope
視線方向変更ガイド画像処理部13dは、実内視鏡画像処理部13bによって表示部13aに表示された実内視鏡画像上に、任意の視点を指定する範囲を示す視線方向変更ガイドを表示する。
The line-of-sight direction change guide image processing unit 13d displays a line-of-sight direction change guide indicating a range for designating an arbitrary viewpoint on the real endoscope image displayed on the
図2−1は、視線方向変更ガイド画像処理部13dによって表示される視線方向変更ガイドの一例を示す図である。図2−1に示すように、例えば、視線方向変更ガイド画像処理部13dは、ドーム状に形成された視線方向変更ガイド21を表示し、さらに、視線方向変更ガイド21の表面に配置された視点マーカ22を表示する。
FIG. 2A is a diagram illustrating an example of a gaze direction change guide displayed by the gaze direction change guide image processing unit 13d. As illustrated in FIG. 2A, for example, the line-of-sight direction change guide image processing unit 13d displays a line-of-sight
そして、視線方向変更ガイド画像処理部13dは、視線方向変更ガイド21の位置または大きさを変更する操作が視線方向変更ガイド操作部11dによって受け付けられた場合に、後述する視線方向変更ガイド操作量処理部13eからの指示に応じて、表示部13aに表示されている視線方向変更ガイド21の大きさを変更したり(矢印Aを参照)、回転したりする(矢印Bを参照)。
The line-of-sight direction change guide image processing unit 13d performs line-of-sight direction change guide operation amount processing described later when an operation for changing the position or size of the line-of-sight
また、視線方向変更ガイド画像処理部13dは、視点マーカ22を移動する操作が視線方向変更ガイド操作部11dによって受け付けられた場合に、後述する視線方向変更ガイド操作量処理部13eからの指示に応じて、表示部13aに表示されている視点マーカ22の位置を視線方向変更ガイド21の表面に沿って移動する(矢印Cを参照)。ここで、視点マーカ22の位置から視線方向変更ガイド21の中心23へ向かう垂線の方向が、後述する仮想内視鏡画像処理部13fによって生成される仮想内視鏡画像の視線方向24として設定される。
The line-of-sight direction change guide image processing unit 13d responds to an instruction from the line-of-sight direction change guide operation
なお、視線方向変更ガイドの形状はドーム状に限られるものではない。図2−2は、視線方向変更ガイド画像処理部13dによって表示される視線方向変更ガイドの他の例を示す図である。例えば、図2−2に示すように、視線方向変更ガイド画像処理部13dは、球状に形成された視線方向変更ガイド31を表示し、さらに、視線方向変更ガイド31の表面に配置された視点マーカ32を表示してもよい。この場合には、視線方向変更ガイド画像処理部13dは、視点マーカ32から視線方向変更ガイド31の中心33へ向かう垂線の方向が、仮想内視鏡画像の視線方向34として設定される。
The shape of the line-of-sight direction change guide is not limited to the dome shape. FIG. 2-2 is a diagram illustrating another example of the gaze direction change guide displayed by the gaze direction change guide image processing unit 13d. For example, as illustrated in FIG. 2B, the line-of-sight direction change guide image processing unit 13d displays a line-of-sight
視線方向変更ガイド操作量処理部13eは、視線方向変更ガイド操作部11dによって操作者から受け付けられた操作に基づいて、視線方向変更ガイドの表示および仮想内視鏡画像の表示を制御する。
The line-of-sight direction change guide operation
例えば、視線方向変更ガイド操作量処理部13eは、視線方向変更モードを起動する操作が受け付けられた場合には、視線方向変更ガイドを表示部13aに表示するように、視線方向変更ガイド画像処理部13dを制御する。また、視線方向変更ガイド操作量処理部13eは、視線方向変更ガイドの位置または大きさを変更する操作が受け付けられた場合には、その操作量に応じて視線方向変更ガイドの位置または大きさを変更するように、視線方向変更ガイド画像処理部13dを制御する。
For example, the line-of-sight direction change guide
また、視線方向変更ガイド操作量処理部13eは、視線方向変更ガイドの表面に表示された視点マーカの位置を変更する操作が受け付けられた場合には、その操作量に応じて視点マーカの位置を変更するように、視線方向変更ガイド画像処理部13dを制御する。さらに、視線方向変更ガイド操作量処理部13eは、操作者によって指定された視点マーカから大腸を撮影した場合の仮想内視鏡画像を表示部13aに表示するように、仮想内視鏡画像処理部13fを制御する。
In addition, when an operation for changing the position of the viewpoint marker displayed on the surface of the line-of-sight direction change guide is received, the line-of-sight direction change guide operation
なお、上述した視線方向変更ガイドの表示および仮想内視鏡画像の表示に関する制御については、後に詳細に説明する。 Note that the above-described control related to the display of the gaze direction change guide and the display of the virtual endoscopic image will be described in detail later.
仮想内視鏡画像処理部13fは、X線CT装置によって得られたCT像データを用いて仮想内視鏡画像および大腸外形像を生成し、生成した仮想内視鏡画像および大腸外形像を表示部13aに表示する。
The virtual endoscopic
具体的には、仮想内視鏡画像処理部13fは、X線CT装置によって得られたCT像データを記憶装置12から取得し、取得したCT像データを用いて、視線方向変更ガイド操作部11dによる操作の受け付けによって指定された視点から大腸内部を撮影した場合の仮想内視鏡画像を生成する。さらに、仮想内視鏡画像処理部13fは、取得したCT像データを用いて、大腸の外形を表す大腸外形像を生成する。その後、仮想内視鏡画像処理部13fは、生成した大腸外形像および仮想内視鏡画像を表示部13aに表示する。なお、このとき、仮想内視鏡画像処理部13fは、実内視鏡画像処理部13bによって表示される実内視鏡画像と同期するように、大腸外形像および仮想内視鏡画像を表示する。
Specifically, the virtual endoscopic
また、仮想内視鏡画像処理部13fは、実内視鏡位置検出部13cによって作成された大腸マップを参照し、大腸マップに配置されているカメラ11aの位置情報に基づいて、カメラ11aの位置および進行方向を示すカメラ位置情報を大腸外形像上に重畳表示する。例えば、仮想内視鏡画像処理部13fは、カメラ11aの位置および進行方向を示す矢印を大腸外形像上に重畳表示する。
In addition, the virtual endoscope
そして、仮想内視鏡画像処理部13fは、操作者によって実内視鏡が操作されるたびに、大腸外形像、仮想内視鏡画像、および、大腸外形像上のカメラ位置情報の情報を更新する。これにより、大腸外形像、仮想内視鏡画像およびカメラ位置情報が、常に、実内視鏡11のカメラ11aの位置に同期して表示される。
Then, the virtual endoscopic
次に、視線方向変更ガイドの表示および仮想内視鏡画像の表示に関する制御について説明する。図3は、視線方向変更ガイドの表示および仮想内視鏡画像の表示に関する制御を説明するための図である。なお、ここでは、図2−1に示したドーム状の視線方向変更ガイドを例にあげて説明する。 Next, control related to the display of the gaze direction change guide and the display of the virtual endoscope image will be described. FIG. 3 is a diagram for explaining control related to display of the gaze direction change guide and display of the virtual endoscopic image. Here, the dome-shaped gaze direction changing guide shown in FIG. 2A will be described as an example.
図3に示すように、例えば、視点マーカ22の座標を(x,y,z)、視線方向変更ガイド21を表すドームの中心23の座標を(x0,y0,z0)、ドームの半径をrとした場合、以下に示す方程式(1)が成り立つ。
As shown in FIG. 3, for example, the coordinates of the
(x−x0)2+(y−y0)2+(z−z0)2=r2 ・・・(1) (X−x 0 ) 2 + (y−y 0 ) 2 + (z−z 0 ) 2 = r 2 (1)
ここで、視線方向24は、視点マーカ22の位置から視線方向変更ガイド21を表すドームの中心23へ向かう方向である。したがって、視線方向24を示すベクトルrは、以下に示す式(2)で表される。
Here, the line-of-
ベクトルr=(x0−x,y0−y,z0−z) ・・・(2) Vector r = (x 0 −x, y 0 −y, z 0 −z) (2)
視線方向変更ガイド操作量処理部13eは、視線方向変更モードの起動中は、視線方向変更ガイド操作部11dによって受け付けられた操作の操作量に応じて、視線方向変更ガイド21の位置および大きさを決定する。具体的には、視線方向変更ガイド操作量処理部13eは、視線方向変更ガイド操作部11dによって受け付けられた操作の操作量に応じて、視線方向変更ガイド21を表すドームの中心23の座標(x0,y0,z0)と、視線方向変更ガイド21を表すドームの半径rとを算出する。
The line-of-sight direction change guide operation
なお、このとき、視線方向変更ガイド操作量処理部13eは、大腸の内部に収まる範囲で、視線方向変更ガイド21の位置および大きさを決定する。そして、視線方向変更ガイド操作量処理部13eは、決定した視線方向変更ガイド21の位置および大きさを視線方向変更ガイド画像処理部13dへ通知する。
At this time, the line-of-sight direction change guide operation
視線方向変更ガイド画像処理部13dは、視線方向変更ガイド操作量処理部13eから通知された位置および大きさに基づいて、視線方向変更ガイド21の表示を更新する。視線方向変更ガイド画像処理部13dは、視線方向変更モードの起動中は、実内視鏡画像上に視線方向変更ガイド21を重畳して表示する。これにより、操作者は、表示された視線方向変更ガイド21を操作することで、視線方向変更ガイド21を任意の大きさおよび位置に設定することができる。
The line-of-sight direction change guide image processing unit 13d updates the display of the line-of-sight
こうして、視線方向変更ガイドの大きさが決定されたのちに、視線方向変更ガイド操作量処理部13eは、視線方向変更ガイド21の表面に沿って視点マーカ22を移動する操作が視線方向変更ガイド操作部11dによって受け付けられると、その操作量に応じて、視点マーカ22の座標(x,y,z)および視線方向を示すベクトルrを算出する。そして、視線方向変更ガイド操作量処理部13eは、算出した座標(x,y,z)およびベクトルrを仮想内視鏡画像処理部13fに通知する。
In this way, after the size of the line-of-sight direction change guide is determined, the line-of-sight direction change guide operation
仮想内視鏡画像処理部13fは、視線方向変更ガイド操作量処理部13eから通知された視点マーカ22の位置(x,y,z)および視線方向を示すベクトルrに基づいて、操作者によって指定された視点マーカ22から大腸を撮影した場合の仮想内視鏡画像を生成して表示部13aに表示する。
The virtual endoscopic
視線方向変更モードの起動中は、視線方向変更ガイド操作部11dによって視点マーカ22の位置を変更する操作が受け付けられるたびに、上述した処理が繰り返される。これにより、常に、視点マーカ22に同期した仮想内視鏡画像が表示される。
While the line-of-sight direction change mode is activated, the above-described process is repeated each time an operation for changing the position of the
次に、本実施例1に係る医用診断システム10の処理手順について説明する。図4−1および4−2は、本実施例1に係る医用診断システム10の処理手順を示すフローチャートである。また、図5〜7は、医用診断システム10によって表示される画像の一例を示す図である。
Next, a processing procedure of the
図4−1に示すように、操作者によってシステムが起動されると(ステップS101,Yes)、まず、仮想内視鏡画像処理部13fが、被検体に関するCT像データを記憶装置12から取得し(ステップS102)、取得したCT像データから大腸外形像および仮想内視鏡画像を生成する(ステップS103)。そして、仮想内視鏡画像処理部13fは、生成した大腸外形像を表示部13aに表示する(ステップS104)。
As illustrated in FIG. 4A, when the system is started by the operator (Yes in Step S101), first, the virtual endoscopic
この時点では、例えば、図5に示すように、大腸外形像41のみが表示部13aの大腸外形像表示エリアに表示される。また、実内視鏡11はまだ大腸に挿入されていないので、表示部13aの実内視鏡画像表示エリアには何も表示されない。また、実内視鏡画像と同期した仮想内視鏡画像が表示される仮想内視鏡画像表示エリアにも何も表示されない。また、後に、実内視鏡11のカメラ11aの位置および進行方向を示すカメラ位置情報が大腸外形像上に重畳表示されるが、この時点ではまだ表示されない。
At this point, for example, as shown in FIG. 5, only the large
続いて、実内視鏡位置検出部13cが、被検体に関するCT像データを記憶装置12から取得し、取得したCT像データから大腸マップを作成する(ステップS105)。
Subsequently, the actual endoscope
その後、医師によって検査が開始されると(ステップS106,Yes)、被検体の大腸に実内視鏡11が挿入され、実内視鏡画像処理部13bが、カメラ11aによって取得された画像データから実内視鏡画像を生成して表示部13aに表示する(ステップS107)。
Thereafter, when the examination is started by the doctor (step S106, Yes), the
続いて、実内視鏡位置検出部13cが、実内視鏡11のマーカ11bによって検出されたカメラ11aの位置を大腸マップに配置する(ステップS108)。
Subsequently, the real endoscope
続いて、仮想内視鏡画像処理部13fが、仮想内視鏡画像処理部13fによって表示された大腸外形像上に、カメラ11aの位置および進行方向を示すカメラ位置情報を重畳表示する(ステップS109)。さらに、仮想内視鏡画像処理部13fは、実内視鏡11のカメラ11aの位置から撮影された場合の仮想内視鏡画像を生成して表示部13aに表示する(ステップS110)。
Subsequently, the virtual endoscopic
この時点では、例えば、図6に示すように、表示部13aの実内視鏡画像表示エリアに実内視鏡画像42が表示される。また、大腸外形像表示エリアには、カメラ11aの位置および視線方向を示すカメラ位置情報として、矢印43が大腸外形像41上に重畳表示される。また、仮想内視鏡画像表示エリアには、実内視鏡画像42と同じ位置および視線方向から撮影した場合の仮想内視鏡画像が表示される。実内視鏡画像42は、実内視鏡11が操作されるたびに更新され、それに同期して、大腸外形像41上の矢印43および仮想内視鏡画像44も更新される。
At this time, for example, as shown in FIG. 6, the actual
その後、図4−2に示すように、操作者によって視線方向変更モードが起動されると(ステップS111,Yes)、視線方向変更ガイド画像処理部13dおよび視線方向変更ガイド操作量処理部13eが、視線方向変更ガイドを実内視鏡画像上に重畳表示する(ステップS112)。
Thereafter, as shown in FIG. 4B, when the gaze direction change mode is activated by the operator (Yes in step S111), the gaze direction change guide image processing unit 13d and the gaze direction change guide operation
そして、操作者によって視線方向変更ガイドの大きさまたは位置が変更されると(ステップS113,Yes)、視線方向変更ガイド操作量処理部13eが、視線方向変更ガイド操作部11dの操作量を計測する。そして、視線方向変更ガイド画像処理部13dが、視線方向変更ガイド操作量処理部13eによって計測された操作量の分だけ視線方向変更ガイドの大きさおよび位置を更新して表示する(ステップS114)。
When the size or position of the line-of-sight direction change guide is changed by the operator (Yes in step S113), the line-of-sight direction change guide operation
また、視線方向変更ガイド操作量処理部13eが、更新された視線方向変更ガイドの中心位置および半径を計算する(ステップS115)。
Further, the line-of-sight direction change guide operation
その後、操作者によって視点マーカが移動されると(ステップS116,Yes)、視線方向変更ガイド操作量処理部13eが、視線方向変更ガイド操作部11dの操作量を計測する。そして、視線方向変更ガイド画像処理部13dが、視線方向変更ガイド操作量処理部13eによって計測された操作量の分だけ視点マーカの位置を更新して表示する(ステップS117)。
Thereafter, when the viewpoint marker is moved by the operator (step S116, Yes), the line-of-sight direction change guide operation
続いて、視線方向変更ガイド操作量処理部13eが、更新された視点マーカの位置および視線方向を算出する(ステップS118)。そして、仮想内視鏡画像処理部13fが、視線方向変更ガイドにおける視点マーカの位置および視線方向から撮影した場合の仮想内視鏡画像を生成して表示部13aに表示する(ステップS119)。
Subsequently, the line-of-sight direction change guide operation
この時点では、例えば、図7に示すように、実内視鏡表示エリアには、視線方向変更ガイド21および視点マーカ22が実内視鏡画像42に重畳表示される。また、仮想内視鏡画像表示エリアには、視点マーカ22の位置および視線方向から見える仮想内視鏡画像44が表示される。仮想内視鏡画像44は、視線方向変更ガイド21の表面に沿って視点マーカ22の位置が更新されるたびに、それに同期して更新される。
At this time, for example, as shown in FIG. 7, the gaze
ここで、図7に示す例は、実内視鏡の進行方向において視線方向が奥側から手前側に向くように、視点マーカ22が設定された場合を示している。このように視点マーカ22を設定することによって、例えば、実内視鏡画像42においてヒダ45の裏側に関心領域46が隠れていた場合でも、仮想内視鏡画像44には、関心領域46が表示される。したがって、医師は、仮想内視鏡画像44を用いて、実内視鏡の死角に入っていた関心領域46の状態を確認することができる。
Here, the example shown in FIG. 7 shows a case where the
また、図7に示すように、大腸外形像表示エリアには、実内視鏡11のカメラ11aの位置および視線方向を示す矢印43が重畳表示され続ける。ここで、大腸外形像表示エリアの矢印43は、カメラ11aの位置および視線方向を示すものであって、視線方向変更ガイド21の変更にともなって更新されることはない。
In addition, as shown in FIG. 7, an
そして、操作者によって視線方向変更モードの起動が終了された場合には、表示部13aの画面は図6に示した表示の状態に戻る。すなわち、実内視鏡画像表示エリアから視線方向変更ガイド21の表示が消え、仮想内視鏡画像表示エリアには実内視鏡画像42と同期した仮想内視鏡画像44が表示される。
When the activation of the line-of-sight direction change mode is finished by the operator, the screen of the
上述してきたように、本実施例1では、実内視鏡画像処理部13bが、大腸内部を実内視鏡11の進行方向から撮影した実内視鏡画像を表示部13aに表示する。また、視線方向変更ガイド操作部11dが、実内視鏡画像処理部13bによって表示された実内視鏡画像上で任意の視点を指定する操作を操作者から受け付ける。そして、仮想内視鏡画像処理部13fが、X線CT装置によって得られたCT像データを用いて、視線方向変更ガイド操作部11dによる操作の受け付けによって指定された視点から大腸内部を撮影した場合の仮想内視鏡画像を生成し、生成した仮想内視鏡画像を表示部13aに表示する。
As described above, in the first embodiment, the real endoscopic
したがって、本実施例1によれば、診察で用いられる実内視鏡画像に表示されない範囲があった場合でも、その範囲に位置する関心領域を容易に確認することができるように操作者を支援することが可能になる。また、実内視鏡11の操作時に、複雑な操作をしなくてもヒダの裏側等の一般的な死角を仮想内視鏡画像で容易に確認できるようになる。これにより、実内視鏡の複雑な操作を減らすことができるので、検査時間を短縮することが可能になる。また、検査時間を短縮することで、被検体である患者および医師の負担を軽減することができる。また、大腸にガスを注入して検査を行う回数を減らすことができるので、患者の負担をさらに軽減することが可能になる。
Therefore, according to the first embodiment, even when there is a range that is not displayed in the actual endoscope image used in the diagnosis, the operator is supported so that the region of interest located in the range can be easily confirmed. It becomes possible to do. Further, when operating the
また、本実施例1では、視線方向変更ガイド画像処理部13dが、実内視鏡画像処理部13bによって表示された実内視鏡画像上に、任意の視点を指定する範囲を示す視線方向変更ガイドを表示する。そして、視線方向変更ガイド操作部11dが、視線方向変更ガイドによって示される範囲で任意の視点を指定する操作を操作者から受け付ける。
In the first embodiment, the line-of-sight direction change guide image processing unit 13d changes the line-of-sight direction indicating a range for designating an arbitrary viewpoint on the real endoscopic image displayed by the real endoscopic
したがって、本実施例1によれば、視線方向変更ガイドを基準にして位置関係を確認しながら始点を設定することができるので、さらに容易に関心領域を確認することができるように操作者を支援することが可能になる。 Therefore, according to the first embodiment, the start point can be set while confirming the positional relationship with reference to the line-of-sight direction change guide, and thus the operator is supported so that the region of interest can be confirmed more easily. It becomes possible to do.
また、本実施例1では、視線方向変更ガイド画像処理部13dが、ドーム状または球状に形成された視線方向変更ガイドおよび視線方向変更ガイドの表面に配置された視点マーカをそれぞれ実内視鏡画像上に表示する。また、視線方向変更ガイド操作部11dが、視線方向変更ガイドの表面に沿って視点マーカを移動する操作を操作者から受け付ける。そして、仮想内視鏡画像処理部13fが、視点マーカの位置から視線方向変更ガイドの中心へ向かう方向に大腸内部を撮影した場合の仮想画像を生成して表示部13aに表示する。
Further, in the first embodiment, the line-of-sight direction change guide image processing unit 13d sets the line-of-sight direction change guide formed in a dome shape or a spherical shape and the viewpoint marker arranged on the surface of the line-of-sight direction change guide, respectively, in the actual endoscopic image. Display above. Further, the line-of-sight direction change guide operation unit 11d receives an operation of moving the viewpoint marker along the surface of the line-of-sight direction change guide from the operator. Then, the virtual endoscopic
したがって、本実施例1によれば、視線方向変更ガイドを基準にして立体的な位置関係を確認しながら始点を設定することができるので、システムの操作性を向上させることができる。また、視点の位置を立体的に示すことができるので、より正確に関心領域を確認することができるように操作者を支援することが可能になる。 Therefore, according to the first embodiment, the start point can be set while confirming the three-dimensional positional relationship with reference to the line-of-sight direction change guide, so that the operability of the system can be improved. In addition, since the position of the viewpoint can be shown in three dimensions, it is possible to assist the operator so that the region of interest can be confirmed more accurately.
また、本実施例1では、仮想内視鏡画像処理部13fが、X線CT装置によって得られたCT像データを用いて大腸内部の外形像を生成し、生成した外形像を表示部13aに表示する。そして、仮想内視鏡画像処理部13fは、表示された大腸内部の外形像に実内視鏡11が有するカメラ11aの位置および進行方向を示すカメラ位置情報を重畳して表示する。
In the first embodiment, the virtual endoscopic
したがって、本実施例1によれば、操作者が、大腸内部におけるカメラ11aの位置および進行方向を容易に把握することができるので、精度よく検査を行うことができるように操作者を支援することが可能になる。また、診察に用いられる画像の他に付加的な情報を操作者に提供することで、システムの利便性を向上させることが可能になる。
Therefore, according to the first embodiment, since the operator can easily grasp the position and the traveling direction of the
なお、上記実施例1では、実内視鏡画像と仮想内視鏡画像とをそれぞれ表示する医用診断システムについて説明したが、本発明はこれに限られるものではない。そこで、以下では、実施例2として、本発明を仮想内視鏡システムに適用した場合について説明する。 In the first embodiment, the medical diagnosis system that displays the real endoscopic image and the virtual endoscopic image has been described. However, the present invention is not limited to this. Therefore, hereinafter, as a second embodiment, a case where the present invention is applied to a virtual endoscope system will be described.
例えば、近年、仮想内視鏡システムの自動フライスルー技術を用いて、大腸ガンのスクリーニングが行われる場合がある。ここでいう「自動フライスルー技術」とは、仮想内視鏡システムが、あらかじめ生成した経路に沿って視点を進めながら、仮想内視鏡画像を自動的に表示する技術である。 For example, in recent years, colon cancer screening may be performed using an automatic fly-through technique of a virtual endoscope system. The “automatic fly-through technique” here is a technique in which a virtual endoscope system automatically displays a virtual endoscopic image while advancing the viewpoint along a path generated in advance.
かかる自動フライスルー技術では、仮想内視鏡システムは、表示部の表示領域に表示可能な範囲で仮想内視鏡画像を表示するが、経路の位置に沿って一通り仮想内視鏡画像を表示した結果、表示できなかった領域が存在することもある。そのため、仮想内視鏡システムの中には、表示することができなかった領域を未提示領域として検出する機能を備えたものもある(例えば、「仮想化内視鏡システムにおける未提示領域の検出機能の開発」、林 雄一郎、森 健策 他、MEDICAL IMAGING TECHNOLOGY Vol.20 No.5 September 2002を参照)。 With this automatic fly-through technology, the virtual endoscopic system displays a virtual endoscopic image in a displayable range in the display area of the display unit, but displays a virtual endoscopic image along the path position. As a result, there may be a region that could not be displayed. For this reason, some virtual endoscope systems have a function of detecting an area that could not be displayed as an unpresented area (for example, “Detection of an unpresented area in a virtualized endoscope system”). Development of functions ", Yuichiro Hayashi, Kensaku Mori et al., See MEDICAL IMAGEING TECHNOLOGY Vol. 20 No. 5 September 2002).
本実施例2では、かかる未提示領域を検出する機能を備えた仮想内視鏡システムに本発明を適用した場合について説明する。図8は、本実施例2に係る仮想内視鏡システムを説明するための図である。図8に示すように、本実施例2に係る仮想内視鏡システムは、例えば、大腸の外形を表す大腸外形像51を表示部に表示したうえで、大腸外形像51に重畳させて未提示領域52を表示する。
In the second embodiment, a case where the present invention is applied to a virtual endoscope system having a function of detecting such an unpresented area will be described. FIG. 8 is a diagram for explaining the virtual endoscope system according to the second embodiment. As illustrated in FIG. 8, the virtual endoscope system according to the second embodiment displays, for example, a large
そして、この仮想内視鏡システムは、表示された大腸外形像51上で任意の視点を指定する操作を操作者から受け付ける。例えば、仮想内視鏡システムは、ドーム状に形成された視線方向変更ガイド21および視線方向変更ガイド21の表面に配置された視点マーカ22をそれぞれ大腸外形像51上に表示する。また、仮想内視鏡システムは、視線方向変更ガイド21の表面に沿って視点マーカ22を移動する操作を操作者から受け付ける。
The virtual endoscope system accepts an operation for designating an arbitrary viewpoint on the displayed large-
その後、仮想内視鏡システムは、X線CT装置によって得られたCT像データを用いて、操作者によって指定された視点から大腸内部を撮影した場合の仮想内視鏡画像53を生成し、生成した仮想内視鏡画像53を表示部に表示する。例えば、仮想内視鏡システムは、視点マーカ22の位置から視線方向変更ガイド21の中心へ向かう方向に大腸内部を撮影した場合の仮想内視鏡画像53を生成して表示部に表示する。
Thereafter, the virtual endoscope system uses the CT image data obtained by the X-ray CT apparatus to generate and generate a
このように、本実施例2では、仮想内視鏡システムが、大腸内部の外形を表す大腸外形像51を表示部に表示したうえで、大腸外形像51に重畳させて未提示領域52を表示する。また、仮想内視鏡システムは、表示された大腸外形像51上で任意の視点を指定する操作を操作者から受け付ける。そして、仮想内視鏡システムは、X線CT装置によって得られたCT像データを用いて、視線方向変更ガイド操作部11dによる操作の受け付けによって指定された視点から大腸内部を撮影した場合の仮想内視鏡画像53を生成し、生成した仮想内視鏡画像53を表示部に表示する。
As described above, in the second embodiment, the virtual endoscope system displays the large-
したがって、本実施例2によれば、診察で用いられる仮想内視鏡画像に表示されない範囲があった場合でも、その範囲に位置する関心領域を容易に確認することができるように操作者を支援することが可能になる。また、仮想内視鏡システムの自動フライスルー技術を用いたスクリーニングにおいて、未提示領域の確認が容易となるので、検査効率を向上させることが可能になる。 Therefore, according to the second embodiment, even when there is a range that is not displayed in the virtual endoscopic image used in the diagnosis, the operator is supported so that the region of interest located in the range can be easily confirmed. It becomes possible to do. Further, in the screening using the automatic fly-through technology of the virtual endoscope system, it becomes easy to check the unpresented area, and thus the examination efficiency can be improved.
10 医用診断システム
11 実内視鏡
11a カメラ
11b マーカ
11c 実内視鏡操作部
11d 視線方向変更ガイド操作部
12 記憶装置
13 画像処理装置
13a 表示部
13b 実内視鏡画像処理部
13c 実内視鏡位置検出部
13d 視線方向変更ガイド画像処理部
13e 視線方向変更ガイド操作量処理部
13f 仮想内視鏡画像処理部
DESCRIPTION OF
Claims (7)
前記第1の表示制御手段によって表示された前記第1の画像上で任意の視点を指定する操作を操作者から受け付ける操作受付手段と、
所定の画像診断装置によって得られた画像データを用いて、前記操作受付手段による操作の受け付けによって指定された視点から前記部位を撮影した場合の仮想画像を生成し、生成した仮想画像を第2の画像として前記表示部に表示する第2の表示制御手段と
を備えたことを特徴とする画像処理装置。 First display control means for displaying an image obtained by imaging a part of the subject from a predetermined direction on the display unit as a first image;
Operation accepting means for accepting an operation for designating an arbitrary viewpoint on the first image displayed by the first display control means from an operator;
Using the image data obtained by a predetermined diagnostic imaging apparatus, a virtual image is generated when the part is imaged from a viewpoint designated by accepting an operation by the operation accepting unit, and the generated virtual image is a second image An image processing apparatus comprising: a second display control unit configured to display an image on the display unit.
前記操作受付手段は、前記ガイド表示制御手段によって表示された前記視線方向変更ガイドによって示される範囲で前記任意の視点を指定する操作を前記操作者から受け付けることを特徴とする請求項1に記載の画像処理装置。 Guide display control means for displaying a gaze direction change guide indicating a range for designating the arbitrary viewpoint on the first image displayed on the display unit by the first display control means,
The said operation reception means receives operation which designates the said arbitrary viewpoint from the said operator in the range shown by the said gaze direction change guide displayed by the said guide display control means. Image processing device.
前記操作受付手段は、前記視線方向変更ガイドの表面に沿って前記視点マーカを移動する操作を前記操作者から受け付け、
前記第2の表示制御手段は、前記視点マーカの位置から前記視線方向変更ガイドの中心へ向かう方向に前記部位を撮影した場合の仮想画像を生成して前記表示部に表示することを特徴とする請求項2に記載の画像処理装置。 The guide display control means displays the visual direction change guide formed in a dome shape or a spherical shape and a viewpoint marker arranged on the surface of the visual direction change guide on the first image, respectively.
The operation accepting unit accepts an operation for moving the viewpoint marker along the surface of the line-of-sight direction change guide from the operator,
The second display control unit generates a virtual image when the part is photographed in a direction from the position of the viewpoint marker toward the center of the line-of-sight direction change guide, and displays the virtual image on the display unit. The image processing apparatus according to claim 2.
前記第2の表示制御手段は、所定の画像診断装置によって得られた画像データを用いて仮想内視鏡画像を生成し、生成した仮想内視鏡画像を第2の画像として前記表示部に表示することを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。 The first display control means displays an image taken by an endoscope as the first image on the display unit,
The second display control unit generates a virtual endoscopic image using image data obtained by a predetermined image diagnostic apparatus, and displays the generated virtual endoscopic image as a second image on the display unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記外形像表示制御手段によって表示された前記部位の外形像に前記内視鏡が有するカメラの位置および進行方向を示すカメラ位置情報を重畳して表示するカメラ位置表示制御手段と
をさらに備えたことを特徴とする請求項4に記載の画像処理装置。 An external image display control means for generating an external image of the part using the image data obtained by the diagnostic imaging apparatus, and displaying the generated external image on the display unit;
Camera position display control means for superimposing and displaying camera position information indicating the position and traveling direction of the camera of the endoscope on the outline image of the part displayed by the outline image display control means. The image processing apparatus according to claim 4.
前記第1の表示制御手順によって表示された前記第1の画像上で任意の視点を指定する操作を操作者から受け付ける操作受付手順と、
所定の画像診断装置によって得られた画像データを用いて、前記操作受付手順による操作の受け付けによって指定された視点から前記部位を撮影した場合の仮想画像を生成し、生成した仮想画像を第2の画像として前記表示部に表示する第2の表示制御手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。 A first display control procedure for displaying an image obtained by imaging a region of the subject from a predetermined direction on the display unit as a first image;
An operation acceptance procedure for accepting an operation for designating an arbitrary viewpoint on the first image displayed by the first display control procedure from an operator;
Using the image data obtained by a predetermined diagnostic imaging apparatus, a virtual image is generated when the part is imaged from a viewpoint designated by accepting an operation by the operation accepting procedure, and the generated virtual image is a second image An image processing program causing a computer to execute a second display control procedure for displaying an image on the display unit.
前記内視鏡が、
被検体の部位を所定方向から撮影する撮影手段を備え、
前記画像処理装置が、
前記内視鏡によって撮影された画像を第1の画像として表示部に表示する第1の表示制御手段と、
前記第1の表示制御手段によって表示された前記第1の画像上で任意の視点を指定する操作を操作者から受け付ける操作受付手段と、
所定の画像診断装置によって得られた画像データを用いて、前記操作受付手段による操作の受け付けによって指定された視点から前記部位を撮影した場合の仮想画像を生成し、生成した仮想画像を第2の画像として前記表示部に表示する第2の表示制御手段と
を備えたことを特徴とする医用診断システム。 A medical diagnostic system having an endoscope and an image processing device,
The endoscope is
An imaging means for imaging the part of the subject from a predetermined direction,
The image processing apparatus is
First display control means for displaying an image captured by the endoscope as a first image on a display unit;
Operation accepting means for accepting an operation for designating an arbitrary viewpoint on the first image displayed by the first display control means from an operator;
Using the image data obtained by a predetermined diagnostic imaging apparatus, a virtual image is generated when the part is imaged from a viewpoint designated by accepting an operation by the operation accepting unit, and the generated virtual image is a second image And a second display control means for displaying the image on the display unit as an image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009189421A JP5377153B2 (en) | 2009-08-18 | 2009-08-18 | Image processing apparatus, image processing program, and medical diagnostic system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009189421A JP5377153B2 (en) | 2009-08-18 | 2009-08-18 | Image processing apparatus, image processing program, and medical diagnostic system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011036600A JP2011036600A (en) | 2011-02-24 |
JP5377153B2 true JP5377153B2 (en) | 2013-12-25 |
Family
ID=43765014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009189421A Expired - Fee Related JP5377153B2 (en) | 2009-08-18 | 2009-08-18 | Image processing apparatus, image processing program, and medical diagnostic system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5377153B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103327900B (en) | 2011-06-01 | 2016-01-20 | 株式会社东芝 | Medical image display apparatus and medical diagnostic imaging apparatus |
CN103298407B (en) * | 2011-06-23 | 2016-05-18 | 株式会社东芝 | Medical image-processing apparatus and medical diagnostic imaging apparatus |
JP5981178B2 (en) * | 2012-03-19 | 2016-08-31 | 東芝メディカルシステムズ株式会社 | Medical image diagnostic apparatus, image processing apparatus, and program |
EP2868256A4 (en) * | 2013-03-06 | 2016-08-10 | Olympus Corp | Endoscope system and endoscope system operation method |
JP5810248B2 (en) * | 2013-10-02 | 2015-11-11 | オリンパス株式会社 | Endoscope system |
DE102013222230A1 (en) | 2013-10-31 | 2015-04-30 | Fiagon Gmbh | Surgical instrument |
DE102014207274A1 (en) * | 2014-04-15 | 2015-10-15 | Fiagon Gmbh | Navigation support system for medical instruments |
EP3127470A1 (en) * | 2014-06-18 | 2017-02-08 | Olympus Corporation | Image-processing device |
EP3395229A4 (en) * | 2015-12-25 | 2019-09-04 | Olympus Corporation | Image processing device, image processing method, and program |
US10321878B2 (en) | 2016-12-22 | 2019-06-18 | Biosense Webster (Israel) Ltd. | Pulmonary vein display in two dimensions |
EP3603482B1 (en) * | 2017-03-30 | 2023-03-22 | FUJIFILM Corporation | Endoscope system, processor device for operating endoscope system |
JP6749473B2 (en) | 2017-03-30 | 2020-09-02 | 富士フイルム株式会社 | Endoscope system and operating method thereof |
EP3719749A1 (en) | 2019-04-03 | 2020-10-07 | Fiagon AG Medical Technologies | Registration method and setup |
US20230218144A1 (en) * | 2022-01-11 | 2023-07-13 | Olympus Corporation | Surgical system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3623276B2 (en) * | 1995-03-31 | 2005-02-23 | 株式会社日立メディコ | 3D image display method |
JP3856406B2 (en) * | 1997-02-27 | 2006-12-13 | 株式会社東芝 | Image processing device |
JP2004357789A (en) * | 2003-06-02 | 2004-12-24 | Olympus Corp | Subject observation system and control method for subject observation system |
EP1680024A2 (en) * | 2003-10-21 | 2006-07-19 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for intraoperative targetting |
JP2006230906A (en) * | 2005-02-28 | 2006-09-07 | Toshiba Corp | Medical diagnostic system and apparatus, and endoscope |
JP5114121B2 (en) * | 2007-07-18 | 2013-01-09 | 株式会社日立メディコ | Medical image processing device |
-
2009
- 2009-08-18 JP JP2009189421A patent/JP5377153B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011036600A (en) | 2011-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5377153B2 (en) | Image processing apparatus, image processing program, and medical diagnostic system | |
JP4676021B2 (en) | Diagnosis support apparatus, diagnosis support program, and diagnosis support method | |
JP5417609B2 (en) | Medical diagnostic imaging equipment | |
JP5319180B2 (en) | X-ray imaging apparatus, image processing apparatus, and image processing program | |
JP5486432B2 (en) | Image processing apparatus, operating method thereof, and program | |
WO2015045368A1 (en) | Image processing device, image display system, imaging system, image processing method, and program | |
JP6254053B2 (en) | Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus | |
EP2423877A1 (en) | Endoscopic image processing device, method and program | |
WO2014024422A1 (en) | Catheter tip rotation angle detection device, method, and program | |
JP2008067851A (en) | Computer-aided diagnosis apparatus, x-ray ct equipment and image processor | |
JP5785120B2 (en) | Medical image diagnosis support apparatus and method, and program | |
WO2012014438A1 (en) | Device, method, and program for assisting endoscopic observation | |
JP5114121B2 (en) | Medical image processing device | |
JP2009106502A (en) | System for guiding catheter insertion and medical image diagnostic apparatus incorporated with same system | |
JP5641707B2 (en) | X-ray diagnostic equipment | |
JP5554028B2 (en) | Medical image processing apparatus, medical image processing program, and X-ray CT apparatus | |
JP2008054763A (en) | Medical image diagnostic apparatus | |
CN106919781B (en) | Medical image processing apparatus | |
JP2009165718A (en) | Medical image display | |
JP2011172692A (en) | Medical image processor and medical image processing program | |
JP5631584B2 (en) | Medical image processing apparatus, medical image processing program, and medical image diagnostic apparatus | |
JP5683831B2 (en) | Medical image processing apparatus and medical image processing program | |
JP5485753B2 (en) | Information processing apparatus, processing method thereof, and program | |
JP5523784B2 (en) | Image processing apparatus and medical image diagnostic apparatus | |
JP2010154944A (en) | Medical image diagnostic apparatus and fusion image generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130924 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |