JPWO2016076262A1 - Medical equipment - Google Patents

Medical equipment Download PDF

Info

Publication number
JPWO2016076262A1
JPWO2016076262A1 JP2016528926A JP2016528926A JPWO2016076262A1 JP WO2016076262 A1 JPWO2016076262 A1 JP WO2016076262A1 JP 2016528926 A JP2016528926 A JP 2016528926A JP 2016528926 A JP2016528926 A JP 2016528926A JP WO2016076262 A1 JPWO2016076262 A1 JP WO2016076262A1
Authority
JP
Japan
Prior art keywords
index
image
information
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016528926A
Other languages
Japanese (ja)
Inventor
美穂 南里
美穂 南里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2016076262A1 publication Critical patent/JPWO2016076262A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Urology & Nephrology (AREA)
  • Endoscopes (AREA)

Abstract

医療装置は、所定の視点の位置情報と視線方向情報を取得する情報取得部と、位置情報及び視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、所定の視点の視線方向を延長したときに所定の管腔臓器の内壁と交差する位置を算出する位置算出部と、位置算出部の位置と所定の視点までの距離情報を算出する距離算出部と、距離情報に基づき規定される指標を生成する指標生成部と、所定の管腔臓器の3次元画像又は所定の管腔臓器を展開した2次元モデル画像上において、指標と内壁の位置情報とを関連付けた画像を生成する画像生成部と、を備える。The medical apparatus includes an information acquisition unit that acquires position information and gaze direction information of a predetermined viewpoint, a position adjustment unit that aligns the position information and the line-of-sight information with a coordinate system of three-dimensional image information of a predetermined luminal organ, A position calculation unit that calculates a position that intersects the inner wall of a predetermined luminal organ when the line-of-sight direction of the predetermined viewpoint is extended; a distance calculation unit that calculates position information of the position calculation unit and distance information to the predetermined viewpoint; An index generator for generating an index defined based on distance information, and a three-dimensional image of a predetermined luminal organ or a two-dimensional model image in which a predetermined luminal organ is developed, An image generation unit for generating an associated image.

Description

本発明は、被検体内に挿入され、画像を取得する医療装置に関する。   The present invention relates to a medical device that is inserted into a subject and acquires an image.

近年、被検体内に挿入され、被検体内部を観察したり、処置具などを用いて処置する医療装置としての内視鏡を備えた内視鏡装置が広く普及している。内視鏡を用いて、観察(又は検査)対象の所定の管腔臓器内部を観察するような場合、観察済みであるか否かを術者が識別できると、同じ領域を重複して観察することを防止できる等の利点がある。
例えば日本国特開2013−27697号公報の従来例は、仮想内視鏡を用いて、管状体の内部を観察する場合、観察済みの領域と、未観察の領域を、管状体の画像上に識別可能となるように表示する装置を開示している。
2. Description of the Related Art In recent years, endoscope apparatuses equipped with an endoscope as a medical apparatus that is inserted into a subject and observes the inside of the subject or performs a treatment using a treatment tool or the like are widely used. When observing the inside of a predetermined luminal organ to be observed (or examined) using an endoscope, if the surgeon can identify whether or not it has already been observed, the same region is observed repeatedly. There is an advantage that it can be prevented.
For example, in the conventional example of Japanese Patent Laid-Open No. 2013-27697, when observing the inside of a tubular body using a virtual endoscope, an observed area and an unobserved area are displayed on the image of the tubular body. An apparatus for displaying so as to be identifiable is disclosed.

しかしながら、上記従来例は、視点から観察される部位までの距離が異なるような場合の区別をしないため、術者が実質的に観察した観察済みの状態であるか、遠方から単に視野内に入ったために観察済みとなり、術者が実質的には観察していない状態に近いか否かの判定ができないために、識別した場合の有効性が低い欠点がある。
このため、視点から観察対象の臓器内壁までの距離情報に応じた指標等から実質的に観察した観察済みの状態であるか否かが容易に判断できるようにすることが望まれる。
本発明は上述した点に鑑みてなされたもので、実質的に観察した観察済みの状態であるか否かを判断し易い画像を生成することができる医療装置を提供することを目的とする。
However, since the conventional example does not distinguish between cases where the distance from the viewpoint to the site to be observed is different, it is an observed state that the operator has actually observed, or simply enters the visual field from a distance. Therefore, since it is already observed and it is not possible to determine whether or not the operator is substantially not observing, there is a drawback that the effectiveness when identified is low.
For this reason, it is desirable to be able to easily determine whether or not the observed state is substantially observed from an index or the like according to distance information from the viewpoint to the inner wall of the organ to be observed.
The present invention has been made in view of the above-described points, and an object of the present invention is to provide a medical device capable of generating an image that makes it easy to determine whether or not a substantially observed state has been observed.

本発明の一態様の医療装置は、所定の管腔臓器内に設けられた所定の視点の位置情報と視線方向情報を取得する情報取得部と、前記位置情報及び前記視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線情報に基づき、前記所定の視点の視線方向を延長したときに前記所定の管腔臓器の内壁と交差する位置を算出する位置算出部と、前記位置算出部の位置と前記所定の視点までの距離情報を算出する距離算出部と、前記距離算出部によって取得された前記距離情報に基づき規定される指標を生成する指標生成部と、前記位置算出部の算出結果に基づき、前記所定の管腔臓器の3次元画像又は当該所定の管腔臓器を展開した2次元モデル画像上において、前記指標と前記内壁の位置情報とを関連付けた画像を生成する画像生成部と、を備える。   A medical device according to an aspect of the present invention includes an information acquisition unit that acquires position information and gaze direction information of a predetermined viewpoint provided in a predetermined luminal organ, the position information and the line-of-sight information, A positioning unit that matches the coordinate system of the three-dimensional image information of the cavity organ, and the position information and the line-of-sight information that are matched to the three-dimensional image information by the positioning unit. A position calculation unit that calculates a position that intersects the inner wall of the predetermined luminal organ when extending the line-of-sight direction, a distance calculation unit that calculates distance information between the position of the position calculation unit and the predetermined viewpoint, An index generation unit that generates an index defined based on the distance information acquired by the distance calculation unit, and a three-dimensional image of the predetermined luminal organ or the predetermined tube based on a calculation result of the position calculation unit Cavity organ In the two-dimensional model image obtained by developing, and an image generating unit that generates an image associated with the position information of the said indicator inner wall.

図1は本発明の第1の実施形態の医療装置の全体構成を示す図。FIG. 1 is a diagram showing an overall configuration of a medical device according to a first embodiment of the present invention. 図2は図1における画像処理装置等の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of the image processing apparatus and the like in FIG. 図3は2Dモデル画像上に観察された視野範囲を表す指標を表示した関連付け画像を示す図。FIG. 3 is a diagram showing an association image displaying an index representing a field-of-view range observed on a 2D model image. 図4は膀胱を球体で近似した3D画像上に設定した第2の座標系等を示す図。FIG. 4 is a diagram showing a second coordinate system and the like set on a 3D image in which the bladder is approximated by a sphere. 図5はモニタに表示される内視鏡画像と、2Dモデル画像上及び3D画像上の関連付け画像とを示す図。FIG. 5 is a diagram showing an endoscopic image displayed on a monitor and associated images on a 2D model image and a 3D image. 図6Aは膀胱の内壁を視点からの距離を変えて観察する観察状態を示す図。FIG. 6A is a diagram showing an observation state in which the inner wall of the bladder is observed while changing the distance from the viewpoint. 図6Bは図6Aの観察状態に対応して2Dモデル画像上に、距離の「変化に応じて表示形態を変化させた指標を付加(重畳)した関連付け画像を示す図。FIG. 6B is a diagram showing an association image obtained by adding (superimposing) an index whose display form is changed in accordance with a change in distance on the 2D model image corresponding to the observation state of FIG. 6A. 図7は第1の実施形態の全体的な動作を示すフローチャート。FIG. 7 is a flowchart showing the overall operation of the first embodiment. 図8は図7におけるステップS9の詳細を示すフローチャート。FIG. 8 is a flowchart showing details of step S9 in FIG. 図9Aは予めテーブルに格納された内容に従って円形の指標を生成する処理を示すフローチャート。FIG. 9A is a flowchart showing processing for generating a circular index according to the contents stored in advance in the table. 図9Bは、図9Aの動作の説明図。FIG. 9B is an explanatory diagram of the operation of FIG. 9A. 図9Cは、図9Aの処理において参照される距離の値に応じて設定される半径の指標との関係を格納したテーブルの内容を表形式で示す図。FIG. 9C is a diagram showing, in a tabular form, the contents of a table storing a relationship with a radius index set in accordance with the distance value referred to in the processing of FIG. 9A. 図10Aは視線方向と内壁面との成す角に応じて表示形態を変更する選択がされた場合の処理の一部を示すフローチャート。FIG. 10A is a flowchart showing a part of processing in a case where selection to change the display form is made according to the angle formed by the line-of-sight direction and the inner wall surface. 図10Bは、図10Aの動作の説明図。FIG. 10B is an explanatory diagram of the operation of FIG. 10A. 図10Cは、図10Aの処理により2Dモデル画像上に指標を表示した関連付け画像を示す図。FIG. 10C is a diagram showing an association image in which an index is displayed on the 2D model image by the process of FIG. 10A. 図11Aは視点から内壁までの距離の値に応じて生成する指標の色を変更した表示形態を2Dモデル画像上で示す図。FIG. 11A is a diagram showing a display form on the 2D model image in which the color of the index generated according to the value of the distance from the viewpoint to the inner wall is changed. 図11Bは視線方向と内壁面の垂線との成す角に応じて指標の形状を変更した表示形態を2Dモデル画像上で示す図。FIG. 11B is a diagram showing a display form on the 2D model image in which the shape of the index is changed according to the angle formed by the line-of-sight direction and the perpendicular to the inner wall surface. 図11Cは内壁上の視野範囲の大きさに応じて指標の大きさを変更した表示形態を2Dモデル画像上で示す図。FIG. 11C is a diagram showing a display form on the 2D model image in which the size of the index is changed according to the size of the visual field range on the inner wall. 図12は本発明の第1の実施形態の変形例に係り、第2の座標系において球体の内面上の座標を説明するための図。FIG. 12 is a diagram for explaining coordinates on the inner surface of a sphere in the second coordinate system according to a modification of the first embodiment of the present invention. 図13は先端部の位置と方向ベクトルから第2の座標系における位置Pと方向Vと、位置Psとの関係を説明するための説明図。Figure 13 is a position P 2 and the direction V 2 in the second coordinate system from the position and the direction vector of the tip, explanatory view for explaining the relationship between the position Ps.

以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の医療装置1は、被検体としての患者P内部の所定の管腔臓器(具体例では膀胱B)内部を観察(又は検査)する内視鏡2と、光源装置3と、プロセッサ4と、画像処理装置5と、モニタ6と、磁場発生装置7とを備えて構成される。医療装置1は、通常光観察と特殊光観察の2つの観察モードで観察する機能を有する。医療装置1のユーザとしての術者は、ベッド8上に仰向け等で載置されている患者Pにおける所定の管腔臓器(単に管腔臓器、又は臓器とも言う)としての膀胱B内部の内視鏡検査を行う。
内視鏡2は、操作部2aと、可撓性を有する挿入部2bと、ユニバーサルケーブル2cとを有する。内視鏡2は、例えば膀胱検査用の内視鏡により構成される。
さらに、ユニバーサルケーブル2c内には、図2に示すようなライトガイド9が挿通されており、内視鏡2は、光源装置3からの照明光を、ライトガイド9を通して挿入部2bの先端部2dの照明窓から出射し、挿入部2bの先端部2dが挿入された被検体内の所定の管腔臓器(としての膀胱B)内部を照明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, the medical apparatus 1 according to the first embodiment of the present invention is an endoscope that observes (or examines) the inside of a predetermined luminal organ (in the specific example, the bladder B) inside a patient P as a subject. The mirror 2, the light source device 3, the processor 4, the image processing device 5, the monitor 6, and the magnetic field generator 7 are configured. The medical device 1 has a function of observing in two observation modes of normal light observation and special light observation. An operator as a user of the medical device 1 performs an internal view of the inside of the bladder B as a predetermined luminal organ (also simply referred to as a luminal organ or an organ) in the patient P placed on the bed 8 in a supine position or the like. Perform a mirror examination.
The endoscope 2 includes an operation unit 2a, a flexible insertion unit 2b, and a universal cable 2c. The endoscope 2 is configured by, for example, an endoscope for bladder examination.
Further, a light guide 9 as shown in FIG. 2 is inserted into the universal cable 2c, and the endoscope 2 passes illumination light from the light source device 3 through the light guide 9 and the distal end portion 2d of the insertion portion 2b. The inside of a predetermined luminal organ (as the bladder B) in the subject into which the distal end portion 2d of the insertion portion 2b is inserted is illuminated.

また、図2に示すように、挿入部2bの先端部2dには、対物光学系10と、その結像位置に撮像面が配置され、撮像面に結像された光学像を光電変換して撮像信号として出力する撮像素子11とが設けられている。光源装置3の照明光により照明された膀胱Bの内壁は、撮像素子11により撮像される。従って、対物光学系10と撮像素子11は、管腔臓器内部を撮像する撮像部(又は撮像装置)12を形成する。撮像素子11により得られた撮像信号は、ユニバーサルケーブル2c内の信号線を介して管腔臓器としての膀胱B内部の撮像画像を生成するプロセッサ4に入力され、撮像信号は、プロセッサ4内の画像生成回路4aにおいて画像生成の処理が行われ、膀胱B内部を撮像した撮像画像としての内視鏡画像が生成される。
本実施形態においては、プロセッサ4内の画像生成回路4aは、先端部2dに搭載された撮像部12の撮像素子11の撮像面に結像された被検体の光学像を電気的な撮像信号に変換して、光学像に対応する撮像画像を生成し、生成された撮像画像はモニタ6における内視鏡画像表示エリアに表示される。図2の構成においては、画像生成回路4aにより生成した内視鏡画像は、画像処理装置5を経由して例えば図5に示すようにモニタ6の内視鏡画像表示エリアA1に、画像処理装置5により生成された他の画像と重畳又は合成して表示される。
In addition, as shown in FIG. 2, the distal end portion 2d of the insertion portion 2b is provided with an objective optical system 10 and an imaging surface at its imaging position, and an optical image formed on the imaging surface is photoelectrically converted. An image sensor 11 that outputs an image signal is provided. The inner wall of the bladder B illuminated by the illumination light of the light source device 3 is imaged by the image sensor 11. Therefore, the objective optical system 10 and the imaging device 11 form an imaging unit (or imaging device) 12 that images the inside of a hollow organ. The imaging signal obtained by the imaging element 11 is input to the processor 4 that generates a captured image inside the bladder B as a luminal organ via a signal line in the universal cable 2 c, and the imaging signal is an image in the processor 4. Image generation processing is performed in the generation circuit 4a, and an endoscope image as a captured image obtained by imaging the inside of the bladder B is generated.
In the present embodiment, the image generation circuit 4a in the processor 4 converts the optical image of the subject imaged on the imaging surface of the imaging device 11 of the imaging unit 12 mounted on the distal end 2d into an electrical imaging signal. The captured image corresponding to the optical image is generated by conversion, and the generated captured image is displayed in the endoscope image display area on the monitor 6. In the configuration of FIG. 2, the endoscopic image generated by the image generation circuit 4 a passes through the image processing device 5 in the endoscope image display area A1 of the monitor 6 as shown in FIG. 5, for example. 5 is superimposed on or synthesized with another image generated by the process 5.

膀胱Bの内壁を撮像する撮像部12の位置及び撮像する撮像方向(対物光学系10の光軸方向)が、撮像画像を生成する場合の視点の位置及び視線方向となる。
プロセッサ4は、観察モードを切り換えるための切換スイッチ4bを有し、切換スイッチ4bにより指定された観察モード信号は画像生成回路4aに入力され、画像生成回路4aは、切換スイッチ4bにより指定された観察モードに応じた内視鏡画像を生成する。より具体的には、通常光観察モードが指定された場合には、通常光(としての白色光)の照明の下で撮像した通常光観察画像を生成し、特殊光観察モードが指定された場合には、特殊光観察画像(より狭義には狭帯域光観察画像)を生成する。
また、切換スイッチ4bによる観察モード信号は、光源装置3のLED制御回路3aに入力され、LED制御回路3aは、観察モードに応じた照明光を生成するように制御する。
The position of the imaging unit 12 that images the inner wall of the bladder B and the imaging direction for imaging (the optical axis direction of the objective optical system 10) are the viewpoint position and the line-of-sight direction when the captured image is generated.
The processor 4 has a changeover switch 4b for switching the observation mode. An observation mode signal designated by the changeover switch 4b is input to the image generation circuit 4a. The image generation circuit 4a is an observation designated by the changeover switch 4b. An endoscopic image corresponding to the mode is generated. More specifically, when the normal light observation mode is specified, a normal light observation image captured under illumination of normal light (as white light) is generated, and the special light observation mode is specified In this case, a special light observation image (narrow band light observation image in a narrow sense) is generated.
The observation mode signal from the changeover switch 4b is input to the LED control circuit 3a of the light source device 3, and the LED control circuit 3a controls to generate illumination light according to the observation mode.

切換スイッチ4bにより、通常光観察モードが指定された場合には、LED制御回路3aは通常光観察モード用の光源となる白色LED3bを発光させるように制御し、特殊光観察モードが指定された場合には、LED制御回路3aは特殊光観察モード用の光源となる狭帯域の青色LED3cを発光させるように制御する。
狭帯域の青色LED3cが発光した場合には、この狭帯域の青色の光が進行する光路上に45度の角度で配置されたダイクロイックミラー3dにより選択的に反射された後、集光レンズ3eにより集光されてライトガイド9の基端に入射される。ライトガイド9の基端に入射された狭帯域の青色の照明光は、ライトガイド9により伝送され、ライトガイド9の先端が取り付けられた照明窓から出射され、特殊光観察モード用の照明(より狭義には狭帯域光観察モード用の照明)を行う。
また、白色LED3bが発光した場合の白色光は、その光路上に配置されたダイクロイックミラー3dにより、狭帯域の青色の光を除く白色光の殆どが選択的に透過し、集光レンズ3eにより集光されてライトガイド9の基端に入射される。ライトガイド9の基端に入射された狭帯域の青色光を除く白色の照明光は、ライトガイド9により伝送され、ライトガイド9の先端が取り付けられた照明窓から出射され、通常光観察モード用の照明を行う。
When the normal light observation mode is designated by the changeover switch 4b, the LED control circuit 3a performs control so that the white LED 3b serving as the light source for the normal light observation mode emits light, and the special light observation mode is designated. In this case, the LED control circuit 3a performs control so that the narrow-band blue LED 3c serving as the light source for the special light observation mode emits light.
When the narrow-band blue LED 3c emits light, the narrow-band blue light is selectively reflected by the dichroic mirror 3d disposed at an angle of 45 degrees on the optical path in which the narrow-band blue light travels, and then is collected by the condenser lens 3e. The condensed light is incident on the base end of the light guide 9. The narrow-band blue illumination light incident on the proximal end of the light guide 9 is transmitted by the light guide 9 and emitted from the illumination window to which the distal end of the light guide 9 is attached. In a narrow sense, illumination for a narrow-band light observation mode) is performed.
In addition, white light emitted from the white LED 3b is selectively transmitted by the dichroic mirror 3d disposed on the optical path, and most of the white light except for the narrow-band blue light is selectively transmitted by the condenser lens 3e. Light is incident on the proximal end of the light guide 9. White illumination light other than the narrow-band blue light incident on the base end of the light guide 9 is transmitted by the light guide 9 and emitted from the illumination window to which the tip of the light guide 9 is attached, for the normal light observation mode. Do the lighting.

また、プロセッサ4(の画像生成回路4a)により生成された内視鏡画像は、プロセッサ4からモニタ6へ出力され、例えば図5に示すようにライブの内視鏡画像Ienが、モニタ6上に表示される。内視鏡検査を行う術者は、挿入部2bの先端部2dを患者Pの尿道から挿入し、患者Pの膀胱B(図1において点線で示す)内を観察することができる。
さらに、挿入部2bの先端部2dには、位置センサとしての磁気センサ13が配置されている。具体的には、図2に示すように先端部2dの撮像部12を構成する対物光学系10と撮像素子11の近傍には、磁気センサ13が設けられている。この磁気センサ13は、先端部2dにおける撮像部12の視点となる3次元位置(単に位置)と、その位置での視線方向との検出に利用される。
図2に示す内視鏡2は、先端部2dに搭載された撮像部12を構成する対物光学系10の光軸方向が、先端部2dの軸方向と平行となるために、撮像部12の位置及び視線方向は、先端部2dの位置及びその軸方向(単に方向)と近似できる。
Further, the endoscopic image generated by the processor 4 (the image generation circuit 4a thereof) is output from the processor 4 to the monitor 6, and for example, a live endoscopic image Ien is displayed on the monitor 6 as shown in FIG. Is displayed. An operator who performs endoscopy can insert the distal end portion 2d of the insertion portion 2b from the urethra of the patient P and observe the inside of the patient's bladder B (shown by a dotted line in FIG. 1).
Further, a magnetic sensor 13 as a position sensor is disposed at the distal end portion 2d of the insertion portion 2b. Specifically, as shown in FIG. 2, a magnetic sensor 13 is provided in the vicinity of the objective optical system 10 and the imaging element 11 that constitute the imaging unit 12 of the distal end portion 2 d. The magnetic sensor 13 is used to detect a three-dimensional position (simply a position) that is the viewpoint of the imaging unit 12 at the distal end portion 2d and the line-of-sight direction at that position.
In the endoscope 2 shown in FIG. 2, the optical axis direction of the objective optical system 10 constituting the imaging unit 12 mounted on the distal end portion 2d is parallel to the axial direction of the distal end portion 2d. The position and the line-of-sight direction can be approximated to the position of the tip 2d and its axial direction (simply the direction).

なお、本実施形態は、図2に示すように先端部2dに配置された対物光学系10により、先端部2dに配置された撮像素子11の撮像面に被検体の光学像を結像する内視鏡2の場合に限らず、先端部2dに配置された対物光学系10により結像した光学像を挿入部2bの後方(基端)側に伝送し、挿入部2bの基端側に配置された撮像素子で撮像する内視鏡の場合にも適用できる。
この場合を含めた表現としては、撮像部の視点の位置(及び視線方向)の表現を用いるよりも(先端部2dに配置された)対物光学系10の視点の位置(及び視線方向)を用いる方が妥当である。このため、以下においては、主に、視点の位置及び視線方向を対物光学系10の視点の位置及び視線方向として用いたり、近似的な表現として視点の位置及び視線方向の代わりに(対物光学系10又は先端部2dの)位置及び方向を用いる場合もある。
図1の拡大図に示すように、磁気センサ13は、例えば2つのコイル2eを有する。磁気センサ13は、先端部2dの位置及び方向を検出するセンサとなる。磁気センサ13の信号線2fは、内視鏡2から延出され、画像処理装置5(内の位置方向取得回路25)に接続される。
In the present embodiment, as shown in FIG. 2, an optical image of the subject is formed on the imaging surface of the imaging device 11 arranged at the tip 2d by the objective optical system 10 arranged at the tip 2d. Not only in the case of the endoscope 2, an optical image formed by the objective optical system 10 disposed at the distal end portion 2d is transmitted to the rear (base end) side of the insertion portion 2b, and is disposed at the proximal end side of the insertion portion 2b. The present invention can also be applied to an endoscope that captures an image with an image sensor that has been used.
As an expression including this case, the viewpoint position (and the line-of-sight direction) of the objective optical system 10 (arranged at the tip 2d) is used rather than the expression of the viewpoint position (and the line-of-sight direction) of the imaging unit. Is more reasonable. Therefore, in the following description, the viewpoint position and the line-of-sight direction are mainly used as the viewpoint position and the line-of-sight direction of the objective optical system 10, or instead of the viewpoint position and the line-of-sight direction as an approximate expression (objective optical system In some cases, the position and direction (of 10 or the tip 2d) are used.
As shown in the enlarged view of FIG. 1, the magnetic sensor 13 includes, for example, two coils 2e. The magnetic sensor 13 is a sensor that detects the position and direction of the tip 2d. A signal line 2 f of the magnetic sensor 13 extends from the endoscope 2 and is connected to the image processing device 5 (internal position / direction acquisition circuit 25).

磁場発生装置7は既知となる所定の位置において磁場を発生し、磁気センサ13は、磁場発生装置7が発生する磁場を検出する。磁場の検出信号は、信号線2fを介して内視鏡2から画像処理装置5(内の位置方向取得回路25)に入力される。
位置方向取得回路25は、入力された検出信号の振幅と位相とから先端部2dに配置された対物光学系10の視点となる位置及び視線方向の情報としての視点の位置情報(視点位置情報とも言う)と視線方向情報とを取得する情報取得部(又は情報取得回路)25aの機能を備える。なお、本実施形態においては、観察対象の管腔臓器は膀胱Bの内壁であり、膀胱Bは、後述するように球体の3次元(3D)画像で近似することができる。つまり、膀胱Bは、球体で表される3D画像M1(図4)で近似される。
内視鏡2の操作部2aには、レリーズボタン(又はレリーズスイッチ)14が設けられている。レリーズボタン14は、術者等のユーザが内視鏡画像を記録(又は記憶)するときに、押すためのボタンである。レリーズボタン14が押されると、レリーズボタン操作信号がプロセッサ4へ入力され、プロセッサ4は、レリーズ信号を生成して、画像処理装置5へ出力する。レリーズボタン14が押されたときの内視鏡画像は、画像処理装置5の後述するメモリ22に記録(又は記憶)される。
The magnetic field generator 7 generates a magnetic field at a predetermined position that is known, and the magnetic sensor 13 detects the magnetic field generated by the magnetic field generator 7. The magnetic field detection signal is input from the endoscope 2 to the image processing device 5 (internal position / direction acquisition circuit 25) via the signal line 2f.
The position / direction acquisition circuit 25 receives the position information of the viewpoint as the position of the viewpoint of the objective optical system 10 disposed at the distal end portion 2d and the direction of the line of sight based on the amplitude and phase of the input detection signal (both viewpoint position information). And a function of an information acquisition unit (or information acquisition circuit) 25a that acquires the line-of-sight direction information. Note that in this embodiment, the luminal organ to be observed is the inner wall of the bladder B, and the bladder B can be approximated by a three-dimensional (3D) image of a sphere as described later. That is, the bladder B is approximated by a 3D image M1 (FIG. 4) represented by a sphere.
A release button (or release switch) 14 is provided on the operation unit 2 a of the endoscope 2. The release button 14 is a button to be pressed when a user such as an operator records (or stores) an endoscopic image. When the release button 14 is pressed, a release button operation signal is input to the processor 4, and the processor 4 generates a release signal and outputs it to the image processing device 5. The endoscopic image when the release button 14 is pressed is recorded (or stored) in a memory 22 (to be described later) of the image processing device 5.

また、内視鏡2には、各内視鏡2に固有の識別情報(IDと略記)を発生するROM(リードオンリメモリ)等により構成されるID発生部(図2では単にIDと略記)15を有し、このID発生部15は、プロセッサ4を経て画像処理装置5(内の位置方向取得回路25)に入力される。
図2に示すように、IDがプロセッサ4を介することなく、画像処理装置5(内の位置方向取得回路25)に入力されるようにしても良い。位置方向取得回路25は、IDから対物光学系10の焦点距離、対物光学系10による光学像を撮像する撮像素子11の画素数、ピクセルのサイズ、画角(視野角)等、撮像部12が撮像する場合の撮像情報を取得する撮像情報取得部(又は撮像情報取得回路)25bの機能を備える。取得された撮像情報を、後述する指標を生成する場合に利用しても良い。
画像処理装置5は、中央処理装置(以下、CPUという)21と、メモリ22と、表示インターフュース(以下、表示I/Fと略す)23と、画像取込回路24と、位置方向取得回路25と、駆動回路27とを備える。CPU21と、メモリ22と、表示I/F23と、画像取込回路24と、位置方向取得回路25とは、バス28を介して互いに接続されている。
Further, the endoscope 2 includes an ID generation unit (simply abbreviated as “ID” in FIG. 2) configured by a ROM (read only memory) that generates identification information (abbreviated as “ID”) unique to each endoscope 2. The ID generation unit 15 is input to the image processing device 5 (inside the position / direction acquisition circuit 25) via the processor 4.
As shown in FIG. 2, the ID may be input to the image processing apparatus 5 (the position / direction acquisition circuit 25) without going through the processor 4. The position / direction acquisition circuit 25 is configured by the imaging unit 12 such as the focal length of the objective optical system 10 from the ID, the number of pixels of the image sensor 11 that captures an optical image by the objective optical system 10, the size of the pixel, and the angle of view (viewing angle). A function of an imaging information acquisition unit (or imaging information acquisition circuit) 25b that acquires imaging information in the case of imaging is provided. The acquired imaging information may be used when generating an index to be described later.
The image processing apparatus 5 includes a central processing unit (hereinafter referred to as a CPU) 21, a memory 22, a display interface (hereinafter abbreviated as display I / F) 23, an image capturing circuit 24, and a position / direction acquisition circuit. 25 and a drive circuit 27. The CPU 21, the memory 22, the display I / F 23, the image capture circuit 24, and the position / direction acquisition circuit 25 are connected to each other via a bus 28.

また、医療装置1は、画像処理装置5に対して、ユーザが各種の情報の入力や選択するための入力を行う入力装置30を有する。
CPU21は、画像処理装置5内の各部の処理を制御する制御部を構成すると共に、位置方向取得回路25が取得した視点の位置情報と視線方向情報と撮像情報を用いて、先端部2dに配置された対物光学系10の視点と、この視点から(少なくとも)視線方向上となる管腔臓器としての膀胱Bの内壁(面)に交差する位置(又は位置を含む位置情報)を算出する位置算出部を形成する位置算出回路21cを備える。
In addition, the medical device 1 includes an input device 30 that allows the user to input and select various types of information to the image processing device 5.
The CPU 21 constitutes a control unit that controls processing of each unit in the image processing device 5 and is arranged at the distal end portion 2d using the viewpoint position information, the line-of-sight direction information, and the imaging information acquired by the position / direction acquisition circuit 25. Position calculation for calculating the viewpoint of the objective optical system 10 and the position (or position information including the position) intersecting the inner wall (surface) of the bladder B as a luminal organ (at least) on the line of sight from this viewpoint The position calculation circuit 21c which forms a part is provided.

距離算出回路21aは、前記視点から位置算出回路21cにより算出された位置までの距離(又は距離を含む距離情報)を算出する。CPU21は、距離算出回路21aによって算出された距離情報に基づき規定(又は決定)される指標を生成する指標生成部を形成する指標生成回路21bと、を備える。 なお、距離算出回路21aの外部に位置算出回路21cを備える構成にしても良いし、位置算出回路21cが距離算出回路21aの機能を含む構成にしても良い。   The distance calculation circuit 21a calculates a distance (or distance information including the distance) from the viewpoint to the position calculated by the position calculation circuit 21c. The CPU 21 includes an index generation circuit 21b that forms an index generation unit that generates an index defined (or determined) based on the distance information calculated by the distance calculation circuit 21a. The position calculation circuit 21c may be provided outside the distance calculation circuit 21a, or the position calculation circuit 21c may include the function of the distance calculation circuit 21a.

また、CPU21は、管腔臓器の3D画像(又はその近似画像としての3Dモデル画像)M1と、該管腔臓器を展開した二次元(2D)画像のモデル画像としての2Dモデル画像M2とを生成する3D/2D画像生成回路21dと、3D画像M1又は2Dモデル画像M2上において、上記指標と、該指標を生成した場合の管腔臓器の内壁上の位置(情報)とを関連付けた画像(関連付け画像とも言う)を生成する画像生成部を形成する画像生成回路21eとを有する。なお、管腔臓器が膀胱Bの場合には、2Dモデル画像M2を膀胱シェーマ又は単にシェーマとも言う。
画像生成回路21eは、例えば図5に示すように2Dモデル画像M2上において指標Mk1を重畳した(関連付け)画像を生成すると共に、3D画像M1上において指標Mk2を重畳した(関連付け)画像を生成するようにしても良い。
或いは、画像生成回路21eは、図3に示すようには、2Dモデル画像M2上において指標Mk1を重畳した(関連付け)画像を生成するようにしても良い。
In addition, the CPU 21 generates a 3D image of the luminal organ (or a 3D model image as an approximate image thereof) M1 and a 2D model image M2 as a model image of a two-dimensional (2D) image in which the luminal organ is developed. An image (association) that associates the index and the position (information) on the inner wall of the luminal organ when the index is generated on the 3D / 2D image generation circuit 21d that performs the 3D / 2D image generation circuit 21d and the 3D image M1 or 2D model image M2. An image generation circuit 21e that forms an image generation unit that generates an image). When the luminal organ is the bladder B, the 2D model image M2 is also referred to as a bladder schema or simply a schema.
For example, as illustrated in FIG. 5, the image generation circuit 21e generates an image in which the index Mk1 is superimposed (associated) on the 2D model image M2, and also generates an image in which the index Mk2 is superimposed (associated) on the 3D image M1. You may do it.
Alternatively, as illustrated in FIG. 3, the image generation circuit 21e may generate an image in which the index Mk1 is superimposed (associated) on the 2D model image M2.

また、CPU21は、位置方向取得回路25が取得した視点の位置情報と視線方向情報を取得した際に、磁場発生装置7を基準とした座標系としての第1の座標系(XYZ)(図1参照)から膀胱の入り口を基準とする中間座標系(XYZ)(図1参照)に変換する座標変換回路21fの機能を持つ。
なお、後述するように座標変換回路21fは、中間座標系(XYZ)から第2の座標系(XYZ)に変換する機能も備える。従って、座標変換回路21fは、第1の座標系(XYZ)から第2の座標系(XYZ)に変換する機能を持つ。また、2つの座標系間において座標変換する場合、両座標系において既知となる位置において変換係数、変換行列等を決定する位置合わせの処理を行う位置合わせ部を形成する位置合わせ回路21gの機能を持つ。
座標変換回路21fは、例えば膀胱Bの入口の位置(図4でPR)と方向を位置合わせの基準位置と基準方向と決定し、次の式(1)と式(2)に従って、位置方向取得回路25の位置方向情報を、膀胱Bの入口を基準とする中間座標系(XYZ)の位置方向情報に変換する。
The CPU 21 obtains the first coordinate system (X 0 Y 0 Z as a coordinate system based on the magnetic field generator 7 when the position information and the line-of-sight direction information acquired by the position / direction acquisition circuit 25 are acquired. 0 ) (see FIG. 1) has a function of a coordinate conversion circuit 21f for converting into an intermediate coordinate system (X 1 Y 1 Z 1 ) (see FIG. 1) based on the entrance of the bladder.
As will be described later, the coordinate conversion circuit 21f also has a function of converting from the intermediate coordinate system (X 1 Y 1 Z 1 ) to the second coordinate system (X 2 Y 2 Z 2 ). Therefore, the coordinate conversion circuit 21f has a function of converting from the first coordinate system (X 0 Y 0 Z 0 ) to the second coordinate system (X 2 Y 2 Z 2 ). In addition, when performing coordinate conversion between two coordinate systems, the function of the alignment circuit 21g that forms an alignment unit that performs an alignment process for determining a conversion coefficient, a conversion matrix, and the like at positions known in both coordinate systems is provided. Have.
The coordinate conversion circuit 21f determines, for example, the position (PR in FIG. 4) and direction of the entrance of the bladder B as the reference position and reference direction for alignment, and acquires the position and direction according to the following expressions (1) and (2). The position / direction information of the circuit 25 is converted into the position / direction information of the intermediate coordinate system (X 1 Y 1 Z 1 ) based on the entrance of the bladder B.

=R01+M01 ・・・式(1)
=R01 ・・・式(2)
ここで、PとVは、それぞれ、磁場発生装置7を基準とする座標系である第1の座標系(XYZ)における位置(のベクトル表記)と(大きさが1の)方向ベクトルである。R01は、次の式(3)で示される回転行列であり、M01は、次の式(4)で示される並進行列である。
[数3]

Figure 2016076262
[数4]
Figure 2016076262
よって、第1の座標系(XYZ)上の点(x,y,z)は、次の式(5)に示すように、中間座標系(XYZ)上の点(x,y,z)に変換される。P 1 = R 01 P 0 + M 01 (1)
V 1 = R 01 V 0 ··· formula (2)
Here, P 0 and V 0 are respectively a position (vector notation) in the first coordinate system (X 0 Y 0 Z 0 ), which is a coordinate system based on the magnetic field generator 7, and a magnitude of 1 Direction vector. R 01 is a rotation matrix expressed by the following equation (3), and M 01 is a parallel progression sequence expressed by the following equation (4).
[Equation 3]
Figure 2016076262
[Equation 4]
Figure 2016076262
Accordingly, the point (x 0 , y 0 , z 0 ) on the first coordinate system (X 0 Y 0 Z 0 ) is represented by the intermediate coordinate system (X 1 Y 1 Z) as shown in the following equation (5). 1 ) is converted into a point (x 1 , y 1 , z 1 ) on the top.

[数5]

Figure 2016076262
内視鏡2の先端部2d(の対物光学系10)の膀胱B内への挿入が検出されたときに位置方向取得回路25により取得される位置と方向のベクトルをP´0、V´0とすると、並進行列M01は以下の式(6)により求められる。
01=−P´0 ・・・式(6)
また、回転行列R01は以下の条件を満たすように求める。回転行列R01の満たす条件は、Z1軸が重力方向と平行であること、及びZ1軸に対して垂直なX1Y1平面にV´0を投影し、その投影したベクトル方向をY1軸、Y1Z1平面に垂直なベクトルをX1軸とする、ことである。
更に、上記座標変換回路21fは、次の式(7)と式(8)に従って、中間座標系(XYZ)の位置ベクトルと方向ベクトルを、球形の3D画像M1の中心Oを基準とする第2の座標系(XYZ)における位置ベクトルと方向ベクトルに変換する。図4は、中間座標系(XYZ)と第2の座標系(XYZ)の関係を説明するための図である。[Equation 5]
Figure 2016076262
P'0 position and direction of the vector obtained by the position-direction acquisition circuit 25 when inserted into the bladder B has been detected in the distal end portion 2d of the endoscope 2 (the objective optical system 10), V'0 Then, the parallel progression M01 is obtained by the following equation (6).
M 01 = −P ′ 0 Formula (6)
Further, the rotation matrix R 01 is obtained so as to satisfy the following conditions. The condition that the rotation matrix R 01 satisfies is that the Z 1 axis is parallel to the gravity direction, and that V ′ 0 is projected onto the X 1 Y 1 plane perpendicular to the Z 1 axis, and the projected vector direction is represented by Y One axis, a vector perpendicular to the Y 1 Z 1 plane is taken as the X 1 axis.
Further, the coordinate conversion circuit 21f converts the position vector and the direction vector of the intermediate coordinate system (X 1 Y 1 Z 1 ) into the center O 2 of the spherical 3D image M1 according to the following equations (7) and (8). Is converted into a position vector and a direction vector in the second coordinate system (X 2 Y 2 Z 2 ). FIG. 4 is a diagram for explaining the relationship between the intermediate coordinate system (X 1 Y 1 Z 1 ) and the second coordinate system (X 2 Y 2 Z 2 ).

=R12+M02 ・・・式(7)
=R12 ・・・式(8)
ここで、P、Vは、それぞれ、中間座標系(XYZ)における任意の位置における位置(ベクトル)と方向ベクトルであり、P、Vは、それぞれ、第2の座標系(XYZ)に変換された場合の位置ベクトルと方向ベクトルである。
、Vを位置方向取得回路25から算出される先端部2dの対物光学系10の視点の位置を表す位置(ベクトル)、視線方向の方向ベクトルに設定すると、P、Vは、P、Vに変換され、更に該P、Vは、PとVに変換される。
つまり、P、Vを視点の位置、視線方向の方向ベクトルとして取得すると、対応するP、Vは、第2の座標系(XYZ)における対物光学系10の視点Pvの位置ベクトル(Pvで兼用)、視線方向Vの方向ベクトル(Vで兼用)となる。R12は、次の式(9)で示される回転行列であり、M02は、次の式(10)で示される並進行列である。
P 2 = R 12 P 1 + M 02 (7)
V 2 = R 12 V 1 (8)
Here, P 1 and V 1 are a position (vector) and a direction vector at an arbitrary position in the intermediate coordinate system (X 1 Y 1 Z 1 ), respectively, and P 2 and V 2 are the second A position vector and a direction vector when converted into the coordinate system (X 2 Y 2 Z 2 ).
When P 0 and V 0 are set to a position (vector) representing the position of the viewpoint of the objective optical system 10 of the objective optical system 10 calculated from the position / direction acquisition circuit 25 and a direction vector in the line-of-sight direction, P 0 and V 0 are P 1 and V 1 are converted, and P 1 and V 1 are further converted into P 2 and V 2 .
That is, when P 0 and V 0 are acquired as the viewpoint position and the direction vector in the line-of-sight direction, the corresponding P 2 and V 2 are the viewpoints of the objective optical system 10 in the second coordinate system (X 2 Y 2 Z 2 ). A position vector for Pv (also used for Pv) and a direction vector for the line-of-sight direction V (also used for V). R 12 is a rotation matrix represented by the following equation (9), and M 02 is a parallel progression represented by the following equation (10).

[数9]

Figure 2016076262
[数10]
Figure 2016076262
よって、中間座標系(XYZ)上の点(x,y,z)は、次の式(11)に示すように、第2の座標系(XYZ)上の点(x,y,z)に変換される。
[数11]
Figure 2016076262
X1Y1Z1座標系をY1軸方向にR2移動した場合、並進M12と回転R12は、それぞれ、式(12)と式(13)のようになる。[Equation 9]
Figure 2016076262
[Equation 10]
Figure 2016076262
Therefore, a point on the intermediate coordinate system (X 1 Y 1 Z 1) (x 1, y 1, z 1) , as shown in the following equation (11), a second coordinate system (X 2 Y 2 Z 2 ) is converted to a point (x 2 , y 2 , z 2 ) above.
[Equation 11]
Figure 2016076262
When the X 1 Y 1 Z 1 coordinate system is moved R 2 in the Y 1 axis direction, the translation M 12 and the rotation R 12 are as shown in Expression (12) and Expression (13), respectively.

[数12]

Figure 2016076262
[数13]
Figure 2016076262
以上のように、磁場発生装置7の第1の座標系(XYZ)における位置Pは、式(5)と式(11)より、3D画像M1の中心Oを基準とする第2の座標系(XYZ)の位置Pに変換され、第1の座標系(XYZ)における方向Vは、次の式(14)に従って、第2の座標系(XYZ)の方向Vに変換される。
V=R1201V ・・・式(14)
また、図4は、内視鏡2の挿入部2bが膀胱B内に挿入された様子を3D画像M1で示し、対物光学系10の視点Pvの位置から視線方向Vが交差する球体の内壁面(膀胱Bの内壁面)の位置も第2の座標系(XYZ)を用いて扱うことができる。[Equation 12]
Figure 2016076262
[Equation 13]
Figure 2016076262
As described above, the position P 0 in the first coordinate system (X 0 Y 0 Z 0 ) of the magnetic field generator 7 is based on the center O 2 of the 3D image M1 based on the equations (5) and (11). To the position P 2 of the second coordinate system (X 2 Y 2 Z 2 ), and the direction V 0 in the first coordinate system (X 0 Y 0 Z 0 ) is expressed by the following equation (14). It is converted in the direction V 2 of the coordinate system 2 (X 2 Y 2 Z 2 ).
V 2 = R 12 R 01 V 0 ··· formula (14)
FIG. 4 shows a 3D image M1 in which the insertion portion 2b of the endoscope 2 is inserted into the bladder B, and the inner wall surface of a sphere where the line-of-sight direction V intersects from the position of the viewpoint Pv of the objective optical system 10 The position of (the inner wall surface of the bladder B) can also be handled using the second coordinate system (X 2 Y 2 Z 2 ).

第2の座標系(XYZ)の原点となる中心Oは、膀胱Bへの入口となる頸部PRとその対向部位PTとを結ぶ線分の中点の位置となる。また、第2の座標系(XYZ)は、膀胱Bにおける左壁側がX方向、右壁側が−X方向、患者Pの前壁(腹部)側がZ方向、患者Pの後壁(背中)側が−Z方向となるように設定される。
また、図3又は図5に示す2Dモデル画像M2は、図4に示す3D画像(で近似される膀胱Bの内壁面)をX,Yを含む平面に沿って展開、又は投影したものとなる。図5中の2Dモデル画像M2においては、上記の代表的な領域となる頸部PR、頸部PRに対応する頂部(Top)、左側壁(Left)、右側壁(Right)、前壁(Front)、後壁(Back)、を示している。
図4に示すように先端部2dの対物光学系10の第2の座標系(XYZ)における視点Pvの位置と視線方向Vが決定すると、撮像素子11の撮像面11aの中心位置に結像される(膀胱Bを表す)球体の内壁面上の位置Psは、以下のように球体の半径Rを用いて求める。次の式(15)と式(16)を満たす係数kを算出し、第2の座標系(XYZ)における位置Psの座標位置を求める。
The center O 2 that is the origin of the second coordinate system (X 2 Y 2 Z 2 ) is the position of the midpoint of the line segment that connects the neck PR serving as the entrance to the bladder B and the opposing portion PT. In the second coordinate system (X 2 Y 2 Z 2 ), the left wall side in the bladder B is in the X 2 direction, the right wall side is in the −X 2 direction, the front wall (abdomen) side of the patient P is in the Z 2 direction, and the patient P is set to be the rear wall (back) side is -Z 2 direction.
Further, the 2D model image M2 shown in FIG. 3 or FIG. 5 is obtained by developing or projecting the 3D image shown in FIG. 4 (the inner wall surface of the bladder B approximated by) along a plane including X 2 and Y 2. It becomes. In the 2D model image M2 in FIG. 5, the above-mentioned representative region is the neck PR, the top corresponding to the neck PR, the left side wall (Left), the right side wall (Right), the front wall (Front ) And back wall (Back).
As shown in FIG. 4, when the position of the viewpoint Pv and the line-of-sight direction V in the second coordinate system (X 2 Y 2 Z 2 ) of the objective optical system 10 at the tip 2d are determined, the center of the imaging surface 11a of the imaging device 11 is determined. The position Ps on the inner wall surface of the sphere imaged at the position (representing the bladder B) is obtained using the radius R of the sphere as follows. A coefficient k satisfying the following equations (15) and (16) is calculated, and the coordinate position of the position Ps in the second coordinate system (X 2 Y 2 Z 2 ) is obtained.

Ps=Pv+kV ・・・式(15)
|Ps|=R ・・・式(16)
位置算出回路21cは、式(15)、式(16)を用いて、各視点Pvにおいてその視線方向V上となる内壁の位置Psを算出する。また、この位置Psが算出されると、距離算出回路21aは、|Pv−Ps|を算出して、視点Pvから内壁までの距離(情報)を算出する。膀胱Bの形状を半径Rの球体(Rの値を所定の値)としたが、例えば、操作者が先端部2dを膀胱の入り口から距離が最大になる膀胱の内壁(例えば、頂部)に接触させて球体の半径の値を設定しても良い。
図2に示すメモリ22は、ROM、RAM(ランダムアクセスメモリ)、フラッシュメモリなどを用いて形成され、このメモリ22は、CPU21により実行される各種処理プログラム及び各種データを記憶し、さらに、画像生成回路4aにより生成された内視鏡画像の情報、位置方向取得回路25により取得された位置情報と視線方向情報なども記憶する。
Ps = Pv + kV (15)
| Ps | = R (16)
The position calculation circuit 21c calculates the position Ps of the inner wall that is on the line-of-sight direction V at each viewpoint Pv using Expressions (15) and (16). When the position Ps is calculated, the distance calculation circuit 21a calculates | Pv−Ps | to calculate the distance (information) from the viewpoint Pv to the inner wall. The shape of the bladder B is a sphere having a radius R (the value of R is a predetermined value). For example, the operator contacts the distal end portion 2d with the inner wall (for example, the top) of the bladder where the distance from the bladder entrance is maximum. The value of the radius of the sphere may be set.
The memory 22 shown in FIG. 2 is formed using a ROM, a RAM (Random Access Memory), a flash memory, or the like. The memory 22 stores various processing programs executed by the CPU 21 and various data, and further generates an image. The information of the endoscopic image generated by the circuit 4a, the position information acquired by the position / direction acquisition circuit 25, the line-of-sight direction information, and the like are also stored.

つまり、メモリ22は、内視鏡画像の情報を記憶する内視鏡画像記憶部22aと、視点の位置情報及び視線方向情報を記憶する位置方向情報記憶部22bとを有する。
膀胱Bは、球体の3次元(3D)画像で近似することができ、球体を表す半径等のパラメータが、3D画像M1として、メモリ22内における患者画像情報記憶部22cに格納される。また、管腔臓器としての膀胱Bの3次元画像を展開した2Dモデル画像M2の画像情報もメモリ22内における患者画像情報記憶部22cに格納される。
このため、患者画像情報記憶部22cは、3D画像M1及び2Dモデル画像M2の3D/2D画像記憶部22dの機能を持つ。なお、メモリ22における患者画像情報記憶部22c以外の記憶エリアに3D/2D画像記憶部22dを形成しても良い。
That is, the memory 22 includes an endoscope image storage unit 22a that stores information on an endoscope image, and a position / direction information storage unit 22b that stores viewpoint position information and line-of-sight direction information.
The bladder B can be approximated by a three-dimensional (3D) image of a sphere, and parameters such as a radius representing the sphere are stored in the patient image information storage unit 22c in the memory 22 as a 3D image M1. Further, image information of the 2D model image M2 obtained by developing a three-dimensional image of the bladder B as a luminal organ is also stored in the patient image information storage unit 22c in the memory 22.
Therefore, the patient image information storage unit 22c has a function of a 3D / 2D image storage unit 22d of the 3D image M1 and the 2D model image M2. Note that the 3D / 2D image storage unit 22d may be formed in a storage area other than the patient image information storage unit 22c in the memory 22.

メモリ22内に格納された3D画像M1と2Dモデル画像M2は、例えばCPU21により読み出され、表示I/F23を介してモニタ6に表示される。また、本実施形態においては、例えば図3,図5に示すように、2Dモデル画像M2上において視点から視線方向に沿って観察した膀胱Bの内壁上の領域を指標Mk1により表した画像(又は指標Mk1を付加した画像又は指標Mk1を重畳した画像)を生成し、モニタ6の表示画面で表示する。術者はこの画像を見ることにより、膀胱B内を観察した観察状態を把握できる。
尚、ここでは患者画像情報記憶部22cから読み出した3Dモデル画像M1と2Dモデル画像M2を説明したが、3Dモデル画像M1と2Dモデル画像M2の取得方法はこれに限られるものではない。例えば、3D/2D画像生成回路21dが撮像部12が撮像した内視鏡画像Ienに基づいた観察位置、視線方向データを用いて、内視鏡2の撮像部12により撮像(観察)された2次元画像データに対応する3Dモデル画像M1や2Dモデル画像M2を生成するようにしても良い。
The 3D image M1 and 2D model image M2 stored in the memory 22 are read by, for example, the CPU 21 and displayed on the monitor 6 via the display I / F 23. In the present embodiment, for example, as shown in FIGS. 3 and 5, an image (or an index Mk1 representing an area on the inner wall of the bladder B observed along the line-of-sight direction from the viewpoint on the 2D model image M2 (or An image with the index Mk1 added or an image with the index Mk1 superimposed) is generated and displayed on the display screen of the monitor 6. The surgeon can grasp the observation state of the inside of the bladder B by viewing this image.
Here, the 3D model image M1 and the 2D model image M2 read from the patient image information storage unit 22c have been described, but the acquisition method of the 3D model image M1 and the 2D model image M2 is not limited to this. For example, the 3D / 2D image generation circuit 21d is imaged (observed) by the imaging unit 12 of the endoscope 2 using the observation position and gaze direction data based on the endoscope image Ien captured by the imaging unit 12. A 3D model image M1 or a 2D model image M2 corresponding to the dimensional image data may be generated.

この場合、3D/2D画像生成回路21dは例えば日本国特許第5354494号の公報に記載された方法や、この公報以外に公知となるShape from Shading 法のように1枚の2次元画像から対応する3D形状を推定しても良い。また、2枚以上の画像を用いるステレオ法、単眼移動視による3次元形状推定法、SLAM法、位置センサと組み合わせて3D形状を推定する手法でも良い。また、3D形状を推定する場合、外部のCT装置等の断層像取得装置から取得した3D画像データを参照して3D形状データを構築するようにしても良い。   In this case, the 3D / 2D image generation circuit 21d responds from one two-dimensional image, such as the method described in Japanese Patent No. 5354494 or the well-known Shape from Shading method. A 3D shape may be estimated. Alternatively, a stereo method using two or more images, a three-dimensional shape estimation method using monocular movement vision, a SLAM method, or a method of estimating a 3D shape in combination with a position sensor may be used. When estimating the 3D shape, the 3D shape data may be constructed with reference to 3D image data acquired from a tomographic image acquisition apparatus such as an external CT apparatus.

また、図5に示すように2Dモデル画像M2上において指標Mk1を付加した画像を表示すると共に、3D画像M1上においても指標Mk2を付加した画像を表示するようにしても良い。
図5の表示例においては、モニタ6は、内視鏡画像表示エリアA1に内視鏡画像Ien、2Dモデル画像表示エリアA2には、2Dモデル画像M2と共に、該2Dモデル画像M2上において指標Mk1を重畳した画像、3D画像表示エリアA3に3D画像M1と共に、3D画像M1上において指標Mk2を重畳した画像を表示する。
Further, as shown in FIG. 5, an image with the index Mk1 added may be displayed on the 2D model image M2, and an image with the index Mk2 added may be displayed on the 3D image M1.
In the display example of FIG. 5, the monitor 6 includes an endoscope image Ien in the endoscope image display area A1 and an index Mk1 on the 2D model image M2 together with the 2D model image M2 in the 2D model image display area A2. Is displayed in the 3D image display area A3 together with the 3D image M1 and the image on which the index Mk2 is superimposed on the 3D image M1.

図5においては、2Dモデル画像M2上における指標Mk1と、3D画像M1上における指標Mk2とは対応するために、術者は両方を参照することにより確実に観察状態を把握することができる。勿論、一方の画像から観察状態を把握することもできる。
メモリ22の3D/2D画像記憶部22dは、時系列に指標Mk1が付加された2Dモデル画像M2、指標Mk2が付加された3D画像M1も順次記憶する。
図2に示す画像取込回路24は、プロセッサ4において生成された内視鏡画像を、一定の周期で取り込む処理を行う画像取込部の機能を有する。画像取込回路24は、例えば、フレームレートと同じ、1秒間に30枚の内視鏡画像を、プロセッサ4から取得する。また、画像取込回路24は、プロセッサ4からのレリーズ信号も受信する。
In FIG. 5, since the index Mk1 on the 2D model image M2 and the index Mk2 on the 3D image M1 correspond to each other, the operator can surely grasp the observation state by referring to both. Of course, the observation state can be grasped from one image.
The 3D / 2D image storage unit 22d of the memory 22 sequentially stores the 2D model image M2 to which the index Mk1 is added in time series and the 3D image M1 to which the index Mk2 is added.
The image capturing circuit 24 illustrated in FIG. 2 has a function of an image capturing unit that performs processing for capturing an endoscopic image generated by the processor 4 at a certain period. The image capture circuit 24 acquires, for example, 30 endoscopic images per second, which are the same as the frame rate, from the processor 4. The image capture circuit 24 also receives a release signal from the processor 4.

位置方向取得回路25は、磁場発生装置7を駆動する駆動回路27を制御して、磁場発生装置7に所定の磁場を発生させ、その磁場を磁気センサ13により検出し、その検出された磁場の検出信号から、対物光学系10の視点となる位置座標(x、y、z)と視線方向となる配向(すなわちオイラー角(ψ、θ、φ))のデータ、すなわち視点の位置情報及び視線方向情報を第1の座標系(XYZ)においてリアルタイムで生成する。すなわち、位置方向取得回路25は、磁気センサ13からの位置情報及び方向情報を取得して、対物光学系10の視点の位置情報と視線方向情報(簡略化して位置視線方向情報、又は位置方向情報とも言う)とを取得する情報取得部を構成する。
CPU21は、画像取込回路24が取り込んだ内視鏡画像(の情報)と、位置方向取得回路25が検出した位置方向情報から算出された位置方向情報とを(例えば座標変換回路21fにより球体の中心Oを基準とした第2の座標系(XYZ)に変換した後)関連付けた関連付け情報を、メモリ22に記憶する。なお、第2の座標系(XYZ)に変換しない状態でメモリ22に記憶しても良い。
The position / direction acquisition circuit 25 controls the drive circuit 27 that drives the magnetic field generator 7 to generate a predetermined magnetic field in the magnetic field generator 7, detects the magnetic field by the magnetic sensor 13, and detects the detected magnetic field. From the detection signal, the position coordinates (x, y, z) serving as the viewpoint of the objective optical system 10 and the orientation (ie, Euler angles (ψ, θ, φ)) serving as the viewing direction, that is, the position information of the viewpoint and the viewing direction. Information is generated in real time in the first coordinate system (X 0 Y 0 Z 0 ). That is, the position / direction acquisition circuit 25 acquires the position information and direction information from the magnetic sensor 13, and the position information and line-of-sight direction information of the viewpoint of the objective optical system 10 (simplified position line-of-sight information or position / direction information). The information acquisition part which acquires also is comprised.
The CPU 21 obtains (the information about) the endoscopic image captured by the image capturing circuit 24 and the position / direction information calculated from the position / direction information detected by the position / direction acquisition circuit 25 (for example, by using the coordinate conversion circuit 21f). The association information associated with the second coordinate system (X 2 Y 2 Z 2 ) based on the center O 2 is stored in the memory 22. Note that the data may be stored in the memory 22 without being converted to the second coordinate system (X 2 Y 2 Z 2 ).

メモリ22は、画像取込回路24が取り込んだ上記内視鏡画像と、該内視鏡画像を取り込んだ際の位置方向情報とを関連付ける関連付け情報を、メモリ22内の例えば3D/2D画像記憶部22dに記憶しても良い(図2の図示例)し、又はメモリ22における内視鏡画像記憶部22a又は位置方向情報記憶部22bが関連付け情報記憶部の機能を持つようにしても良い。又は、メモリ22とは別体の記憶デバイスにより関連付け情報記憶部を形成しても良い。   The memory 22 stores, for example, a 3D / 2D image storage unit in the memory 22 associating information for associating the endoscopic image captured by the image capturing circuit 24 with the position / direction information when the endoscopic image is captured. 22d (example shown in FIG. 2), or the endoscope image storage unit 22a or the position / direction information storage unit 22b in the memory 22 may have a function of an association information storage unit. Alternatively, the association information storage unit may be formed by a storage device separate from the memory 22.

図6Aは膀胱B内部に内視鏡2の挿入部2bの先端部2dを挿入し、先端部2d内の対物光学系10等により膀胱Bの内壁を観察する様子を示し、図6Bは図6Aの観察状態に対応して、2Dモデル画像M2上に、指標が付加された(関連付け)画像が生成される様子を示す。
膀胱Bの内壁は、中心をOとした半径Rの球体で近似され、また、内壁上の各位置は、中心Oを基準(原点)とした第2の座標系(XYZ)により扱い易くなる。
FIG. 6A shows a state in which the distal end portion 2d of the insertion portion 2b of the endoscope 2 is inserted into the bladder B, and the inner wall of the bladder B is observed by the objective optical system 10 or the like in the distal end portion 2d. A state in which an image to which an index is added (associated) is generated on the 2D model image M2 corresponding to the observation state is shown.
The inner wall of the bladder B is approximated by a sphere having a radius R with the center being O 2, and each position on the inner wall is a second coordinate system (X 2 Y 2 Z with the center O 2 as a reference (origin)). 2 ) It becomes easier to handle.

また、上述したように先端部2dに配置された対物光学系10の視点Pvの位置及び視線方向(光軸方向)Vの情報は、位置方向取得回路25を用いて算出され、第2の座標系(XYZ)の情報に変換された後、内視鏡画像と関連付けて記憶される。また、位置方向取得回路25(の撮像情報取得部25b)は、対物光学系10の焦点距離f、撮像素子11の画素数、画角等の撮像情報を取得する。
図6Aに示す例では、例えば視点(の位置)をPvaからPvbに変えると共に、視点から内壁までの距離をLaからLbに変えて観察する様子を示す。図6Aに示すように視点から内壁までの距離Laが大きい場合には、内壁上における視野範囲(観察される観察範囲)Aaが大きくなり、距離が小さい場合には、内壁上における視野範囲(観察される範囲)Abが小さくなる。
このように距離に応じて内壁上における視野範囲(観察範囲)が変化するために、本実施形態においては、指標生成回路21bは、距離の大きさに応じて、又は内壁上における視野範囲の大きさに応じて指標の表示形態、具体的には指標の表示色を変する。このため、指標生成回路21bは、距離の大きさ、又は視野範囲の大きさに応じて指標の表示色を変更する指標色変更部(指標色変更回路)の機能を持つ。また、図6Bに示すように指標生成回路21bは、距離の大きさ、又は視野範囲の大きさに応じて指標の大きさ(サイズ)を変更する指標サイズ変更部(指標サイズ変更回路)の機能を持つ。
In addition, as described above, the information on the position of the viewpoint Pv and the line-of-sight direction (optical axis direction) V of the objective optical system 10 disposed at the distal end portion 2d is calculated using the position / direction acquisition circuit 25, and the second coordinates After being converted into system (X 2 Y 2 Z 2 ) information, it is stored in association with the endoscopic image. The position / direction acquisition circuit 25 (the imaging information acquisition unit 25b thereof) acquires imaging information such as the focal length f of the objective optical system 10, the number of pixels of the imaging element 11, and the angle of view.
In the example shown in FIG. 6A, for example, the viewpoint (position) is changed from Pva to Pvb and the distance from the viewpoint to the inner wall is changed from La to Lb for observation. As shown in FIG. 6A, when the distance La from the viewpoint to the inner wall is large, the visual field range (observed observation range) Aa on the inner wall becomes large, and when the distance is small, the visual field range (observation on the inner wall) Range) Ab becomes smaller.
Thus, since the visual field range (observation range) on the inner wall changes according to the distance, in the present embodiment, the index generation circuit 21b depends on the size of the distance or the size of the visual field range on the inner wall. Changing the display color of the indicator display format for the indicator, in particular, if the. For this reason, the index generation circuit 21b has a function of an index color changing unit (index color changing circuit) that changes the display color of the index according to the size of the distance or the size of the visual field range. As shown in FIG. 6B, the index generation circuit 21b functions as an index size changing unit (index size changing circuit) that changes the size (size) of the index according to the size of the distance or the size of the visual field range. have.

図6Aの観察状態に対応して、例えば2Dモデル画像M2上には、図6Bに示すように指標Mk1が生成される。
図6Bに示す2Dモデル画像M2上の指標Mk1は、図6Aにおける視点Pvaから視線方向V上となる内壁上の位置Psを中心とした領域Aaに対応する指標Mk1_Aaと、視点Pvbから視線方向V上となる内壁上の位置Psを中心とした領域Abに対応する指標Mk1_Abと、からなる。
また、2Dモデル画像M2上の指標Mk1_Aa、指標Mk1_Abは、内壁上の位置Psに対応した2Dモデル画像M2上の位置(図6BではPs′)に、領域Aa、領域Abに対応したサイズでそれぞれ生成される。又は、指標Mk1_Aa、指標Mk1_Abは、内壁上の領域Aa、領域Abに対応した2Dモデル画像M2上の領域に(領域Aa、領域Abのサイズを反映したサイズで)それぞれ生成される。
図6Aでは、簡単化のために、視線方向Vが同じ状態で距離を変えた場合を示すが、視線方向Vが異なれば、内壁上の位置Psも異なり、従って2Dモデル画像M2上の指標Mk1_Aa、Mk1_Abの中心位置、領域も異なる。
Corresponding to the observation state of FIG. 6A, for example, an index Mk1 is generated on the 2D model image M2 as shown in FIG. 6B.
The index Mk1 on the 2D model image M2 shown in FIG. 6B is the index Mk1_Aa corresponding to the area Aa centered on the position Ps on the inner wall that is on the line-of-sight direction V from the viewpoint Pva in FIG. And an index Mk1_Ab corresponding to a region Ab centered on the position Ps on the upper inner wall.
Further, the index Mk1_Aa and the index Mk1_Ab on the 2D model image M2 are respectively positioned at positions on the 2D model image M2 corresponding to the position Ps on the inner wall (Ps ′ in FIG. 6B) with sizes corresponding to the areas Aa and Ab. Generated. Alternatively, the index Mk1_Aa and the index Mk1_Ab are respectively generated in a region on the 2D model image M2 corresponding to the region Aa on the inner wall and the region Ab (with a size reflecting the size of the region Aa and the region Ab).
For simplification, FIG. 6A shows a case where the distance is changed while the line-of-sight direction V is the same. However, if the line-of-sight direction V is different, the position Ps on the inner wall is also different, and thus the index Mk1_Aa on the 2D model image M2 , Mk1_Ab center positions and regions are also different.

また、図6Bに示すように2Dモデル画像M2上において指標Mk1_Aa、Mk1_Abが重なるような場合においては、距離がより小さい状態で観察した観察済みの領域を示す指標Mk1_Abが上側となるように指標が生成され、かつ表示される。
また、図6Bに示すように内壁までの距離に応じて、それぞれ異なる色で指標を表示する画像を生成する。
このため、指標生成回路21b又は指標生成回路21bにより生成された指標を3D画像M1又は2Dモデル画像M2において重畳する画像生成回路21eは、内壁までの距離を、予め用意された複数の距離範囲のいずれの距離範囲に属する(又は含まれる)かの判定部の機能を持つ。図6Bに示す例では、3D画像M1又は2Dモデル画像M2において重畳する指標を表示する場合の距離範囲Lsを、例えばLs≧L5>L4>L3>L2>L1の5個の距離範囲Li(i=1,2,…,5)に区分けする。
Further, as shown in FIG. 6B, when the indices Mk1_Aa and Mk1_Ab overlap on the 2D model image M2, the index is set so that the index Mk1_Ab indicating the observed region observed with a smaller distance is on the upper side. Generated and displayed.
In addition, as shown in FIG. 6B, an image that displays an index with a different color is generated according to the distance to the inner wall.
For this reason, the image generation circuit 21e that superimposes the index generated by the index generation circuit 21b or the index generation circuit 21b in the 3D image M1 or the 2D model image M2 has a distance to the inner wall of a plurality of distance ranges prepared in advance. It has a function of a determination unit that belongs to (or is included in) which distance range. In the example illustrated in FIG. 6B, the distance range Ls in the case of displaying the superimposed index in the 3D image M1 or the 2D model image M2, for example, five distance ranges Li (i (Ls ≧ L5>L4>L3>L2> L1). = 1, 2, ..., 5).

そして、算出された距離Lが最も小さい距離範囲L1以内では赤、次に大きい距離範囲L2では橙、次に大きい距離範囲L3では黄、次に大きい距離範囲L4では緑、次に大きい距離範囲L5では青の色を割り当てる。図6Bに示すように2Dモデル画像M2上に、指標Mk1を表示した場合、指標の表示形態を表す色がどの距離範囲に含まれるかを示すカラーバーCを、指標Mk1の周辺に表示する。カラーバーCにおける赤など色の左側の斜線は、実際には赤などの色が割り当てられる。
なお、図6BではカラーバーC内での矢印により、暖色系の色程、距離が小さい(内壁に近い)ことを示している。図6Bに示すように5個の距離範囲に区分けする場合に限定されるものでなく、より少ない個数、又はより多い個数に区分けしても良い。また、術者等のユーザが入力装置30から区分けする個数を選択することができるようにしても良い。
The calculated distance L is red within the smallest distance range L1, orange in the next largest distance range L2, yellow in the next largest distance range L3, green in the next largest distance range L4, and next largest distance range L5. Let's assign the blue color. When the index Mk1 is displayed on the 2D model image M2 as shown in FIG. 6B, a color bar C indicating in which distance range the color representing the display mode of the index is included is displayed around the index Mk1. The diagonal line on the left side of the color such as red in the color bar C is actually assigned a color such as red.
In FIG. 6B, the arrow in the color bar C indicates that the warm color and the distance are small (close to the inner wall). As shown in FIG. 6B, the present invention is not limited to the case of dividing into five distance ranges, and may be divided into a smaller number or a larger number. In addition, a user such as an operator may be able to select the number to be sorted from the input device 30.

また、後述するように、視点Pvから視線方向V上となる内壁の位置Psまでの距離Lに応じて、予め設定したテーブルから算出される半径rの指標を2Dモデル画像(膀胱シェーマ)M2上等に表示するようにしても良い。
このため、距離Lの値と、対応する指標の半径rの大きさとを対応付けた上記テーブルを例えばメモリ22が格納しても良い。メモリ22以外の記憶デバイスが上記テーブルを備える構成にしても良い。例えば指標生成回路21b又は画像生成回路21eがテーブルを有する記憶デバイスを備える構成にしても良い。また、図2においてはCPU21を用いて距離算出回路21a、指標生成回路21b、位置算出回路21c、3D/2D画像生成回路21d、画像生成回路21e、座標変換回路21f、位置合わせ回路21gを形成した構成を示しているが、専用の電子回路等のハードウェアを用いて構成しても良い。
Further, as will be described later, an index of the radius r calculated from a preset table according to the distance L from the viewpoint Pv to the inner wall position Ps on the line-of-sight direction V is set on the 2D model image (bladder schema) M2. Or the like.
For this reason, for example, the memory 22 may store the table in which the value of the distance L is associated with the size of the radius r of the corresponding index. A storage device other than the memory 22 may include the above table. For example, the index generation circuit 21b or the image generation circuit 21e may include a storage device having a table. In FIG. 2, the distance calculation circuit 21a, the index generation circuit 21b, the position calculation circuit 21c, the 3D / 2D image generation circuit 21d, the image generation circuit 21e, the coordinate conversion circuit 21f, and the alignment circuit 21g are formed using the CPU 21. Although the configuration is shown, it may be configured using hardware such as a dedicated electronic circuit.

本発明の第1の実施形態の医療装置1は、所定の管腔臓器の形状を表す情報を記録する記憶部を形成する患者画像情報記憶部22c(又はメモリ22)と、前記所定の管腔臓器内に設けられた所定の視点の位置情報と視線方向情報を取得する情報取得部を形成する位置方向取得回路25と、前記位置情報及び前記視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部を形成する位置合わせ回路21gと、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線情報に基づき、前記所定の視点の視線方向を延長したときに前記所定の管腔臓器の内壁と交差する位置を算出する位置算出部を形成する位置算出回路21cと、前記位置算出部の位置と前記所定の視点までの距離情報を算出する距離算出部を形成する距離算出回路21aと、前記距離算出部によって取得された前記距離情報に基づき規定される指標を生成する指標生成部を形成する指標生成回路21bと、前記位置算出部の算出結果に基づき、前記所定の管腔臓器の3次元画像又は当該所定の管腔臓器を展開した2次元モデル画像上において、前記指標と前記内壁の位置情報とを関連付けた画像(関連付け画像)を生成する画像生成部を形成する画像生成回路21eと、を備えることを特徴とする。   The medical device 1 according to the first embodiment of the present invention includes a patient image information storage unit 22c (or memory 22) that forms a storage unit that records information representing the shape of a predetermined luminal organ, and the predetermined lumen. A position / direction acquisition circuit 25 forming an information acquisition unit for acquiring position information and line-of-sight direction information of a predetermined viewpoint provided in the organ, and the position information and the line-of-sight information are converted into a three-dimensional image of a predetermined lumen organ. Based on the position information and the line-of-sight information that are aligned with the three-dimensional image information by the alignment unit, the alignment circuit 21g that forms an alignment unit that is aligned with the information coordinate system, and the predetermined viewpoint A position calculation circuit 21c that forms a position calculation unit that calculates a position that intersects the inner wall of the predetermined luminal organ when the line-of-sight direction is extended, and the distance between the position of the position calculation unit and the predetermined viewpoint A distance calculation circuit 21a that forms a distance calculation unit that calculates information, an index generation circuit 21b that forms an index generation unit that generates an index defined based on the distance information acquired by the distance calculation unit, and the position Based on the calculation result of the calculation unit, on the three-dimensional image of the predetermined luminal organ or the two-dimensional model image in which the predetermined luminal organ is developed, an image (association) that associates the index with the position information of the inner wall And an image generation circuit 21e that forms an image generation unit for generating (image).

次に本実施形態の動作を図7のフローチャートを参照して以下に説明する。
医療装置1が動作状態になると、最初のステップS1において、術者は初期設定を行う。術者は、入力装置30から、膀胱B内を観察する場合において、観察済みの領域であることを示す指標を表示するか否かの条件(具体例としては視点から膀胱Bの内壁までの距離の閾値TL)を設定する。閾値TLが設定されると、この閾値TL以内の距離範囲において、指標が生成される。術者は、術者の判断においてこの閾値TLを設定できるが、予め用意された設定値(例えば後述する30mm)を用いるようにしても良い。
次のステップS2において術者は、内視鏡2を患者Pの尿道内に挿入し、既知となる位置において、座標系の位置合わせを行う。先端部2dの磁気センサ13に対して位置方向取得回路25が取得する位置情報及び視線方向情報は、第1の座標系(XYZ)の下での情報となるために、膀胱B内で用いる第2の座標系(XYZ)との位置合わせを行う。
Next, the operation of this embodiment will be described below with reference to the flowchart of FIG.
When the medical device 1 is in the operating state, the operator performs initial setting in the first step S1. When the operator observes the inside of the bladder B from the input device 30, a condition whether or not to display an index indicating that the region has been observed (specifically, a distance from the viewpoint to the inner wall of the bladder B) Threshold TL). When the threshold value TL is set, an index is generated in a distance range within the threshold value TL. The surgeon can set the threshold value TL in the judgment of the surgeon, but a preset value (for example, 30 mm described later) may be used.
In the next step S2, the operator inserts the endoscope 2 into the urethra of the patient P, and aligns the coordinate system at a known position. Since the position information and the line-of-sight direction information acquired by the position / direction acquisition circuit 25 with respect to the magnetic sensor 13 of the distal end portion 2d become information under the first coordinate system (X 0 Y 0 Z 0 ), the bladder Alignment with the second coordinate system (X 2 Y 2 Z 2 ) used in B is performed.

本実施形態においては、第1の座標系(XYZ)と、中間座標系(XYZ)との位置合わせを行い、さらに中間座標系(XYZ)と、第2の座標系(XYZ)との位置合わせを行うことにより第1の座標系(XYZ)と第2の座標系(XYZ)との位置合わせを行う。これにより、位置方向取得回路25が取得する位置情報及び視線方向情報は、座標変換回路21fにより第2の座標系(XYZ)における位置情報及び視線方向情報に変換される状態となる。
次のステップS3において術者は、内視鏡2の先端部2dを膀胱B内に挿入する。ステップS4に示すように位置方向取得回路25は、先端部2dの対物光学系10の視点と視線方向の情報を取得し、ステップS5に示すように座標変換回路21fは、この情報を第2の座標系(XYZ)における視点と視線方向の情報に変換する。
次のステップS6において距離算出回路21aは、視線方向上となる膀胱Bの内壁の位置(図4の位置Ps)を算出し(上述した式(15)、(16))、視点から内壁(上の位置)までの距離L(図6AではLa又はLb)を算出する。
In this embodiment, the first coordinate system (X 0 Y 0 Z 0 ) and the intermediate coordinate system (X 1 Y 1 Z 1 ) are aligned, and the intermediate coordinate system (X 1 Y 1 Z 1). ) And the second coordinate system (X 2 Y 2 Z 2 ), thereby aligning the first coordinate system (X 0 Y 0 Z 0 ) and the second coordinate system (X 2 Y 2 Z 2). ). Thereby, the position information and the line-of-sight direction information acquired by the position / direction acquisition circuit 25 are converted into the position information and the line-of-sight direction information in the second coordinate system (X 2 Y 2 Z 2 ) by the coordinate conversion circuit 21f. Become.
In the next step S3, the surgeon inserts the distal end portion 2d of the endoscope 2 into the bladder B. As shown in step S4, the position / direction acquisition circuit 25 acquires information on the viewpoint and line-of-sight direction of the objective optical system 10 at the distal end portion 2d, and as shown in step S5, the coordinate conversion circuit 21f uses this information as the second information. The information is converted into information on the viewpoint and line-of-sight direction in the coordinate system (X 2 Y 2 Z 2 ).
In the next step S6, the distance calculation circuit 21a calculates the position of the inner wall of the bladder B (position Ps in FIG. 4) in the line-of-sight direction (the above formulas (15) and (16)), and the inner wall (upper The distance L (La or Lb in FIG. 6A) is calculated.

次のステップS7において距離算出回路21aは、算出した距離Lが閾値TL以内か否かを判定する。距離Lが閾値TL以内と判定した場合には、次のステップS8において指標生成回路21bは、距離Lに応じた(表示形態としての)色の指標を生成する。例えば図6Bに示す指標Mk1_Abのような色の指標を生成する。
次のステップS9において画像生成回路21eは、2Dモデル画像M2上と3D画像M1上とにおいて、内壁上の視野範囲に対応した領域に指標を付加(又は重畳)した画像を生成する。生成された画像は表示I/F23を経てモニタ6に出力され、次のステップS10に示すようにモニタ6の表示画面上に表示される。また、ステップS11においてメモリ22は、ステップS9において生成された画像を記憶する。ステップS11の処理の後のステップS12においてCPU21は、入力装置30から観察終了の指示が入力されたか否かを判定し、入力されない場合には、ステップS4の処理に戻り、入力された場合には、図7の処理を終了する。
In the next step S7, the distance calculation circuit 21a determines whether or not the calculated distance L is within the threshold value TL. When it is determined that the distance L is within the threshold TL, the index generation circuit 21b generates a color index (as a display form) corresponding to the distance L in the next step S8. For example, a color index such as the index Mk1_Ab illustrated in FIG. 6B is generated.
In the next step S9, the image generation circuit 21e generates an image in which an index is added (or superimposed) to a region corresponding to the visual field range on the inner wall on the 2D model image M2 and the 3D image M1. The generated image is output to the monitor 6 via the display I / F 23, and displayed on the display screen of the monitor 6 as shown in the next step S10. In step S11, the memory 22 stores the image generated in step S9. In step S12 after the process of step S11, the CPU 21 determines whether or not an instruction to end the observation is input from the input device 30, and if not input, returns to the process of step S4. Then, the processing of FIG.

上記ステップS7において距離が閾値TLより大きい判定結果の場合にはステップS13においてCPU21は、入力装置30の指標生成スイッチ30aがONされたか否かを判定し、ONされていない場合には、ステップS4の処理に戻る。
一方、入力装置30の指標生成スイッチ30aがONされた場合には、次のステップS14において指標生成回路21bは、距離Lの値に応じた(表示形態としての)色の指標を生成し、ステップS9の処理に移る。ステップS14の場合は、例えば図6Aにおいて視点をPvcで示し、この場合には、Lcで示す距離が閾値TLよりも大きな値となる。そして、この場合の内壁上における視野範囲を形成する領域Acは広い領域となり、図6Bにおける2点鎖線で示すようにこの視野範囲Acに対応する2Dモデル画像M2上の領域が特定の色(例えば紫の色)の指標Mk1_Acで表示される。
図8は、図7におけるステップS9の詳細を示す。ステップS9の処理が開始すると、ステップS21において画像生成回路21dは、メモリ22に記憶された時間的に以前に生成された過去の(関連付け)画像、つまり過去の指標が付加された画像を読み出す。
If the determination result in step S7 is that the distance is larger than the threshold value TL, the CPU 21 determines in step S13 whether or not the index generation switch 30a of the input device 30 is turned on. Return to the process.
On the other hand, when the index generation switch 30a of the input device 30 is turned on, in the next step S14, the index generation circuit 21b generates a color index (as a display form) according to the value of the distance L, and the step The process proceeds to S9. In the case of step S14, for example, the viewpoint is indicated by Pvc in FIG. 6A. In this case, the distance indicated by Lc is larger than the threshold value TL. In this case, the region Ac forming the visual field range on the inner wall is a wide region, and the region on the 2D model image M2 corresponding to the visual field range Ac has a specific color (for example, as shown by a two-dot chain line in FIG. 6B). (Purple color) index Mk1_Ac.
FIG. 8 shows details of step S9 in FIG. When the process of step S9 is started, in step S21, the image generation circuit 21d reads a past (association) image previously generated in time stored in the memory 22, that is, an image to which a past index is added.

次のステップS22において画像生成回路21dは、現在の指標、つまりステップS9の直前のステップS8において生成された現在の観察状態の指標が過去の指標と重なるか否かを判定する。重なる判定結果の場合には次のステップS23において画像生成回路21dは、距離が小さい方の指標が上側となるように、換言すると距離範囲が小さい方の指標が上側となるように、現在の指標を過去の指標に重ねた画像を生成する。そして、図8の処理を終了する。ステップS23の処理は、図6Bに示した内容となる。
一方、ステップS22において、重ならない場合には、ステップS24において画像生成回路21dは、現在の指標を過去の指標に追加して現在の画像を生成し、図8の処理を終了する。
なお、上述の実施形態においては、指標を2Dモデル画像M2上と3D画像M1上とにおいて付加する場合で説明したが、指標を2Dモデル画像M2上又は3D画像M1上において付加するようにしても良い。
In the next step S22, the image generation circuit 21d determines whether or not the current index, that is, the index of the current observation state generated in step S8 immediately before step S9 overlaps the past index. In the case of overlapping determination results, in the next step S23, the image generation circuit 21d determines the current index so that the index with the smaller distance is on the upper side, in other words, the index with the smaller distance range is on the upper side. An image is generated by overlaying on the past index. Then, the process of FIG. 8 ends. The processing in step S23 has the contents shown in FIG. 6B.
On the other hand, if they do not overlap in step S22, the image generation circuit 21d adds the current index to the past index in step S24 to generate the current image, and ends the process of FIG.
In the above-described embodiment, the case where the index is added on the 2D model image M2 and the 3D image M1 has been described. However, the index may be added on the 2D model image M2 or the 3D image M1. good.

図6A、図6Bにおいて説明した例では、内壁上での視野範囲にほぼ一致する大きさの指標を生成する場合を説明したが、図9A等で説明するように、テーブルに格納されたデータを参照することにより、算出された距離Lの値から自動的に指標の大きさ(より具体的には指標の円形サイズ)を決定するようにしても良い。
図9Aは、距離Lに応じて指標を設定する処理を示し、図9Bはその動作の説明図を示し、図9Cは、テーブルの内容を示す。
図9Aの処理が開始すると、最初のステップS41において位置算出回路21cは、視点Pvから視線方向V上となる膀胱Bの内壁の位置Psを求め、膀胱シェーマ上での位置Psに相当する位置X(図6BではPs′)を求める。
次のステップS42において距離算出回路21aは、内視鏡2の先端の視点Pvと位置Psとの距離Lを求める。
次のステップS43において距離算出回路21aは、距離Lが予め設定された閾値TLとしての30mm以下か否かを判定する。
In the example described with reference to FIGS. 6A and 6B, the case has been described in which an index having a size that substantially matches the visual field range on the inner wall has been described. However, as illustrated in FIG. By referencing, the size of the index (more specifically, the circular size of the index) may be automatically determined from the value of the calculated distance L.
FIG. 9A shows processing for setting an index according to the distance L, FIG. 9B shows an explanatory diagram of the operation, and FIG. 9C shows the contents of the table.
When the process of FIG. 9A is started, in the first step S41, the position calculation circuit 21c obtains the position Ps of the inner wall of the bladder B that is on the visual line direction V from the viewpoint Pv, and the position X corresponding to the position Ps on the bladder schema. (Ps ′ in FIG. 6B) is obtained.
In the next step S42, the distance calculation circuit 21a calculates the distance L between the viewpoint Pv of the tip of the endoscope 2 and the position Ps.
In the next step S43, the distance calculation circuit 21a determines whether or not the distance L is 30 mm or less as a preset threshold value TL.

距離Lが30mm以下の判定結果の場合には次のステップS44において指標生成回路21bは、図9Cのテーブルを参照し、距離Lに対応する半径rを求める。
次のステップS45において指標生成回路21b又は画像生成回路21eは、シューマ上に位置Xを中心とした半径rの指標Mk1を描く(付加する)。このステップS45の処理の後、ステップS41の処理に戻る。なお、ステップS43において距離Lが30mmより大きい場合にもステップS41の処理に戻る。
図9Bの図示例では、内壁面に垂直な視野方向Vから内壁を観察した場合には内壁上の視野範囲に近い半径rの円形の指標Mk1を生成する場合を示しているが、内壁面に垂直でない場合に対しても距離Lの値から自動的に生成する指標のサイズを設定(決定)する。このために、簡単かつ短時間に指標Mk1を生成できる。また、術者は、殆どリアルタイムで、内壁の観察範囲を確認できる。
If the determination result is that the distance L is 30 mm or less, in the next step S44, the index generation circuit 21b refers to the table in FIG. 9C and obtains the radius r corresponding to the distance L.
In the next step S45, the index generation circuit 21b or the image generation circuit 21e draws (adds) an index Mk1 having a radius r centered on the position X on the schema. After step S45, the process returns to step S41. Note that if the distance L is greater than 30 mm in step S43, the process returns to step S41.
In the illustrated example of FIG. 9B, when the inner wall is observed from the visual field direction V perpendicular to the inner wall surface, a circular index Mk1 having a radius r close to the visual field range on the inner wall is generated. The size of the index that is automatically generated from the value of the distance L is set (determined) even when it is not vertical. Therefore, the index Mk1 can be generated easily and in a short time. In addition, the surgeon can confirm the observation range of the inner wall almost in real time.

このように動作する本実施形態によれば、管腔臓器としての膀胱Bの内壁を観察する場合、内壁を観察する観察状態を反映する距離に応じた表示形態の指標を2Dモデル画像M2上又は3D画像M1上とにおいて付加するようにしているので、術者は観察済みとなる領域においても指標の表示形態から実質的に観察した観察済みの状態であるか否かを判断し易い。
従って、術者は、膀胱Bの内壁等の観察対象範囲を観察しようとした場合、2Dモデル画像M2上又は3D画像M1上に指標を付加した画像を参照することにより、観察対象範囲内における一部の領域を見逃したり、過度に重複して観察することを防止して、効率良く観察することができる。
なお上述した実施形態において、例えば図2に示すように入力装置30に指標の表示形態を選択する表示形態選択部を形成する表示形態選択スイッチ(又はボタン)30bを設け、指標の表示形態を選択することができるようにしても良い。表示形態選択スイッチ30bの選択操作による選択信号は、CPU21に入力され、指標生成回路21bは、選択信号に対応した指標を生成する。
例えば、術者は、上述した距離又は視野範囲に応じて、指標の色を変えて表示する表示形態の他に、視線方向と、視線方向上に対向する内壁面に直交する垂線との成す角θに応じて指標の表示形態を変えるようにしても良い。
以下、距離又は(内壁上での)視野範囲の表示形態が選択された状態において、更に視線方向が内壁面の垂線と成す角θに応じて表示形態を変更する選択がされる場合の処理を説明する。この場合には、図7の処理を若干、変更した図10Aに示す処理となり、異なる処理の部分のみを説明する。
図10Aは、視線方向が内壁面の垂線と成す角(視線角とも言う)θに応じて表示形態を変更する処理を示す。例えば図7におけるステップS9の直前のステップS31においてCPU21は、表示形態選択スイッチ30bがONか否かの判定を行う。つまり、CPU21は、視線方向と内壁面との成す角θに応じて表示形態を変更する表示形態選択スイッチ30bがONか否かの判定を行う。
According to this embodiment that operates in this way, when observing the inner wall of the bladder B as a luminal organ, an indicator of the display form corresponding to the distance reflecting the observation state of observing the inner wall is displayed on the 2D model image M2 or Since it is added on the 3D image M1, it is easy for the surgeon to determine whether the observed state is substantially observed from the indicator display form even in the observed region.
Therefore, when an operator intends to observe the observation target range such as the inner wall of the bladder B, the operator refers to the image with the index added on the 2D model image M2 or the 3D image M1, thereby reducing the range within the observation target range. It is possible to efficiently observe by preventing the region of the portion from being overlooked or excessively overlapping.
In the embodiment described above, for example, as shown in FIG. 2, the input device 30 is provided with a display form selection switch (or button) 30b that forms a display form selection unit for selecting a display form of the index, and selects the display form of the index. You may be able to do that. A selection signal generated by the selection operation of the display form selection switch 30b is input to the CPU 21, and the index generation circuit 21b generates an index corresponding to the selection signal.
For example, in addition to the display form in which the surgeon changes the color of the index according to the distance or field of view described above, the angle formed by the line-of-sight direction and the perpendicular line perpendicular to the inner wall surface facing the line-of-sight direction The display form of the indicator may be changed according to θ.
Hereinafter, in a state where the display form of the distance or the visual field range (on the inner wall) is selected, the processing when the display form is selected to be changed according to the angle θ formed by the line-of-sight direction and the perpendicular to the inner wall surface is performed. explain. In this case, the processing of FIG. 7 is slightly changed to the processing shown in FIG. 10A, and only different processing portions will be described.
FIG. 10A shows processing for changing the display form in accordance with an angle θ (also referred to as a line-of-sight angle) θ formed by a line-of-sight direction and a perpendicular to the inner wall surface. For example, in step S31 immediately before step S9 in FIG. 7, the CPU 21 determines whether or not the display form selection switch 30b is ON. That is, the CPU 21 determines whether or not the display form selection switch 30b that changes the display form according to the angle θ formed by the line-of-sight direction and the inner wall surface is ON.

視線方向と内壁面との成す角θに応じて表示形態を変更する選択がされた場合には、次のステップS32において指標生成回路21bは、視線方向と内壁面と成す角θを算出する。
図10Bは、角θを算出する様子を示す。上述した式(15)と式(16)から視線方向V上に対向する内壁面上の位置Psが位置算出回路21cにより算出される。また、この位置Psでの内壁の平面は中心Oを原点とした位置ベクトルPsと垂直な面となる。このために、例えば位置算出回路21cは、角θを、π/2−θ′、但しθ′=arccos(V・Ps/|Ps|)により算出する。算出結果は、指標生成回路21bに送られる。
次のステップS33において指標生成回路21bは、算出された角θが、角θの閾値θth以下となるか否かを判定する。閾値θthは、例えば80度〜95度程度の範囲内に設定される。
When the display form is selected to be changed according to the angle θ formed between the line-of-sight direction and the inner wall surface, in the next step S32, the index generation circuit 21b calculates the angle θ formed between the line-of-sight direction and the inner wall surface.
FIG. 10B shows how the angle θ is calculated. The position calculation circuit 21c calculates the position Ps on the inner wall surface facing in the line-of-sight direction V from the above formulas (15) and (16). The plane of the inner wall at this position Ps is a plane perpendicular to the position vector Ps with the center O 2 as the origin. For this purpose, for example, the position calculation circuit 21c calculates the angle θ by π / 2−θ ′, where θ ′ = arccos (V · Ps / | Ps |). The calculation result is sent to the index generation circuit 21b.
In the next step S33, the index generation circuit 21b determines whether or not the calculated angle θ is equal to or less than the threshold θth of the angle θ. The threshold value θth is set within a range of about 80 degrees to 95 degrees, for example.

ステップS33において算出された角θが、閾値θth以下となる場合には、次のステップS33において指標生成回路21bは、ステップS8又はステップS14において生成された指標の形状を角θの値に応じて変形し、変形した指標を画像生成回路21eに送る。指標生成回路21bは、例えば角θが大きい場合には、円形に近い形状の指標を生成し、角θが小さくなる程、扁平した長円形状の指標Mkを生成する。
図10Cでは、内壁上での視野範囲よりも、例えば1〜2割狭くした長円形状の指標Mkを生成する例を示す。斜めからの観察であるために、その場合の視野範囲全域を観察済みとしないで、その内側となる領域を観察済みの領域として示すように縮小している。この縮小する割合を角θの値に応じて予めテーブルデータにより設定しても良い。
画像生成回路21eは図7のステップS9に示すように入力される指標(本説明の場合ではMk)を用いて2Dモデル画像M2上に指標Mk1、3D画像上に指標Mk2を付加した画像を生成する。
When the angle θ calculated in step S33 is equal to or smaller than the threshold θth, in the next step S33, the index generation circuit 21b changes the shape of the index generated in step S8 or step S14 according to the value of the angle θ. The deformed index is sent to the image generation circuit 21e. For example, when the angle θ is large, the index generation circuit 21b generates an index having a shape close to a circle, and generates a flat oval index Mk as the angle θ decreases.
FIG. 10C shows an example in which an elliptical index Mk that is, for example, 10 to 20% narrower than the visual field range on the inner wall is generated. Since the observation is performed from an oblique direction, the entire visual field range in that case is not observed, but is reduced so that the inner region is shown as the observed region. The reduction ratio may be set in advance by table data according to the value of the angle θ.
The image generation circuit 21e generates an image in which the index Mk1 is added to the 2D model image M2 and the index Mk2 is added to the 3D image using the input index (Mk in the case of this description) as shown in step S9 of FIG. To do.

図10Cは、図10Bのように視線方向が内壁となす角θが閾値θthより小さい状態で内壁を観察した場合における2Dモデル画像M2上に指標Mk1を付加した画像を示す。なお、図10Cでは、指標Mk1′も示し、この指標Mk1′は、例えば図10Bにおける紙面に垂直な方向から内壁を斜めに観察した場合に相当する指標を表す。
図10AにおけるステップS31において表示形態の選択がONされていない場合には、(図7の場合と同様に)ステップS9の処理に移る。また、ステップS33において角θが閾値θthより大きい場合には内壁面に垂直に近い方向から観察しているので、図7の場合と同様にステップS9の処理に移る。
その他は、図7の場合と同様の処理となる。図10Aのような処理を行うことにより、術者は内壁を斜めから観察する状態を識別することができ、術者は図10Cの画像において長円形に表示された領域に対しては、術者の判断により、更に内壁に垂直に近い方向から観察すべきか否かを容易に知ることができる。
FIG. 10C shows an image in which the index Mk1 is added to the 2D model image M2 when the inner wall is observed in a state where the angle θ formed by the line of sight with the inner wall is smaller than the threshold θth as shown in FIG. 10B. In FIG. 10C, an index Mk1 ′ is also shown, and this index Mk1 ′ represents an index corresponding to the case where the inner wall is observed obliquely from a direction perpendicular to the paper surface in FIG. 10B, for example.
When the selection of the display form is not turned on in step S31 in FIG. 10A, the process proceeds to step S9 (similar to the case in FIG. 7). Further, when the angle θ is larger than the threshold θth in step S33, the observation is made from a direction perpendicular to the inner wall surface, and therefore the process proceeds to step S9 as in the case of FIG.
The other processes are the same as those in FIG. By performing the processing as shown in FIG. 10A, the operator can identify the state of observing the inner wall from an oblique direction. The operator can perform the operation on the region displayed in an oval shape in the image of FIG. 10C. This makes it possible to easily know whether or not to observe from a direction perpendicular to the inner wall.

なお、上述した表示形態選択スイッチ30bによる選択により、図11A,図11B,図11Cのように指標の表示形態を選択できるようにしても良い。
図11Aにおいては、視点から内壁までの距離の値により、例えば一定の大きさの指標の表示色を変更する。
図11Bにおいては、図10A〜図10Cに示した場合と類似して、角θが小さい程、指標の形状が円形に近い形状、角θが大きい程、指標の形状が長円形に近い形状にする。
図11Cは、内壁上の視野範囲に応じて視野範囲が小さい程、指標を小さな半径の円形、視野範囲が大きい程、指標を大きな半径の円形とする。
また、図11A〜図11Cにおいて示した指標の表示形態を組み合わせた表示形態を変更しても良い。
本実施形態では、膀胱Bの球体としたが、膀胱Bの形状を楕円体、円錐体等の既知の形状としても良い。
Note that the display form of the index may be selected as shown in FIGS. 11A, 11B, and 11C by the selection by the display form selection switch 30b.
In FIG. 11A, for example, the display color of an index having a certain size is changed according to the value of the distance from the viewpoint to the inner wall.
In FIG. 11B, similar to the case shown in FIGS. 10A to 10C, the smaller the angle θ, the closer the shape of the index, and the larger the angle θ, the closer the shape of the index to an oval shape. To do.
In FIG. 11C, the smaller the visual field range according to the visual field range on the inner wall, the smaller the radius of the index, and the larger the visual field range, the larger the radius of the index.
Moreover, you may change the display form which combined the display form of the parameter | index shown in FIG. 11A-FIG. 11C.
In this embodiment, the sphere of the bladder B is used, but the shape of the bladder B may be a known shape such as an ellipsoid or a cone.

上述した第1の実施形態では、3D画像M1及び2Dモデル画像M2のサイズは、所定の標準サイズであると仮定して、例えば先端部2dを頂部に接触させて膀胱の入り口から頂部までの距離を求めることができるようにしているが、撮像された内視鏡画像を2Dモデル画像上に貼り付ける位置の精度の向上、及び3D画像上に表示する先端部2dの位置及び形状の精度向上のために、画像処理装置5が有するステレオ計測機能を利用して、患者の膀胱Bの形状を測定(計測)し、その測定された形状を3D画像M1としてもよい。以下、ステレオ計測機能を利用する変形例を説明する。
膀胱Bの内視鏡画像の位置(図12では病変部AAの位置Pa(x,y,z))に対応する3D画像M1上の位置を膀胱Bの形状内に存在する所定の半径R2の球体内面上に投影するとき、上述した式(15)と式(16)は、それぞれ次の式(17)と式(18)に置き換えられる。図12は、第2の座標系(XYZ)において球体の内面上の座標を説明するための図である。図13は、先端部2dの位置と方向ベクトルから第2の座標系(XYZ)における位置Pと方向Vと、内壁面上の位置Psを説明するための図である。
In the first embodiment described above, assuming that the sizes of the 3D image M1 and the 2D model image M2 are predetermined standard sizes, for example, the distance from the bladder entrance to the top by bringing the tip 2d into contact with the top, However, the accuracy of the position where the captured endoscopic image is pasted on the 2D model image and the accuracy of the position and shape of the tip 2d displayed on the 3D image are improved. Therefore, the shape of the patient's bladder B may be measured (measured) using the stereo measurement function of the image processing device 5, and the measured shape may be used as the 3D image M1. Hereinafter, modified examples using the stereo measurement function will be described.
A position on the 3D image M1 corresponding to the position of the endoscopic image of the bladder B (the position Pa (x a , y a , z a ) of the lesioned part AA in FIG. 12) is present within the shape of the bladder B When projecting onto the inner surface of the sphere having the radius R2, the above formulas (15) and (16) are replaced by the following formulas (17) and (18), respectively. FIG. 12 is a diagram for explaining the coordinates on the inner surface of the sphere in the second coordinate system (X 2 Y 2 Z 2 ). FIG. 13 is a diagram for explaining the position P 2 and the direction V 2 in the second coordinate system (X 2 Y 2 Z 2 ) and the position Ps on the inner wall surface from the position and direction vector of the tip 2d. .

先端部2dの第2の座標系(XYZ)における位置Pと方向Vが決定すると、得られた内視鏡画像の、球体の内面との交点の座標を求める。そのために、次の式(17)と式(18)を満たす係数kを算出し、第2の座標系(XYZ)における位置Psを求める。

Figure 2016076262
Figure 2016076262
When the position P 2 and the direction V 2 in the second coordinate system (X 2 Y 2 Z 2 ) of the tip 2d are determined, the coordinates of the intersection point of the obtained endoscopic image with the inner surface of the sphere are obtained. For this purpose, a coefficient k that satisfies the following equations (17) and (18) is calculated, and a position Ps in the second coordinate system (X 2 Y 2 Z 2 ) is obtained.
Figure 2016076262
Figure 2016076262

求めた座標Psの位置に基づいて、第1の実施の形態と同様に2Dモデル画像M2上または3D画像M1上に指標を付加する。
従って、術者は、膀胱Bの内壁等の観察対象範囲を観察しようとした場合、2Dモデル画像M2上又は3D画像M1上に指標を付加した画像を参照することにより、観察対象範囲内における一部の領域を見逃したり、過度に重複して観察することを防止して、効率良く観察することができる。
なお、上述した変形例を含む第1の実施形態において説明した内容を部分的に組み合わせて構成される実施形態等も本発明に属する。
さらに、検査前にCT、MRI、超音波等の装置で撮影した画像を利用して膀胱Bの内壁形状を取得するようにしても良い。
Based on the position of the obtained coordinates Ps, an index is added on the 2D model image M2 or the 3D image M1 as in the first embodiment.
Therefore, when an operator intends to observe the observation target range such as the inner wall of the bladder B, the operator refers to the image with the index added on the 2D model image M2 or the 3D image M1, thereby reducing the range within the observation target range. It is possible to efficiently observe by preventing the region of the portion from being overlooked or excessively overlapping.
Note that an embodiment configured by partially combining the contents described in the first embodiment including the above-described modification also belongs to the present invention.
Furthermore, the inner wall shape of the bladder B may be acquired using an image taken by an apparatus such as CT, MRI, or ultrasound before the examination.

本出願は、2014年11月11日に日本国に出願された特願2014―229103号を優先権主張の基礎として出願するものであり、上記の開示内容は、本明細書、請求の範囲、図面に引用されたものとする。   This application is filed on the basis of the priority claim of Japanese Patent Application No. 2014-229103 filed in Japan on November 11, 2014, and the above-mentioned disclosure content includes the present specification, claims, It shall be cited in the drawing.

本発明の一態様の医療装置は、所定の管腔臓器内にある内視鏡に対して、所定の視点における位置情報と視線方向情報を取得する情報取得部と、前記位置情報及び前記視線方向情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線方向情報に基づき、前記所定の視点から前記所定の管腔臓器の内壁までの距離情報を算出する距離算出部と、前記距離算出部によって算出された前記距離情報に基づき規定される複数の指標を生成する指標生成部と、記所定の管腔臓器の3次元画像又は前記所定の管腔臓器を展開した2次元モデル画像上において、前記複数の指標と前記内壁の位置情報との関連付けを行い、前記内視鏡の観察状況に応じて前記複数の指標の位置が重なる場合、前記距離情報が小さい指標が優先的に表示されるように関連付けた画像を生成する画像生成部と、を備える。 One aspect of the medical device of the present invention is to provide an endoscope in a predetermined luminal organ inside unit, an information acquisition unit that acquires position information and eye direction information in the predetermined viewpoint, the positional information and the viewing direction An alignment unit that aligns information with a coordinate system of three-dimensional image information of a predetermined luminal organ, and the position information and the line-of-sight direction information that are aligned with the three-dimensional image information by the alignment unit A distance calculation unit that calculates distance information from the predetermined viewpoint to the inner wall of the predetermined luminal organ, and an index that generates a plurality of indexes defined based on the distance information calculated by the distance calculation unit a generating unit, before Symbol predetermined luminal organ of the 3-dimensional image or two-dimensional model image on which the expansion of the predetermined tubular organ, to associate the position information of the said plurality of indicators inner wall, said inner Visual If the position of the plurality of indicators overlap in accordance with the observation conditions, and an image generating unit that generates an image index the distance information is smaller it is related as is preferentially displayed.

本発明の一態様の医療装置は、所定の管腔臓器内にある内視鏡に対して、所定の視点における位置情報と視線方向情報を取得する情報取得部と、前記位置情報及び前記視線方向情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線方向情報に基づき、前記所定の視点から前記所定の管腔臓器の内壁までの距離情報を算出する距離算出部と、前記距離算出部によって算出された前記距離情報に基づき規定される複数の指標を生成する指標生成部と、前記所定の管腔臓器の3次元画像又は前記所定の管腔臓器を展開した2次元モデル画像上において、前記複数の指標と前記内壁の位置情報との関連付けを行い、前記内視鏡の観察状況に応じて前記複数の指標の位置が重なる場合、前記距離情報が小さい指標が画像上の上側となるように現在の指標を過去の指標に重ねた画像を生成する画像生成部と、を備える。 A medical device according to an aspect of the present invention includes an information acquisition unit that acquires position information and line-of-sight direction information at a predetermined viewpoint with respect to an endoscope in a predetermined lumen organ, the position information, and the line-of-sight direction An alignment unit that aligns information with a coordinate system of three-dimensional image information of a predetermined luminal organ, and the position information and the line-of-sight direction information that are aligned with the three-dimensional image information by the alignment unit A distance calculation unit that calculates distance information from the predetermined viewpoint to the inner wall of the predetermined luminal organ, and an index that generates a plurality of indexes defined based on the distance information calculated by the distance calculation unit On the three-dimensional image of the predetermined luminal organ or the two-dimensional model image obtained by developing the predetermined luminal organ, the generating unit associates the plurality of indices with the position information of the inner wall, and If the position of the plurality of indicators overlap in accordance with the observation conditions, an image generating unit which index the distance information is small to produce an image superimposed current index so that the upper on the image in the past indicators Is provided.

Claims (14)

所定の管腔臓器内に設けられた所定の視点の位置情報と視線方向情報を取得する情報取得部と、
前記位置情報及び前記視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、
前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線情報に基づき、前記所定の視点の視線方向を延長したときに前記所定の管腔臓器の内壁と交差する位置を算出する位置算出部と、
前記位置算出部の位置と前記所定の視点までの距離情報を算出する距離算出部と、
前記距離算出部によって取得された前記距離情報に基づき規定される指標を生成する指標生成部と、
前記位置算出部の算出結果に基づき、前記所定の管腔臓器の3次元画像又は当該所定の管腔臓器を展開した2次元モデル画像上において、前記指標と前記内壁の位置情報とを関連付けた画像を生成する画像生成部と、
を備えることを特徴とする医療装置。
An information acquisition unit for acquiring position information and gaze direction information of a predetermined viewpoint provided in a predetermined luminal organ;
An alignment unit that aligns the position information and the line-of-sight information with a coordinate system of three-dimensional image information of a predetermined luminal organ;
Based on the position information and the line-of-sight information aligned with the three-dimensional image information by the alignment unit, when the line-of-sight direction of the predetermined viewpoint is extended, it intersects the inner wall of the predetermined lumen organ A position calculation unit for calculating a position;
A distance calculation unit for calculating distance information to the position of the position calculation unit and the predetermined viewpoint;
An index generation unit that generates an index defined based on the distance information acquired by the distance calculation unit;
Based on the calculation result of the position calculation unit, an image in which the index and the position information of the inner wall are associated with each other on a three-dimensional image of the predetermined lumen organ or a two-dimensional model image in which the predetermined lumen organ is developed An image generation unit for generating
A medical device comprising:
前記指標生成部は、前記距離情報に応じて変化するように前記指標の表示形態を変更することを特徴とする請求項1に記載の医療装置。   The medical apparatus according to claim 1, wherein the index generation unit changes a display form of the index so as to change according to the distance information. 前記指標生成部は、前記距離情報に基づき算出される距離の大きさに応じて前記指標の表示形態を変更することを特徴とする請求項2に記載の医療装置。   The medical apparatus according to claim 2, wherein the index generation unit changes a display form of the index according to a distance calculated based on the distance information. 前記指標生成部は、前記距離情報と前記視点の画角情報に基づき前記内壁上における視野範囲を算出し、前記視野範囲の大きさに応じて前記指標の表示形態を変更することを特徴とする請求項2に記載の医療装置。   The index generation unit calculates a visual field range on the inner wall based on the distance information and the view angle information of the viewpoint, and changes a display form of the index according to the size of the visual field range. The medical device according to claim 2. 前記指標生成部は、前記指標を前記距離算出部によって算出される前記距離情報が算出された前記内壁に関連付けることを特徴とする請求項2に記載の医療装置。   The medical apparatus according to claim 2, wherein the index generation unit associates the index with the inner wall from which the distance information calculated by the distance calculation unit is calculated. 前記指標生成部は、前記指標の色又は大きさを変更することで前記指標の表示形態を変更することを特徴とする請求項4に記載の医療装置。   The medical apparatus according to claim 4, wherein the index generation unit changes a display form of the index by changing a color or a size of the index. 前記視点は、前記被検体内の被写体画像を結像する対物光学系の視点であり、
前記位置合わせ部は、前記情報取得部によって取得された前記対物光学系の位置情報と視線方向情報を、前記所定の管腔臓器における3次元画像情報の座標系に対して合わせ込むことを特徴とする請求項1に記載の医療装置。
The viewpoint is a viewpoint of an objective optical system that forms a subject image in the subject,
The alignment unit aligns the position information and the line-of-sight direction information of the objective optical system acquired by the information acquisition unit with respect to a coordinate system of three-dimensional image information in the predetermined luminal organ. The medical device according to claim 1.
前記指標生成部は、前記視線方向と、該視線方向に対向する前記内壁面との成す角に応じて前記指標の表示形態を変更することを特徴とする請求項2に記載の医療装置。   The medical apparatus according to claim 2, wherein the index generation unit changes a display form of the index according to an angle formed by the line-of-sight direction and the inner wall surface facing the line-of-sight direction. 前記画像生成部は、経時的に異なる時間で観察した複数の前記指標を前記3次元画像上又は前記2次元モデル画像上において、前記内壁に対応する位置に重畳して前記指標と前記内壁の位置情報とを関連付けた前記画像を生成することを特徴とする請求項2に記載の医療装置。   The image generation unit superimposes the plurality of indices observed at different times over time on the three-dimensional image or the two-dimensional model image at positions corresponding to the inner walls, and positions of the indices and the inner walls. The medical device according to claim 2, wherein the image associated with information is generated. 前記画像生成部は、前記3次元画像上又は2次元モデル画像上において、複数の指標を重畳する場合、位置が重なる指標に対しては、距離が小さい場合の指標が、前記画像上において上側となるように配置する処理を行うことを特徴とする請求項9に記載の医療装置。   When the image generation unit superimposes a plurality of indices on the three-dimensional image or the two-dimensional model image, the index when the distance is small is an upper position on the image. The medical device according to claim 9, wherein the arrangement processing is performed. 更に、予め用意された複数種類の表示形態から実際に使用する表示形態を選択する表示形態選択部を有することを特徴とする請求項2に記載の医療装置。   The medical device according to claim 2, further comprising a display form selection unit that selects a display form to be actually used from a plurality of types of display forms prepared in advance. 前記指標生成部は、前記視野範囲の大きさに応じて前記指標の色を変更する指標を生成する指標色変更部、又は前記視野範囲の大きさに応じて前記指標のサイズを変更する指標を生成する指標サイズ変更部を有することを特徴とする請求項4に記載の医療装置。   The index generating unit generates an index color changing unit that generates an index for changing the color of the index according to the size of the visual field range, or an index for changing the size of the index according to the size of the visual field range. The medical device according to claim 4, further comprising an index size changing unit to be generated. 前記指標生成部は、前記距離情報に基づき算出される距離の大きさに応じて前記指標の大きさ又は前記指標の表示色を変更することを特徴とする請求項3に記載の医療装置。   The medical apparatus according to claim 3, wherein the index generation unit changes a size of the index or a display color of the index according to a distance calculated based on the distance information. 前記指標生成部は、前記距離情報に基づき算出される距離の大きさに応じて前記指標の大きさと共に、前記指標の表示色を変更することを特徴とする請求項3に記載の医療装置。   The medical device according to claim 3, wherein the index generation unit changes a display color of the index together with the size of the index according to the size of the distance calculated based on the distance information.
JP2016528926A 2014-11-11 2015-11-09 Medical equipment Pending JPWO2016076262A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014229103 2014-11-11
JP2014229103 2014-11-11
PCT/JP2015/081473 WO2016076262A1 (en) 2014-11-11 2015-11-09 Medical device

Publications (1)

Publication Number Publication Date
JPWO2016076262A1 true JPWO2016076262A1 (en) 2017-04-27

Family

ID=55954347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016528926A Pending JPWO2016076262A1 (en) 2014-11-11 2015-11-09 Medical equipment

Country Status (2)

Country Link
JP (1) JPWO2016076262A1 (en)
WO (1) WO2016076262A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6211239B1 (en) * 2016-05-25 2017-10-11 オリンパス株式会社 Endoscope device
WO2017203814A1 (en) * 2016-05-25 2017-11-30 オリンパス株式会社 Endoscope device and operation method for endoscope device
JP6906342B2 (en) * 2017-03-30 2021-07-21 Hoya株式会社 Endoscope system
JP7116925B2 (en) * 2019-03-22 2022-08-12 株式会社エビデント Observation device operating method, observation device, and program
JP7441934B2 (en) * 2020-02-27 2024-03-01 オリンパス株式会社 Processing device, endoscope system, and method of operating the processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014079377A (en) * 2012-10-16 2014-05-08 Olympus Corp Observation apparatus, observation support apparatus, observation support method, and observation support program
WO2014148184A1 (en) * 2013-03-19 2014-09-25 オリンパスメディカルシステムズ株式会社 Endoscope system and operation method of endoscope system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014079377A (en) * 2012-10-16 2014-05-08 Olympus Corp Observation apparatus, observation support apparatus, observation support method, and observation support program
WO2014148184A1 (en) * 2013-03-19 2014-09-25 オリンパスメディカルシステムズ株式会社 Endoscope system and operation method of endoscope system

Also Published As

Publication number Publication date
WO2016076262A1 (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP5676058B1 (en) Endoscope system and method for operating endoscope system
JP5810248B2 (en) Endoscope system
JP5771757B2 (en) Endoscope system and method for operating endoscope system
JP5380348B2 (en) System, method, apparatus, and program for supporting endoscopic observation
US9516993B2 (en) Endoscope system
JP6103827B2 (en) Image processing apparatus and stereoscopic image observation system
WO2016076262A1 (en) Medical device
US10631826B2 (en) Medical apparatus, medical-image generating method, and recording medium on which medical-image generating program is recorded
JP5750669B2 (en) Endoscope system
WO2017159335A1 (en) Medical image processing device, medical image processing method, and program
US9824445B2 (en) Endoscope system
JP6022133B2 (en) Medical equipment
JP2017205343A (en) Endoscope device and method for operating endoscope device
US20220071711A1 (en) Devices, systems, and methods for identifying unexamined regions during a medical procedure
US9345394B2 (en) Medical apparatus
KR20200132174A (en) AR colonoscopy system and method for monitoring by using the same
JP6335839B2 (en) Medical device, medical image generation method, and medical image generation program
WO2016039292A1 (en) Endoscope system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161220