JP2017205343A - Endoscope device and method for operating endoscope device - Google Patents

Endoscope device and method for operating endoscope device Download PDF

Info

Publication number
JP2017205343A
JP2017205343A JP2016100592A JP2016100592A JP2017205343A JP 2017205343 A JP2017205343 A JP 2017205343A JP 2016100592 A JP2016100592 A JP 2016100592A JP 2016100592 A JP2016100592 A JP 2016100592A JP 2017205343 A JP2017205343 A JP 2017205343A
Authority
JP
Japan
Prior art keywords
image
endoscope
dimensional model
unit
predetermined object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016100592A
Other languages
Japanese (ja)
Inventor
秋本 俊也
Toshiya Akimoto
俊也 秋本
誠悟 伊藤
Seigo Ito
誠悟 伊藤
長谷川 潤
Jun Hasegawa
潤 長谷川
大西 順一
Junichi Onishi
順一 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016100592A priority Critical patent/JP2017205343A/en
Publication of JP2017205343A publication Critical patent/JP2017205343A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an endoscope device and the like that can accurately mark a position of a prescribed target object found during endoscopic observation.SOLUTION: An endoscope device includes: an endoscope 1 having an imaging part 11; a three-dimension model image generating part 22 for generating a three-dimension model image M3 of a subject; a position calculation part 26 for calculating a position of an object inside the subject on the basis of a position and orientation information of the endoscope 1 at the time of imaging and the three-dimension model image M3; and a first image processing part 23a for displaying the position of the object on the three-dimension model image M3.SELECTED DRAWING: Figure 1

Description

本発明は、被検体の3次元モデル画像に関連付けて被検体の内部に存在する所定の対象物を表示する内視鏡装置、内視鏡装置の作動方法に関する。   The present invention relates to an endoscope apparatus that displays a predetermined object existing inside a subject in association with a three-dimensional model image of the subject, and an operation method of the endoscope apparatus.

内視鏡で管腔内を観察する際に、2次元の画像として取得される内視鏡画像を表示すると共に、管腔の3次元モデル画像を生成して表示することにより、観察状況をユーザに提示する観察支援システムとしての機能を備えた内視鏡装置が提案されている。   When observing the inside of a lumen with an endoscope, an endoscopic image acquired as a two-dimensional image is displayed, and a three-dimensional model image of the lumen is generated and displayed, so that the observation state can be displayed by the user. An endoscope apparatus having a function as an observation support system to be presented is proposed.

また、2次元の内視鏡画像により観察を行っているときに、病変あるいは結石などの所定の対象物を発見した場合には、発見時の内視鏡の先端位置をマーキングすることにより、おおよその所定の対象物の位置をユーザに提示する技術も提案されている。   When a predetermined target such as a lesion or a calculus is found while observing with a two-dimensional endoscope image, marking the tip position of the endoscope at the time of discovery A technique for presenting the position of a predetermined object to a user has also been proposed.

例えば、国際公開WO2013/132880号には、事前に取得したX線画像データおよびX線撮影位置データに基づいて結石等の位置を算出し、結石等の位置が重畳表示された3次元データを画像処理して、表示装置に表示するための2次元画像を作成する技術が記載されている。   For example, in International Publication No. WO2013 / 132880, a position of a calculus is calculated based on previously acquired X-ray image data and X-ray imaging position data, and three-dimensional data in which the position of the calculus is superimposed is displayed as an image. Techniques for processing and creating a two-dimensional image for display on a display device are described.

また、特開平10−234662号公報には、サブ画面に表示した立体モデル画像おける、予め記憶している腫瘍等が位置する座標に、腫瘍等を示す図形を作成する技術が記載されている。さらに、該公報には、内視鏡スコープの先端状況(視線方向、視点位置、術者の頭方向)を示すインジケータ画像を、立体モデル画像上に表示することも記載されている。   Japanese Patent Application Laid-Open No. 10-234662 describes a technique for creating a figure indicating a tumor or the like at coordinates stored in advance in a stereoscopic model image displayed on a sub-screen. Furthermore, this publication also describes that an indicator image indicating the distal state of the endoscope scope (the line-of-sight direction, the viewpoint position, and the operator's head direction) is displayed on the stereoscopic model image.

さらに、国際公開WO2015/190186号には、位置検出装置で取得された位置情報を、3次元画像に対して位置合わせし、位置合わせされた位置情報で示される位置に、画角表示情報を重畳する技術が記載されている。また、画角表示情報は、フリーズ画角表示ボタンの操作によってフリーズ表示されるようになっている。   Further, in International Publication No. WO2015 / 190186, position information acquired by a position detection device is aligned with a three-dimensional image, and angle-of-view display information is superimposed on a position indicated by the aligned position information. The technology to do is described. Further, the view angle display information is displayed in a freeze display by operating a freeze view angle display button.

そして、特表2008−537730号公報には、蛍光透視法で見ることができる放射性不透過性造影剤と、内視鏡観察装置を使用して見ることができる着色色素と、を含むマーキング材料で体腔をマーキングし、視覚的な表示を与える技術が記載されている。   JP 2008-537730 A discloses a marking material containing a radiopaque contrast agent that can be seen by fluoroscopy and a coloring pigment that can be seen using an endoscope observation apparatus. Techniques for marking body cavities and providing visual indications are described.

国際公開WO2013/132880号International Publication WO2013 / 132880 特開平10−234662号公報Japanese Patent Laid-Open No. 10-234662 国際公開WO2015/190186号International Publication No. WO2015 / 190186 特表2008−537730号公報Special table 2008-537730 gazette

しかしながら、上記国際公開WO2013/132880号や上記特開平10−234662号公報に記載された技術では、結石や病変部などの所定の対象物の位置を、予めX線撮影等で取得しておく必要があり、内視鏡で観察中に発見した所定の対象物の位置をマーキングすることには対応していない。   However, in the techniques described in International Publication WO2013 / 132880 and Japanese Patent Application Laid-Open No. 10-234662, it is necessary to acquire the position of a predetermined object such as a calculus or a lesion by X-ray photography or the like in advance. However, it does not support marking the position of a predetermined object found during observation with an endoscope.

また、上記国際公開WO2015/190186号や上記特表2008−537730号公報に記載された技術は、内視鏡の先端またはその近傍位置をマーキングする技術であるために、マーキングされた位置の近傍のどこかに結石や病変部などの所定の対象物があることは把握できても、所定の対象物の正確な位置を把握することは困難である。   Moreover, since the technique described in the said international publication WO2015 / 190186 or the said special table 2008-537730 is a technique which marks the front-end | tip of an endoscope, or its vicinity position, it is the vicinity of the marked position. Even if it can be understood that there is a predetermined object such as a calculus or a lesion part somewhere, it is difficult to grasp the exact position of the predetermined object.

こうして、上記従来の技術では、内視鏡で観察中に発見した所定の対象物の位置を正確にマーキングすることは困難であった。そのために、ユーザが、前回の手技/検査で生成した管腔臓器モデルと、今回の手技/検査の観察状況とを比較しようとしても、比較しているのが同一の対象物であるかどうかを明確に判断することができなかった。   Thus, with the above-described conventional technology, it is difficult to accurately mark the position of a predetermined object found during observation with an endoscope. Therefore, even if the user tries to compare the luminal organ model generated in the previous procedure / examination with the observation status of the present procedure / examination, it is determined whether or not the comparison is the same object. It was not possible to judge clearly.

本発明は上記事情に鑑みてなされたものであり、内視鏡観察中に発見した所定の対象物の位置を正確にマーキングすることができる内視鏡装置、内視鏡装置の作動方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and provides an endoscope apparatus capable of accurately marking the position of a predetermined object discovered during endoscopic observation, and an operation method of the endoscope apparatus. The purpose is to do.

本発明のある態様による内視鏡装置は、3次元形状をなす被検体の内部を撮像して撮像画像を取得するように構成された撮像部を有する内視鏡と、前記被検体の3次元モデル画像を生成するように構成された3次元モデル画像生成部と、前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出するように構成された位置算出部と、前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行うように構成された第1の画像処理部と、を備える。   An endoscope apparatus according to an aspect of the present invention includes an endoscope having an imaging unit configured to capture an image of a subject having a three-dimensional shape and acquire a captured image, and the three-dimensional of the subject. A three-dimensional model image generation unit configured to generate a model image, and position information and azimuth information of the endoscope when a predetermined object existing inside the subject is imaged by the imaging unit; A position calculation unit configured to calculate position information of the predetermined object based on the three-dimensional model image, and a position indicated by the position information of the predetermined object A first image processing unit configured to perform first image processing on a model image or a two-dimensionally developed image obtained by two-dimensionally developing the three-dimensional model image.

本発明のある態様による内視鏡装置の作動方法は、内視鏡が有する撮像部が、3次元形状をなす被検体の内部を撮像して撮像画像を取得し、3次元モデル画像生成部が、前記被検体の3次元モデル画像を生成し、位置算出部が、前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出し、第1の画像処理部が、前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行う。   According to an operation method of an endoscope apparatus according to an aspect of the present invention, an imaging unit included in an endoscope captures a captured image by imaging an inside of a subject having a three-dimensional shape, and a three-dimensional model image generation unit Generating a three-dimensional model image of the subject, and the position calculating unit when the predetermined object existing inside the subject is imaged by the imaging unit; The position information of the predetermined object is calculated based on the three-dimensional model image, and the first image processing unit determines the position indicated by the position information of the predetermined object as the three-dimensional model. First image processing is performed to display the image or a two-dimensional developed image obtained by developing the three-dimensional model image in two dimensions.

本発明の内視鏡装置、内視鏡装置の作動方法によれば、内視鏡観察中に発見した所定の対象物の位置を正確にマーキングすることが可能となる。   According to the endoscope apparatus and the operation method of the endoscope apparatus of the present invention, it is possible to accurately mark the position of a predetermined object found during endoscopic observation.

本発明の実施形態1の内視鏡装置の構成を示すブロック図。The block diagram which shows the structure of the endoscope apparatus of Embodiment 1 of this invention. 上記実施形態1において、内視鏡画像および3次元モデル画像を表示する表示装置の表示例を示す図。The figure which shows the example of a display of the display apparatus which displays an endoscopic image and a three-dimensional model image in the said Embodiment 1. FIG. 上記実施形態1において、3次元モデル画像における結石位置の表示例を示す図。The figure which shows the example of a display of the calculus position in the three-dimensional model image in the said Embodiment 1. FIG. 上記実施形態1において、内視鏡と管腔臓器内の結石との位置関係の一例を示す図。The figure which shows an example of the positional relationship of an endoscope and the calculus in a luminal organ in the said Embodiment 1. FIG. 上記実施形態1において、内視鏡と管腔臓器内の結石との位置関係の他の例を示す図。The figure which shows the other example of the positional relationship of an endoscope and the calculus in a luminal organ in the said Embodiment 1. FIG. 上記実施形態1の内視鏡装置の観察時の処理を示すフローチャート。The flowchart which shows the process at the time of observation of the endoscope apparatus of the said Embodiment 1. FIG. 本発明の実施形態2の内視鏡装置の構成を示すブロック図。The block diagram which shows the structure of the endoscope apparatus of Embodiment 2 of this invention. 上記実施形態2において、内視鏡の先端部位置をマーキングする例を示す図。The figure which shows the example which marks the front-end | tip part position of an endoscope in the said Embodiment 2. FIG. 上記実施形態2において、内視鏡の先端部位置から求められる所定の領域をマーキングする例を示す図。The figure which shows the example which marks the predetermined area | region calculated | required from the front-end | tip part position of an endoscope in the said Embodiment 2. FIG. 上記実施形態2の内視鏡装置の観察時の処理を示すフローチャート。7 is a flowchart showing processing during observation of the endoscope apparatus according to the second embodiment. 本発明の実施形態3の内視鏡装置の、制御部に関連する構成を示すブロック図。The block diagram which shows the structure relevant to the control part of the endoscope apparatus of Embodiment 3 of this invention. 上記実施形態3において、取得時点の異なる複数枚の撮像画像に基づき得られる結石の移動ベクトルと結石以外の移動ベクトルの例を示す図。The figure which shows the example of the movement vector of the calculus obtained based on the several captured image from which acquisition time differs in the said Embodiment 3, and the movement vectors other than a calculus. 上記実施形態3の内視鏡装置の観察時の処理を示すフローチャート。10 is a flowchart showing processing during observation of the endoscope apparatus according to the third embodiment. 上記実施形態3の図13における結石の種類判定の処理を示すフローチャート。The flowchart which shows the process of the stone type determination in FIG. 13 of the said Embodiment 3. FIG.

以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]

図1から図6は本発明の実施形態1を示したものであり、図1は内視鏡装置の構成を示すブロック図である。   1 to 6 show a first embodiment of the present invention, and FIG. 1 is a block diagram showing a configuration of an endoscope apparatus.

この内視鏡装置は、内視鏡1と、処理システム2とを備え、必要に応じてさらにデータベース3と表示装置4との少なくとも一方を備えていてもよい。以下では、内視鏡装置が、表示装置4を備えている場合を例に挙げて説明し、データベース3をさらに備えている場合については適宜説明する。   The endoscope apparatus includes an endoscope 1 and a processing system 2, and may further include at least one of a database 3 and a display device 4 as necessary. Hereinafter, the case where the endoscope apparatus includes the display device 4 will be described as an example, and the case where the endoscope apparatus further includes the database 3 will be described as appropriate.

内視鏡1は、3次元形状をなす被検体の内部を観察するために、被検体の内部の画像を取得する画像取得装置であり、撮像部11と、照明部12と、位置方位検出部13と、操作部14と、を備えている。これら内の撮像部11、照明部12、および位置方位検出部13は例えば内視鏡1の挿入部の先端部に配置され、操作部14は挿入部の手元側に連設されている。   The endoscope 1 is an image acquisition device that acquires an image inside a subject in order to observe the inside of the subject having a three-dimensional shape, and includes an imaging unit 11, an illumination unit 12, and a position / orientation detection unit. 13 and an operation unit 14. Among these, the imaging unit 11, the illumination unit 12, and the position / orientation detection unit 13 are disposed, for example, at the distal end of the insertion unit of the endoscope 1, and the operation unit 14 is connected to the proximal side of the insertion unit.

なお、本実施形態においては、3次元形状をなす被検体として腎臓の腎盂腎杯を例に挙げるが、これに限定されるものではなく、複数の管路を有し内視鏡観察が可能な被検体であれば広く適用することができる。   In the present embodiment, the renal pelvic kidney gob is taken as an example of a subject having a three-dimensional shape. However, the present invention is not limited to this, and endoscope observation is possible with a plurality of ducts. Any subject can be widely applied.

照明部12は、被検体の内部へ向けて照明光を照射する。   The illumination unit 12 irradiates illumination light toward the inside of the subject.

撮像部11は、照明光を照射された被検体の内部の光学像を光学系により結像して撮像素子等により光電変換を行うことで撮像し、撮像画像を生成して取得する。   The imaging unit 11 forms an optical image inside the subject irradiated with illumination light by an optical system and performs photoelectric conversion using an imaging element or the like, and generates and acquires a captured image.

位置方位検出部13は、内視鏡1の挿入部の先端部の3次元位置を検出して位置情報として出力すると共に、内視鏡1の挿入部の先端部が向く方向を検出して方位情報として出力する。例えば、xyz座標系を設定する場合には、位置情報は(x,y,z)座標により表され、方位情報はx軸周りの角度、y軸周りの角度、およびz軸周りの角度により表される(従って、位置方位検出部13は、例えば6Dセンサなどとも呼ばれる)。なお、内視鏡1の位置情報および方位情報は、その他の適宜の方法(例えば極座標系など)を用いて表しても勿論構わない。   The position / orientation detection unit 13 detects the three-dimensional position of the distal end portion of the insertion portion of the endoscope 1 and outputs it as position information, and detects the direction in which the distal end portion of the insertion portion of the endoscope 1 faces to Output as information. For example, when the xyz coordinate system is set, the position information is represented by (x, y, z) coordinates, and the azimuth information is represented by an angle around the x axis, an angle around the y axis, and an angle around the z axis. (Therefore, the position / orientation detection unit 13 is also called, for example, a 6D sensor). Of course, the position information and orientation information of the endoscope 1 may be expressed using other appropriate methods (for example, a polar coordinate system).

操作部14は、内視鏡1の湾曲操作等を行うものであると共に、マーキング操作を行うための部材を兼ねたものである。なお、マーキング操作は、フットスイッチ等により行ってもよいし、処理システム2に設けられた操作部により行っても構わないし、特定の構成により行うに限定されるものではない。   The operation unit 14 performs a bending operation or the like of the endoscope 1 and also serves as a member for performing a marking operation. The marking operation may be performed by a foot switch or the like, or may be performed by an operation unit provided in the processing system 2, and is not limited to be performed by a specific configuration.

処理システム2は、内視鏡1を制御すると共に、必要に応じてデータベース3と通信し、内視鏡1から取得された撮像画像、位置情報および方位情報を処理して、表示用の画像データや記録用の画像データを生成し、表示装置4等へ出力するものである。なお、この処理システム2は、単一の装置として構成されていてもよいし、光源装置やビデオプロセッサなどの複数の装置から構成されていても構わない。   The processing system 2 controls the endoscope 1 and communicates with the database 3 as necessary to process the captured image, position information, and orientation information acquired from the endoscope 1 to display image data for display. Or image data for recording is generated and output to the display device 4 or the like. In addition, this processing system 2 may be comprised as a single apparatus, and may be comprised from several apparatuses, such as a light source device and a video processor.

この処理システム2は、内視鏡画像生成部21と、3次元モデル画像生成部22と、画像処理部23と、画像合成出力部24と、照明制御部25と、制御部27と、を備えている。   The processing system 2 includes an endoscope image generation unit 21, a three-dimensional model image generation unit 22, an image processing unit 23, an image synthesis output unit 24, an illumination control unit 25, and a control unit 27. ing.

内視鏡画像生成部21は、撮像部11から出力された撮像画像に、例えば、デモザイキング処理(または同時化処理)、ホワイトバランス処理、カラーマトリクス処理、ガンマ変換処理などの各種の画像処理を行って、内視鏡画像EI(図2等参照)を生成する。   The endoscopic image generation unit 21 performs various types of image processing such as demosaicing processing (or synchronization processing), white balance processing, color matrix processing, and gamma conversion processing on the captured image output from the imaging unit 11. Then, an endoscopic image EI (see FIG. 2 etc.) is generated.

3次元モデル画像生成部22は、被検体の3次元モデル画像M3(図2等参照)を生成する。   The three-dimensional model image generation unit 22 generates a three-dimensional model image M3 (see FIG. 2 and the like) of the subject.

例えば、3次元モデル画像生成部22は、内視鏡画像生成部21により生成された内視鏡画像EIと、この内視鏡画像EIを生成する元となった撮像画像が撮像されたときに位置方位検出部13により検出された位置情報および方位情報と、を制御部27を介して複数フレーム分取得する。そして、3次元モデル画像生成部22は、複数フレームの内視鏡画像EIの位置関係を各フレームの位置情報および方位情報に基づき整合させながら、3次元モデル画像M3を生成するようになっている。この場合には、観察が進むにつれて3次元モデル画像M3(図2等参照)が次第に構築されることになる。   For example, the three-dimensional model image generation unit 22 captures an endoscope image EI generated by the endoscope image generation unit 21 and a captured image that is a source for generating the endoscope image EI. The position information and the direction information detected by the position / orientation detection unit 13 are acquired for a plurality of frames via the control unit 27. The three-dimensional model image generation unit 22 generates the three-dimensional model image M3 while matching the positional relationship of the endoscopic images EI of a plurality of frames based on the position information and orientation information of each frame. . In this case, the three-dimensional model image M3 (see FIG. 2 and the like) is gradually constructed as the observation proceeds.

ただし、3次元モデル画像生成部22による3次元モデル画像M3の生成方法は、これに限定されるものではない。例えば、被検体に対する内視鏡検査が2回目もしくはそれ以降であり、過去の内視鏡検査によって生成された3次元モデルデータがデータベース3に既に記録されている場合には、その3次元モデルデータを用いてもよい。あるいは、被検体に対して造影CT撮影を行って取得したデータがデータベース3に既に記録されている場合には、その造影CTデータを用いて3次元モデル画像M3を生成するようにしても構わない。   However, the method of generating the three-dimensional model image M3 by the three-dimensional model image generation unit 22 is not limited to this. For example, if the endoscopic examination of the subject is performed for the second time or later, and the 3D model data generated by the past endoscopy is already recorded in the database 3, the 3D model data May be used. Alternatively, when data acquired by performing contrast CT imaging on the subject is already recorded in the database 3, the three-dimensional model image M3 may be generated using the contrast CT data. .

この3次元モデル画像M3は、例えば、3次元の被検体像をある視線方向から見たときの像であり、視線方向は変更可能となっている(すなわち、視線方向の変更に伴い、3次元モデル画像M3が回転するようになっている)。   The three-dimensional model image M3 is, for example, an image when a three-dimensional subject image is viewed from a certain line-of-sight direction, and the line-of-sight direction can be changed (that is, with the change of the line-of-sight direction, three-dimensional The model image M3 is rotated).

画像処理部23は、第1画像処理部23aを備えている。   The image processing unit 23 includes a first image processing unit 23a.

第1画像処理部23aは、所定の対象物(なお、本実施形態においては所定の対象物として結石42(図2等参照)を例に挙げるが、病変部でも構わないし、その他の対象物であってもよいし、特定の対象物に限定されるものではない)の位置情報(この所定の対象物の位置情報は、後述する位置算出部26により算出される)で示される位置を、3次元モデル画像生成部22により生成された3次元モデル画像M3上に表示する第1の画像処理を行う。具体的に、第1画像処理部23aは、3次元モデル画像M3上の、所定の対象物である結石42の位置情報で示される位置に、結石マークMK1を追加すること(つまり、マーキング)を行う。従って、第1画像処理部23aは、対象物マーキング部である。   The first image processing unit 23a uses a predetermined object (in this embodiment, the calculus 42 (see FIG. 2) as an example of the predetermined object). However, the first image processing unit 23a may be a diseased part or other object. The position indicated by the position information (which is not limited to a specific object) (the position information of the predetermined object is calculated by the position calculation unit 26 described later) is 3 The first image processing to be displayed on the three-dimensional model image M3 generated by the three-dimensional model image generation unit 22 is performed. Specifically, the first image processing unit 23a adds the calculus mark MK1 to the position indicated by the position information of the calculus 42 as the predetermined target on the three-dimensional model image M3 (that is, marking). Do. Therefore, the first image processing unit 23a is an object marking unit.

ここでは第1画像処理部23aが、第1の画像処理として、所定の対象物の位置情報で示される位置を、3次元モデル画像M3上に表示する処理を行っているが、これに限定されるものではない。例えば、第1画像処理部23aが、第1の画像処理として、所定の対象物の位置情報で示される位置を、3次元モデル画像M3を2次元に展開した2次元展開画像上に表示する処理を行っても構わない。   Here, the first image processing unit 23a performs the process of displaying the position indicated by the position information of the predetermined object on the three-dimensional model image M3 as the first image process, but the present invention is not limited to this. It is not something. For example, as the first image processing, the first image processing unit 23a displays the position indicated by the position information of a predetermined object on a two-dimensional developed image obtained by two-dimensionally developing the three-dimensional model image M3. You may do.

画像合成出力部24は、内視鏡画像生成部21により生成された内視鏡画像EIと、画像処理部23により生成された3次元モデル画像M3と、を1つの画像に合成して、表示装置4へ出力する。   The image synthesis output unit 24 synthesizes the endoscope image EI generated by the endoscope image generation unit 21 and the three-dimensional model image M3 generated by the image processing unit 23 into one image and displays it. Output to device 4.

照明制御部25は、照明部12が照射する照明光のオン/オフや光量を制御するものである。ここに、照明制御部25が光源装置であって照明部12がライトガイド等であってもよいし、照明制御部25が発光制御回路であって照明部12がLED等の発光源であっても構わない。   The illumination control unit 25 controls on / off of the illumination light emitted by the illumination unit 12 and the amount of light. Here, the illumination control unit 25 may be a light source device and the illumination unit 12 may be a light guide or the like, the illumination control unit 25 may be a light emission control circuit, and the illumination unit 12 may be a light source such as an LED. It doesn't matter.

制御部27は、処理システム2の全体を制御し、さらに内視鏡1の制御も行うものであり、上述した内視鏡画像生成部21、3次元モデル画像生成部22、画像処理部23、画像合成出力部24、および照明制御部25と接続されている。   The control unit 27 controls the entire processing system 2 and also controls the endoscope 1. The endoscope image generation unit 21, the three-dimensional model image generation unit 22, the image processing unit 23, The image composition output unit 24 and the illumination control unit 25 are connected.

そして、制御部27は、位置算出部26を備えている。位置算出部26は、被検体の内部に存在する所定の対象物を撮像部11により撮像したときの内視鏡1の位置情報および方位情報と、3次元モデル画像M3と、に基づき、所定の対象物の位置情報を算出する。   The control unit 27 includes a position calculation unit 26. The position calculation unit 26 is based on the position information and orientation information of the endoscope 1 when the predetermined object existing inside the subject is imaged by the imaging unit 11 and the three-dimensional model image M3. The position information of the object is calculated.

データベース3は、例えば院内システム等を介して処理システム2に接続されており、上述したように、3次元モデル画像を生成する際の元データとなる、被検体の造影CTデータ、過去の内視鏡検査によって生成された被検体の3次元モデルデータなどを記録している。   The database 3 is connected to the processing system 2 via, for example, an in-hospital system. As described above, the contrast CT data of the subject, which is the original data when generating the three-dimensional model image, The three-dimensional model data of the subject generated by the mirror examination is recorded.

表示装置4は、画像合成出力部24から出力された内視鏡画像EIおよび3次元モデル画像M3を含む画像を表示する。   The display device 4 displays an image including the endoscopic image EI and the three-dimensional model image M3 output from the image composition output unit 24.

次に、図2は、内視鏡画像EIおよび3次元モデル画像M3を表示する表示装置4の表示例を示す図である。   Next, FIG. 2 is a diagram illustrating a display example of the display device 4 that displays the endoscopic image EI and the three-dimensional model image M3.

表示装置4には、内視鏡画像表示部4aと、3次元モデル画像表示部4bと、が設けられている。   The display device 4 is provided with an endoscope image display unit 4a and a three-dimensional model image display unit 4b.

内視鏡画像表示部4aには、内視鏡画像EIが表示されている。この内視鏡画像EIは、被検体である腎杯41の内部に存在する、所定の対象物である結石42を、撮像部11により撮像して取得された撮像画像に基づき、内視鏡画像生成部21により生成された画像である。この図2では、結石42が内視鏡画像EIの中央部に写っており、撮像部11の光学系のほぼ光軸上に結石42が位置する例となっている。   An endoscopic image EI is displayed on the endoscopic image display unit 4a. This endoscopic image EI is an endoscopic image based on a captured image obtained by capturing an image of a calculus 42, which is a predetermined object, present inside the kidney cup 41, which is the subject, by the imaging unit 11. It is an image generated by the generation unit 21. In FIG. 2, the calculus 42 is shown in the center of the endoscopic image EI, and the calculus 42 is positioned almost on the optical axis of the optical system of the imaging unit 11.

3次元モデル画像表示部4bには、3次元モデル画像生成部22により生成された3次元モデル画像M3が表示されている。この図2には、上述したような、観察が進むにつれて次第に構築されていく3次元モデル画像M3を示しているために、未観察領域UORが存在することを、未観察領域UORへの接続部分の表示態様(例えば、色(色相、彩度、明度)、模様、または色と模様の組み合わせなど)を異ならせることで表示している。幾つかの具体例を挙げれば、未観察領域UORへの接続部分を赤の色相で表示する(赤色表示)、未観察領域UORへの接続部分の彩度を下げて表示する(モノクロ表示)、未観察領域UORへの接続部分の明度を上げて表示する(ハイライト表示)、等である。   A 3D model image M3 generated by the 3D model image generation unit 22 is displayed on the 3D model image display unit 4b. Since FIG. 2 shows the three-dimensional model image M3 that is gradually constructed as the observation proceeds as described above, the existence of the unobserved region UOR indicates that there is a connection portion to the unobserved region UOR. Are displayed in different colors (for example, color (hue, saturation, brightness), pattern, or combination of color and pattern). To give some specific examples, the connection portion to the unobserved region UOR is displayed in red hue (red display), and the saturation of the connection portion to the unobserved region UOR is reduced (monochrome display). For example, the brightness of the connection portion to the unobserved area UOR is increased (highlighted display).

そして、3次元モデル画像M3上には、第1画像処理部23aにより追加された結石マークMK1と、内視鏡マークELと、が表示されている。この図2に示す例においては、結石マークMK1は例えば球状であり、内視鏡マークELは内視鏡1の挿入部の湾曲形状に沿った曲線状をなしている。なお、3次元モデル画像M3の内部に位置する結石マークMK1と、内視鏡マークELが視認できるよう3次元モデル画像M3の透過明度が調整されている。   On the three-dimensional model image M3, a calculus mark MK1 added by the first image processing unit 23a and an endoscope mark EL are displayed. In the example shown in FIG. 2, the calculus mark MK1 is, for example, spherical, and the endoscope mark EL has a curved shape along the curved shape of the insertion portion of the endoscope 1. The transmission brightness of the three-dimensional model image M3 is adjusted so that the calculus mark MK1 located inside the three-dimensional model image M3 and the endoscope mark EL can be visually recognized.

また、図3は、3次元モデル画像M3における結石位置の表示例を示す図である。この図3に示すように、内視鏡マークELは表示しなくても構わない。あるいは、内視鏡マークELの表示のオン/オフをユーザが所望に切り替えられるようにしてもよい。   FIG. 3 is a diagram illustrating a display example of a calculus position in the three-dimensional model image M3. As shown in FIG. 3, the endoscope mark EL need not be displayed. Alternatively, the user may switch on / off the display of the endoscope mark EL as desired.

ここで、位置算出部26による所定の対象物の位置情報の算出について、図4および図5を参照して説明する。3次元モデル画像M3と内視鏡1の位置情報および方位情報とを用いた位置算出部26による位置情報の算出方法は、例えば、次のような2通りの方法がある。   Here, calculation of position information of a predetermined object by the position calculation unit 26 will be described with reference to FIGS. 4 and 5. For example, there are the following two methods for calculating position information by the position calculation unit 26 using the three-dimensional model image M3 and the position information and orientation information of the endoscope 1.

第1の方法は、所定の対象物が内視鏡画像EIの中央部に位置すると見なして、所定の対象物の位置情報を算出する簡易的な方法である。   The first method is a simple method for calculating the position information of the predetermined object on the assumption that the predetermined object is located at the center of the endoscopic image EI.

また、第2の方法は、所定の対象物が内視鏡画像EIの中央部からどの方向にどれだけずれているかに基づいて、所定の対象物の位置情報をより正確に算出する方法である。   In addition, the second method is a method of calculating the position information of the predetermined object more accurately based on how much the predetermined object is displaced in which direction from the central portion of the endoscopic image EI. .

第2の方法は、第1の方法よりも正確な位置情報を取得できるが、内視鏡画像EI内の結石42を画像認識により検出する必要があり、演算処理が複雑になる。従って、内視鏡画像EIの中央部に結石42が位置する場合には、第1の方法を用いれば足りるし、結石42を画像認識できない場合には、第1の方法を用いることになる。   Although the second method can obtain more accurate position information than the first method, it is necessary to detect the calculus 42 in the endoscopic image EI by image recognition, and the calculation processing becomes complicated. Therefore, when the calculus 42 is located at the center of the endoscopic image EI, it is sufficient to use the first method, and when the calculus 42 cannot be recognized, the first method is used.

これら第1の方法と第2の方法の使い分けとしては、例えば、ユーザが操作部14等から操作を行ったことによりマーキングを行うためのトリガ信号が生成された場合に第1の方法で結石42の位置情報を生成し、画像処理部23による画像認識処理で結石42が発見されたことによりマーキングを行うためのトリガ信号が生成された場合に第2の方法で結石42の位置情報を生成する、等である。   The first method and the second method are selectively used by, for example, the calculus 42 by the first method when a trigger signal for marking is generated by the user performing an operation from the operation unit 14 or the like. The position information of the calculus 42 is generated by the second method when the trigger signal for marking is generated by the discovery of the calculus 42 by the image recognition processing by the image processing unit 23. , Etc.

第1の方法について、図4を参照して説明する。図4は、内視鏡1と管腔臓器内の結石42との位置関係の一例を示す図である。   The first method will be described with reference to FIG. FIG. 4 is a diagram showing an example of the positional relationship between the endoscope 1 and the calculus 42 in the hollow organ.

図4に示す例では、内視鏡1の撮像部11の光学系の光軸上に所定の対象物である結石42が存在している。   In the example shown in FIG. 4, there is a calculus 42 as a predetermined object on the optical axis of the optical system of the imaging unit 11 of the endoscope 1.

位置算出部26は、内視鏡1の位置情報で示される位置から、内視鏡1の方位情報で示される方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、所定の対象物である結石42の位置情報として算出する。   The position calculation unit 26 determines a position of a point where a straight line extended from the position indicated by the position information of the endoscope 1 in the direction indicated by the azimuth information of the endoscope 1 intersects the three-dimensional model image M3. It is calculated as position information of the calculus 42 that is the object.

具体的に、位置算出部26は、位置方位検出部13から取得される位置情報に基づき、3次元座標で表される内視鏡1の先端部位置Pを算出する。さらに、位置算出部26は、位置方位検出部13から取得される方位情報に基づき、内視鏡1の撮像部11の光学系の光軸方向ベクトルVDを算出する。そして、内視鏡1の先端部位置Pから、光軸方向ベクトルVDに沿って延長した直線が、3次元モデル画像M3における腎杯41の内壁と交差した点を、結石42の位置情報として算出する。   Specifically, the position calculation unit 26 calculates the distal end portion position P of the endoscope 1 represented by three-dimensional coordinates based on the position information acquired from the position / orientation detection unit 13. Further, the position calculation unit 26 calculates the optical axis direction vector VD of the optical system of the imaging unit 11 of the endoscope 1 based on the direction information acquired from the position / direction detection unit 13. Then, a point where a straight line extending along the optical axis direction vector VD intersects the inner wall of the kidney cup 41 in the three-dimensional model image M3 is calculated as position information of the calculus 42 from the distal end position P of the endoscope 1. To do.

次に、第2の方法について、図5を参照して説明する。図5は、内視鏡1と管腔臓器内の結石との位置関係の他の例を示す図である。   Next, the second method will be described with reference to FIG. FIG. 5 is a diagram illustrating another example of the positional relationship between the endoscope 1 and the calculus in the hollow organ.

図5に示す例では、内視鏡1の撮像部11の光学系の光軸上からずれた位置に、所定の対象物である結石42が存在している。   In the example illustrated in FIG. 5, a calculus 42 that is a predetermined object is present at a position shifted from the optical axis of the optical system of the imaging unit 11 of the endoscope 1.

位置算出部26は、所定の対象物である結石42を撮像部11により撮像して取得された撮像画像における結石42の位置と、内視鏡1の方位情報で示される方向と、に基づいて、内視鏡1の位置情報で示される位置から結石42へ向かう視線方向を算出し、内視鏡1の位置情報で示される位置から、視線方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、結石42の位置情報として算出する。   The position calculation unit 26 is based on the position of the calculus 42 in the captured image acquired by imaging the calculus 42 that is a predetermined object by the imaging unit 11 and the direction indicated by the orientation information of the endoscope 1. The line-of-sight direction toward the calculus 42 from the position indicated by the position information of the endoscope 1 is calculated, and a straight line extending in the line-of-sight direction from the position indicated by the position information of the endoscope 1 is the three-dimensional model image M3. The position of the intersecting point is calculated as position information of the calculus 42.

具体的に、内視鏡1の先端部位置Pから所定の距離に内視鏡画像の投影面VEIがあると想定したときに、内視鏡1の先端部位置Pから光軸方向ベクトルVDに沿って延長した直線は、内視鏡画像の投影面VEIの中心Oを通る。   Specifically, when it is assumed that there is a projection surface VEI of the endoscope image at a predetermined distance from the distal end position P of the endoscope 1, the distal end position P of the endoscope 1 changes to the optical axis direction vector VD. The straight line extending along the center passes through the center O of the projection plane VEI of the endoscopic image.

これに対して、内視鏡画像の投影面VEIにおける結石画像V42は、内視鏡画像の投影面VEIの中心Oからずれた位置にあるとする。この場合に位置算出部26は、内視鏡画像の投影面VEIの中心Oに対する結石画像V42の座標と、内視鏡1の先端部位置Pから内視鏡画像の投影面VEIまでの所定の距離と、に基づいて、内視鏡1の先端部位置Pから結石画像V42へ向かう視線ベクトルVEを算出する。そして、内視鏡1の先端部位置Pから、視線ベクトルVEに沿って延長した直線が、3次元モデル画像M3における腎杯41の内壁と交差した点を、結石42の位置情報として算出する。   On the other hand, it is assumed that the calculus image V42 on the projection plane VEI of the endoscopic image is at a position shifted from the center O of the projection plane VEI of the endoscopic image. In this case, the position calculating unit 26 determines the coordinates of the calculus image V42 with respect to the center O of the projection plane VEI of the endoscopic image and a predetermined distance from the distal end position P of the endoscope 1 to the projection plane VEI of the endoscopic image. Based on the distance, a line-of-sight vector VE from the distal end position P of the endoscope 1 toward the calculus image V42 is calculated. Then, a point where a straight line extending along the line-of-sight vector VE from the distal end position P of the endoscope 1 intersects the inner wall of the kidney cup 41 in the three-dimensional model image M3 is calculated as position information of the calculus 42.

上述したように、位置算出部26による位置情報算出の第1の方法は、3次元モデル画像M3と、内視鏡1の位置情報および方位情報と、を用いる方法であった。また、位置算出部26による位置情報算出の第2の方法は、3次元モデル画像M3と、内視鏡1の位置情報および方位情報と、撮像部11により撮像された撮像画像に基づいて生成された内視鏡画像EIと、を用いる方法であった。   As described above, the first method of position information calculation by the position calculation unit 26 is a method using the three-dimensional model image M3 and the position information and orientation information of the endoscope 1. In addition, the second method of calculating the position information by the position calculating unit 26 is generated based on the three-dimensional model image M3, the position information and orientation information of the endoscope 1, and the captured image captured by the image capturing unit 11. And an endoscopic image EI.

しかし、位置算出部26による位置情報の算出方法は、これらに限定されるものではない。例えば、撮影位置の異なる複数枚の撮像画像(あるいは撮像画像に基づいて生成された内視鏡画像EI)に基づいて、視差を利用したステレオ計測技術を用いて、結石42の位置情報を算出するようにしても構わない。   However, the calculation method of the position information by the position calculation unit 26 is not limited to these. For example, the position information of the calculus 42 is calculated using a stereo measurement technique using parallax, based on a plurality of captured images (or endoscopic images EI generated based on the captured images) having different shooting positions. It doesn't matter if you do.

次に、図6は、内視鏡装置の観察時の処理を示すフローチャートである。   Next, FIG. 6 is a flowchart showing processing during observation of the endoscope apparatus.

この処理を開始すると、ステップS1からステップS7のループを回っている間に新たな結石42が発見されたか否かを判定する(ステップS1)。   When this process is started, it is determined whether or not a new calculus 42 has been found during the loop from step S1 to step S7 (step S1).

この結石42の発見は、ユーザにより行うか、または画像処理部23の画像認識処理により自動的に行う。   The discovery of the calculus 42 is performed by the user or automatically by the image recognition processing of the image processing unit 23.

自動判定を行う場合の結石42である旨の判定は、例えば、内視鏡画像EI内に結石42の輪郭が全て入ったときに行うものする。さらに自動判定を行う場合には、既に発見されている結石42の位置から所定の半径rの球の外部に結石42が発見された場合に、新たな結石42が発見されたと判定するものとする。   The determination to be a calculus 42 in the case of performing automatic determination is performed, for example, when the outline of the calculus 42 is entirely included in the endoscopic image EI. Furthermore, when performing automatic determination, when a calculus 42 is found outside a sphere having a predetermined radius r from the position of the calculus 42 that has already been found, it is determined that a new calculus 42 has been found. .

このような処理を行うことにより、所定の半径rの球内に複数の結石42が存在する場合であっても、結石マークMK1は1つだけ表示されることになり、表示が煩雑になるのを避けて、見易くすることができる。   By performing such processing, only one calculus mark MK1 is displayed even if there are a plurality of calculi 42 in a sphere having a predetermined radius r, and the display becomes complicated. Can be made easier to see.

そして、ステップS1において新たな結石42が発見された場合には、制御部27がトリガ信号を生成する(ステップS2)。このトリガ信号は、ユーザが操作部14等に対して行ったマーキング操作に基づき、または、画像処理部23により新たな結石42が発見されたとの画像認識結果に基づき、制御部27が生成する。   And when the new calculus 42 is discovered in step S1, the control part 27 produces | generates a trigger signal (step S2). The trigger signal is generated by the control unit 27 based on a marking operation performed by the user on the operation unit 14 or the like, or based on an image recognition result that a new calculus 42 has been found by the image processing unit 23.

すると、制御部27は、トリガ信号が生成された時点の内視鏡1の先端部の位置情報および方位情報を位置方位検出部13から取得し(ステップS3)、トリガ信号がユーザ操作に基づき生成された場合には上述した第1の方法により、トリガ信号が画像認識処理に基づき生成された場合には上述した第2の方法により、視線ベクトルVEを算出する(ステップS4)。ここに、第1の方法の場合には、光軸方向ベクトルVDが視線ベクトルVEに一致すると近似することに該当する。   Then, the control unit 27 acquires the position information and the direction information of the distal end portion of the endoscope 1 at the time when the trigger signal is generated from the position and direction detection unit 13 (step S3), and the trigger signal is generated based on the user operation. If the trigger signal is generated based on the image recognition processing by the first method described above, the line-of-sight vector VE is calculated by the second method described above (step S4). Here, in the case of the first method, it corresponds to approximation when the optical axis direction vector VD coincides with the line-of-sight vector VE.

そして、内視鏡1の先端部位置Pから視線ベクトルVEの方向に延長した直線が、3次元モデル画像M3における腎杯41の内壁と交差した点の座標を、結石42の位置情報として算出する(ステップS5)。   Then, the coordinates of the point where the straight line extending from the distal end position P of the endoscope 1 in the direction of the line-of-sight vector VE intersects the inner wall of the kidney cup 41 in the three-dimensional model image M3 is calculated as position information of the calculus 42. (Step S5).

第1画像処理部23aは、3次元モデル画像M3上における、ステップS5において算出した交点の座標の位置に、例えば球状の結石マークMK1を追加し、必要に応じて内視鏡マークELも追加してから、追加後の3次元モデル画像M3を画像合成出力部24へ出力する。ただし、内視鏡マークELについては、トリガ信号の有無に関わらず、リアルタイムの形状が追加されるようになっている。   The first image processing unit 23a adds, for example, a spherical stone mark MK1 to the position of the coordinates of the intersection calculated in step S5 on the three-dimensional model image M3, and also adds an endoscope mark EL as necessary. After that, the added three-dimensional model image M3 is output to the image composition output unit 24. However, for the endoscope mark EL, a real-time shape is added regardless of the presence or absence of a trigger signal.

ここに、第1画像処理部23aが用いる3次元モデル画像M3は、ステップS1〜S6のループにおいて既に結石マークMK1が追加されている画像であるために、ステップS1〜S6のループを繰り返して行うに従って、結石マークMK1の数が増加して行くことになる。ただし、任意の結石マークMK1を、ユーザ操作に応じて所望に取り消すことができるようにしてもよい。   Here, since the three-dimensional model image M3 used by the first image processing unit 23a is an image in which the calculus mark MK1 has already been added in the loop of steps S1 to S6, the loop of steps S1 to S6 is repeated. Accordingly, the number of calculus marks MK1 will increase. However, any calculus mark MK1 may be canceled as desired in accordance with a user operation.

画像合成出力部24は、内視鏡画像生成部21からの内視鏡画像EIと、画像合成出力部24からの3次元モデル画像M3とを図2に示すように合成して、表示装置4へ出力する。これにより、表示装置4には、結石マークMK1(必要に応じてさらに内視鏡マークEL)が追加された3次元モデル画像M3が、内視鏡画像EIと共に表示される(ステップS6)。   The image synthesis output unit 24 synthesizes the endoscope image EI from the endoscope image generation unit 21 and the three-dimensional model image M3 from the image synthesis output unit 24 as shown in FIG. Output to. As a result, the three-dimensional model image M3 to which the calculus mark MK1 (further endoscope mark EL if necessary) is added is displayed on the display device 4 together with the endoscope image EI (step S6).

このステップS6の処理を行った場合、またはステップS1において新たな結石が発見されていなかった場合には、内視鏡観察を終了するか否かを判定する(ステップS7)。   When the process of step S6 is performed, or when no new calculus has been found in step S1, it is determined whether or not to end the endoscopic observation (step S7).

ここで、内視鏡観察をまだ終了しないと判定された場合にはステップS1へ戻って上述したような処理を繰り返して行い、一方、内視鏡観察を終了すると判定された場合には、この処理を終える。   Here, when it is determined that the endoscopic observation is not yet finished, the process returns to step S1 and the above-described processing is repeated. On the other hand, when it is determined that the endoscopic observation is finished, Finish the process.

このような実施形態1によれば、内視鏡1の位置情報および方位情報と、3次元モデル画像M3と、に基づき、所定の対象物の位置情報を算出するようにしたために、内視鏡観察中に発見した所定の対象物の位置を正確に算出することができる。   According to the first embodiment, since the position information of the predetermined object is calculated based on the position information and orientation information of the endoscope 1 and the three-dimensional model image M3, the endoscope The position of a predetermined object found during observation can be accurately calculated.

また、3次元モデル画像M3上、または3次元モデル画像M3を2次元に展開した2次元展開画像上の、算出により得られた所定の対象物の位置にマークを表示するようにしたために、所定の対象物の位置を正確にマーキングすることができる。   Further, since the mark is displayed at the position of the predetermined object obtained by the calculation on the three-dimensional model image M3 or on the two-dimensional development image obtained by two-dimensionally developing the three-dimensional model image M3, a predetermined value is displayed. The position of the object can be accurately marked.

こうして、内視鏡観察を行う前のCT撮影等を必須とすることなく、対象物の正確なマーキングを行うことが可能となり、ユーザは、所定の対象物の位置を正確に把握することができる。   In this way, it becomes possible to perform accurate marking of an object without requiring CT imaging before performing endoscopic observation, and the user can accurately grasp the position of a predetermined object. .

さらに、今回の手技/検査で算出した石と、次回の手技/検査で算出する石と、を比較することができるようになるために、より精度の高い診断および治療を行うことができる。   Furthermore, since it becomes possible to compare the stone calculated in the current procedure / examination with the stone calculated in the next procedure / examination, more accurate diagnosis and treatment can be performed.

そして、結石マークMK1が追加された3次元モデル画像M3を用いれば、患者に対する説明を、分かり易く正確に行うことが可能となる。   If the three-dimensional model image M3 to which the calculus mark MK1 is added is used, the patient can be explained easily and accurately.

また、内視鏡1の先端部位置Pから光軸方向ベクトルVDの方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、所定の対象物の位置情報として算出する場合には、所定の対象物を画像認識することができない場合でも、結石マークMK1等を表示することが可能となる。   Further, when the position of a point where a straight line extending from the distal end position P of the endoscope 1 in the direction of the optical axis direction vector VD intersects the three-dimensional model image M3 is calculated as position information of a predetermined object. Even when the image of the predetermined object cannot be recognized, the calculus mark MK1 or the like can be displayed.

一方、撮像画像における所定の対象物の位置と、光軸方向ベクトルVDと、に基づいて、所定の対象物へ向かう視線ベクトルVEを算出し、内視鏡1の先端部位置Pから視線ベクトルVEの方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、所定の対象物の位置情報として算出する場合には、結石マークMK1等をより正確な位置で表示することが可能となる。
[実施形態2]
On the other hand, a line-of-sight vector VE toward the predetermined object is calculated based on the position of the predetermined object in the captured image and the optical axis direction vector VD, and the line-of-sight vector VE from the distal end position P of the endoscope 1 is calculated. When the position of the point where the straight line extending in the direction intersects with the three-dimensional model image M3 is calculated as the position information of the predetermined object, the stone mark MK1 and the like can be displayed at a more accurate position. Become.
[Embodiment 2]

図7から図10は本発明の実施形態2を示したものであり、図7は内視鏡装置の構成を示すブロック図である。   7 to 10 show the second embodiment of the present invention, and FIG. 7 is a block diagram showing the configuration of the endoscope apparatus.

この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。   In the second embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.

上述した実施形態1では、トリガ信号に応じて結石マークMK1を3次元モデル画像M3等に追加するようにしていたが、本実施形態では、トリガ信号に応じて結石マークMK1と内視鏡1の例えば先端位置を示す先端マークMK2との何れか一方を3次元モデル画像M3等に追加するようにしたものとなっている。   In the first embodiment described above, the calculus mark MK1 is added to the three-dimensional model image M3 or the like according to the trigger signal. However, in the present embodiment, the calculus mark MK1 and the endoscope 1 are changed according to the trigger signal. For example, one of the tip mark MK2 indicating the tip position is added to the three-dimensional model image M3 or the like.

まず、本実施形態の内視鏡装置は、図7に示すように、制御部27が、位置算出部26に加えて画像処理切替部31を備え、画像処理部23が、第1画像処理部23aに加えて第2画像処理部23bを備えている。ここに、第1画像処理部23aと第2画像処理部23bとは、独立した異なる回路として構成されていてもよいが、同一の回路を兼用する構成であっても構わない。   First, in the endoscope apparatus according to the present embodiment, as illustrated in FIG. 7, the control unit 27 includes an image processing switching unit 31 in addition to the position calculation unit 26, and the image processing unit 23 includes the first image processing unit. In addition to 23a, a second image processing unit 23b is provided. Here, the first image processing unit 23a and the second image processing unit 23b may be configured as independent and different circuits, but may be configured to share the same circuit.

第2画像処理部23bは、内視鏡1の位置情報から求められる所定の領域を、例えば3次元モデル画像M3上に表示する第2の画像処理を行う。   The second image processing unit 23b performs second image processing for displaying a predetermined area obtained from the position information of the endoscope 1 on, for example, the three-dimensional model image M3.

画像処理切替部31は、3次元モデル画像生成部22により生成された3次元モデル画像M3に対して行う画像処理を、第1画像処理部23aによる第1の画像処理と、第2画像処理部23bによる第2の画像処理と、の何れか一方に切り替える処理を行う。この画像処理切替部31による画像処理の切り替えは、例えば操作部14からのユーザによる切り替え操作に基づき行う。   The image processing switching unit 31 performs image processing performed on the three-dimensional model image M3 generated by the three-dimensional model image generating unit 22, the first image processing by the first image processing unit 23a and the second image processing unit. A process of switching to one of the second image processing by 23b is performed. The image processing switching by the image processing switching unit 31 is performed based on a switching operation by the user from the operation unit 14, for example.

上述した第2画像処理部23bが表示する所定の領域は、内視鏡1の先端部の位置(面積0の領域が点となる)、内視鏡1の先端部の位置を含む腎杯、内視鏡1の先端部の位置を含まない腎杯、などの何れでもよい。   The predetermined area displayed by the second image processing unit 23b described above includes the position of the distal end portion of the endoscope 1 (the area of area 0 is a point), the kidney cup including the position of the distal end portion of the endoscope 1, Any of the kidney cup not including the position of the distal end portion of the endoscope 1 may be used.

図8は、内視鏡1の先端部位置Pをマーキングする例を示す図である。   FIG. 8 is a diagram illustrating an example of marking the distal end portion position P of the endoscope 1.

この図8に示す例では、内視鏡1の先端部位置P(図4、図5等参照)に対応する先端マークMK2が、内視鏡マークELと共に、3次元モデル画像M3に対して追加されている。ここに、図8に示す先端マークMK2は六面体となっており、上述した結石マークMK1の球状とは異なっている。このように、第1の画像処理で追加する結石マークMK1と、第2の画像処理で追加する先端マークMK2とは、マークの大きさ、形状、色、模様、あるいはこれらの組み合わせなどの表示態様を異ならせるとよい。   In the example shown in FIG. 8, a tip mark MK2 corresponding to the tip position P (see FIGS. 4, 5, etc.) of the endoscope 1 is added to the three-dimensional model image M3 together with the endoscope mark EL. Has been. Here, the tip mark MK2 shown in FIG. 8 is a hexahedron, which is different from the spherical shape of the calculus mark MK1 described above. As described above, the calculus mark MK1 added in the first image processing and the tip mark MK2 added in the second image processing are display modes such as the size, shape, color, pattern, or combination thereof. Should be different.

また、図9は、内視鏡1の先端部位置Pから求められる所定の領域をマーキングする例を示す図である。   FIG. 9 is a diagram illustrating an example of marking a predetermined region obtained from the distal end position P of the endoscope 1.

この図9に示す例では、内視鏡1の先端部位置Pを含む腎杯の領域を塗りつぶすように、先端マークMK2’が3次元モデル画像M3に対して追加されている。   In the example shown in FIG. 9, a tip mark MK2 'is added to the three-dimensional model image M3 so as to fill the area of the kidney cup including the tip position P of the endoscope 1.

続いて、図10は、内視鏡装置の観察時の処理を示すフローチャートである。   Next, FIG. 10 is a flowchart illustrating processing during observation of the endoscope apparatus.

この処理を開始すると、制御部27は、ユーザの切り替え操作に応じて画像処理切替部31により選択されているのが、第1画像処理であるか第2画像処理であるかを判定する(ステップS11)。   When this process is started, the control unit 27 determines whether the first image process or the second image process is selected by the image process switching unit 31 in accordance with the user's switching operation (step S2). S11).

ここで第1画像処理が選択されていると判定された場合には、図6を参照して説明したのと同様の、結石マークMK1を3次元モデル画像M3に追加するためのステップS1〜S6の処理を行う。   If it is determined that the first image processing is selected, steps S1 to S6 for adding the calculus mark MK1 to the three-dimensional model image M3, similar to those described with reference to FIG. Perform the process.

一方、ステップS11において第2画像処理が選択されていると判定された場合には、操作部14等からのユーザによるマーキング操作がなされたか否かを判定する(ステップS12)。   On the other hand, when it is determined in step S11 that the second image processing is selected, it is determined whether or not a marking operation by the user from the operation unit 14 or the like has been performed (step S12).

ここで、マーキング操作が行われたと判定された場合には、制御部27がトリガ信号を生成する(ステップS13)。   Here, when it is determined that the marking operation has been performed, the control unit 27 generates a trigger signal (step S13).

すると、制御部27は、トリガ信号が生成された時点の内視鏡1の先端部の位置情報を位置方位検出部13から取得する(ステップS14)。   Then, the control part 27 acquires the positional information on the front-end | tip part of the endoscope 1 at the time of a trigger signal being generated from the position and orientation detection part 13 (step S14).

第2画像処理部23bは、3次元モデル画像M3上における、ステップS14において取得した位置情報で示される座標の位置に、例えば六面体の先端マークMK2を追加してから、追加後の3次元モデル画像M3を画像合成出力部24へ出力する。   The second image processing unit 23b adds, for example, a hexahedral tip mark MK2 to the position of the coordinates indicated by the position information acquired in step S14 on the three-dimensional model image M3, and then adds the three-dimensional model image after the addition. M3 is output to the image composition output unit 24.

なお、内視鏡1の先端マークMK2についても、3次元モデル画像M3に表示するのに代えて、3次元モデル画像M3を2次元に展開した2次元展開画像上に表示しても構わないのは、上述した実施形態1の結石マークMK1の場合と同様である。   Note that the tip mark MK2 of the endoscope 1 may also be displayed on a two-dimensional developed image obtained by two-dimensionally developing the three-dimensional model image M3 instead of being displayed on the three-dimensional model image M3. Is the same as in the case of the calculus mark MK1 of the first embodiment described above.

画像合成出力部24は、上述したように画像合成を行うために、表示装置4には、新たな先端マークMK2が追加された3次元モデル画像M3が、内視鏡画像EIと共に表示される(ステップS15)。   In order to perform image composition as described above, the image composition output unit 24 displays the three-dimensional model image M3 to which the new tip mark MK2 has been added together with the endoscope image EI on the display device 4 ( Step S15).

上述したステップS6の処理を行った場合、ステップS1において新たな結石が発見されていなかった場合、ステップS15の処理を行った場合、またはステップS12においてマーキング操作が行われていないと判定された場合には、ステップS7の処理を行って内視鏡観察を終了するか否かを判定する。ここで、内視鏡観察をまだ終了しないと判定された場合にはステップS11へ戻って上述したような処理を繰り返して行う。   When the process of step S6 described above is performed, when no new calculus is found in step S1, when the process of step S15 is performed, or when it is determined that the marking operation is not performed in step S12 In step S7, it is determined whether or not to end the endoscopic observation by performing the process in step S7. If it is determined that the endoscopic observation is not yet finished, the process returns to step S11 and the above-described processing is repeated.

こうして、ステップS11〜S7のループを繰り返して行うに従って、結石マークMK1と先端マークMK2とが増加して行くことになる(内視鏡マークELは、上述したように、リアルタイムの形状が表示される)。なお、上述と同様に、任意の結石マークMK1および任意の先端マークMK2を、ユーザ操作に応じて所望に取り消すことができるようにしてもよい。   Thus, as the loop of steps S11 to S7 is repeated, the calculus mark MK1 and the tip mark MK2 increase (the endoscope mark EL displays a real-time shape as described above. ). As described above, any calculus mark MK1 and any tip mark MK2 may be canceled as desired according to a user operation.

一方、ステップS7において内視鏡観察を終了すると判定された場合には、この処理を終える。   On the other hand, if it is determined in step S7 that the endoscopic observation is to be terminated, this process is terminated.

手技や検査を行う場合に、マーキングは結石42の位置を示すために用いられるだけでなく、その他の目的にも有効活用することができる。例えば、腎杯に対してマーキングすることで、その腎杯内に残石が無いという情報を残したい場合などである。従って、内視鏡1の先端部の位置をマーキングする第2の画像処理を可能とすることで、このような需要にも応えることができる。   When performing a procedure or an inspection, the marking can be used not only for indicating the position of the calculus 42 but also for other purposes. For example, when marking a kidney cup, it is desired to leave information that there is no remaining stone in the kidney cup. Therefore, by enabling the second image processing for marking the position of the distal end portion of the endoscope 1, it is possible to meet such a demand.

また、例えば、あまり大きくない結石42が1つだけ存在する場合には、そのまま結石42を破砕して取り出す処置が行われることがある。これに対して、結石42が大きい場合や複数ある場合には、結石42の位置を予め覚えておいて、結石42を取り出し易い場所に移動してまとめてから、まとめた場所で結石42を破砕して取り出す処置が行われることがある。このために、結石42の位置を予め覚えておく際に、正確な結石42の位置を示す結石マークMK1が有用となる。また、結石42をまとめておく場所をマーキングする際には、先端マークMK2を利用することができる。従って、こうした用途にも、本実施形態の構成を有効に利用することができる。   Further, for example, when there is only one calculus 42 that is not very large, a treatment may be performed in which the calculus 42 is crushed and taken out as it is. On the other hand, when the calculus 42 is large or there are a plurality of calculi 42, the position of the calculus 42 is memorized in advance, moved to a place where the calculus 42 can be easily taken out, and then the calculus 42 is crushed at the gathered place. In some cases, a removal procedure is performed. For this reason, when the position of the calculus 42 is memorized in advance, the calculus mark MK1 indicating the accurate position of the calculus 42 is useful. Moreover, when marking the place where the calculus 42 is put together, the tip mark MK2 can be used. Therefore, the configuration of the present embodiment can be effectively used for such applications.

このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、結石マークMK1等を表示する第1の画像処理と、先端マークMK2等を表示する第2の画像処理と、をユーザが所望に切り替えることができるようにしたために、先端マークMK2を、残石が無い腎杯のマーキングや、結石42をまとめた場所のマーキングなどに適応的に利用することができる。これにより、手技や検査をより効率的に行うことが可能となる。
[実施形態3]
According to the second embodiment, the first image processing for displaying the calculus mark MK1 and the like and the second image processing for displaying the tip mark MK2 and the like have the same effects as the first embodiment. Therefore, the tip mark MK2 can be used adaptively for marking of the goblet without the remaining stone, marking of the place where the calculus 42 is gathered, and the like. Thereby, it becomes possible to perform a procedure and a test | inspection more efficiently.
[Embodiment 3]

図11から図14は本発明の実施形態3を示したものであり、図11は内視鏡装置の制御部27に関連する構成を示すブロック図である。   11 to 14 show Embodiment 3 of the present invention, and FIG. 11 is a block diagram showing a configuration related to the control unit 27 of the endoscope apparatus.

この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。   In the third embodiment, the same parts as those in the first and second embodiments are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.

本実施形態は、所定の対象物、具体例としては結石42の種類を判別して、判別した種類に応じて異なる表示態様で結石42の位置を表示するようにしたものとなっている。   In the present embodiment, a type of a predetermined object, specifically, a calculus 42 is determined, and the position of the calculus 42 is displayed in a different display mode according to the determined type.

本実施形態の内視鏡装置は、図11に示すように、制御部27が、位置算出部26に加えて判定部35を備えている。   In the endoscope apparatus according to the present embodiment, as shown in FIG. 11, the control unit 27 includes a determination unit 35 in addition to the position calculation unit 26.

判定部35は、所定の対象物を撮像部11により撮像して取得された撮像画像に基づいて、所定の対象物の種類を判定する。   The determination unit 35 determines the type of the predetermined object based on the captured image acquired by imaging the predetermined object by the imaging unit 11.

また、第1画像処理部23aは、判定部35により判定された所定の対象物の種類に応じて、所定の対象物の位置情報で示される位置を表示する際の表示態様を異ならせる。   In addition, the first image processing unit 23a changes the display mode when displaying the position indicated by the position information of the predetermined object according to the type of the predetermined object determined by the determination unit 35.

具体的に、結石42を、埋没結石と浮動結石とに種類判定する場合の例について、図12〜図14を参照して説明する。ここに、埋没結石は、被検体の内部に埋め込まれるなどして移動が被検体と一体的である埋没型の結石、浮動結石は、被検体とは独立して移動可能な浮動型の結石を指す。   Specifically, an example in the case where the calculus 42 is classified into an embedded calculus and a floating calculus will be described with reference to FIGS. Here, the buried stone is embedded in the subject, and the movement is integrated with the subject.For example, the buried stone is a floating stone that can move independently of the subject. Point to.

まず、図13は、内視鏡装置の観察時の処理を示すフローチャートである。   First, FIG. 13 is a flowchart showing processing during observation of the endoscope apparatus.

この処理を開始すると、上述したステップS1〜S5の処理を行う。ただし、判定部35により結石42の種類を判定するには、結石42の画像認識が必要であるために、ここではトリガ信号が例えば画像認識処理に基づき生成され、視線ベクトルVEが上述した第2の方法により算出されているものとする(ただし、ユーザ操作に基づき生成されたトリガ信号に応じて、結石42の画像認識を行っても構わない)。   When this process is started, the above-described steps S1 to S5 are performed. However, in order to determine the type of the calculus 42 by the determination unit 35, image recognition of the calculus 42 is necessary. Therefore, here, a trigger signal is generated based on, for example, image recognition processing, and the line-of-sight vector VE is the second line of sight described above. (However, image recognition of the calculus 42 may be performed in accordance with a trigger signal generated based on a user operation).

そして、ステップS5の処理を行った後に、判定部35が、結石42の種類を判定する処理を行う(ステップS21)。   And after performing the process of step S5, the determination part 35 performs the process which determines the kind of calculus 42 (step S21).

ここで、図14は、図13における結石42の種類判定の処理を示すフローチャートである。   Here, FIG. 14 is a flowchart showing processing for determining the type of the calculus 42 in FIG.

この処理に入ると、判定部35は、例えば、撮像部11により取得された取得時点の異なる複数枚の撮像画像に基づき、内視鏡画像生成部21により生成された複数枚の内視鏡画像EIを用いて、図12に示すような、結石42の移動ベクトルV1(図12参照)を算出する(ステップS31)と共に、結石42以外の例えば腎杯41内壁の移動ベクトルV2(図12参照)を算出する(ステップS32)。   Upon entering this process, the determination unit 35, for example, a plurality of endoscopic images generated by the endoscopic image generation unit 21 based on a plurality of captured images obtained at different acquisition points acquired by the imaging unit 11. The movement vector V1 (see FIG. 12) of the calculus 42 as shown in FIG. 12 is calculated using the EI (step S31), and the movement vector V2 of the inner wall of the kidney cup 41 other than the calculus 42 (see FIG. 12). Is calculated (step S32).

ここに、図12は、取得時点の異なる複数枚の撮像画像に基づき得られる結石42の移動ベクトルV1と結石42以外の移動ベクトルV2の例を示す図である。   FIG. 12 is a diagram illustrating an example of the movement vector V1 of the calculus 42 and the movement vector V2 other than the calculus 42 obtained based on a plurality of captured images at different acquisition points.

そして、判定部35は、移動ベクトルV1と移動ベクトルV2とが、一致するか否かを判定する(ステップS33)。   And the determination part 35 determines whether the movement vector V1 and the movement vector V2 correspond (step S33).

ここで、移動ベクトルV1と移動ベクトルV2とが(許容範囲の誤差内で)一致する場合には、判定部35は、種類判定の対象となっている結石42が埋没結石であると判定する(ステップS34)。   Here, when the movement vector V1 and the movement vector V2 match (within an allowable range error), the determination unit 35 determines that the calculus 42 to be subjected to the type determination is an embedded calculus ( Step S34).

一方、移動ベクトルV1と移動ベクトルV2とが(許容範囲の誤差を超えて)一致しない場合には、判定部35は、種類判定の対象となっている結石42が浮動結石であると判定する(ステップS35)。   On the other hand, when the movement vector V1 and the movement vector V2 do not coincide (exceeding an allowable range error), the determination unit 35 determines that the calculus 42 to be subjected to the type determination is a floating calculus ( Step S35).

こうして、ステップS34またはステップS35の処理を行って種類判定の結果が得られたら、図13の処理にリターンする。   When the process of step S34 or step S35 is thus performed and the result of the type determination is obtained, the process returns to the process of FIG.

図13の処理に戻ると、第1画像処理部23aは、所定の対象物である結石42が埋没結石であるか浮動結石であるかに応じて、位置を表示する際の結石マークMK1の表示態様を異ならせる。具体的には、結石42が埋没結石であるか浮動結石であるかに応じて、結石マークMK1の大きさ、形状、色、模様、あるいはこれらの組み合わせを異ならせる、等である。   Returning to the processing of FIG. 13, the first image processing unit 23a displays the calculus mark MK1 when displaying the position according to whether the calculus 42 as the predetermined object is an embedded calculus or a floating calculus. Different aspects. Specifically, the size, shape, color, pattern, or combination thereof of the stone mark MK1 is varied depending on whether the stone 42 is an buried stone or a floating stone.

画像合成出力部24は、内視鏡画像生成部21からの内視鏡画像EIと、画像合成出力部24からの3次元モデル画像M3とを図2に示すように合成して、表示装置4へ出力する。これにより、表示装置4には、結石42の種類に応じた結石マークMK1等が追加された3次元モデル画像M3が、内視鏡画像EIと共に表示される(ステップS6A)。   The image synthesis output unit 24 synthesizes the endoscope image EI from the endoscope image generation unit 21 and the three-dimensional model image M3 from the image synthesis output unit 24 as shown in FIG. Output to. Thereby, the three-dimensional model image M3 to which the stone mark MK1 or the like corresponding to the type of the stone 42 is added is displayed on the display device 4 together with the endoscope image EI (step S6A).

その後は、ステップS7の判定を行って、終了しない場合にはステップS1へ戻り、終了する場合にはこの処理を終えることは、上述した実施形態1の図6に示した処理と同様である。   Thereafter, the determination in step S7 is performed, and if not completed, the process returns to step S1, and if completed, the process is terminated, as in the process shown in FIG. 6 of the first embodiment.

また、この実施形態3の変形例として、所定の対象物の大きさを判定するようにしてもよい。この場合には、判定部35が所定の対象物の大きさを判定し、第1画像処理部23aは、所定の対象物の大きさに応じて、位置を表示する際の表示態様を異ならせる。   As a modification of the third embodiment, the size of a predetermined object may be determined. In this case, the determination unit 35 determines the size of the predetermined object, and the first image processing unit 23a changes the display mode when displaying the position according to the size of the predetermined object. .

具体的に、図5に示す内視鏡1の先端部位置Pから結石42までの距離は、3次元モデル画像M3を用いて算出することができる。一方、結石42の輪郭から、内視鏡画像EI内における結石42の画像の大きさを算出することができる。従って、距離と画像上の大きさとに基づいて、結石42の実際の大きさを算出することができる。   Specifically, the distance from the distal end position P of the endoscope 1 shown in FIG. 5 to the calculus 42 can be calculated using the three-dimensional model image M3. On the other hand, from the contour of the calculus 42, the size of the calculus 42 image in the endoscopic image EI can be calculated. Therefore, the actual size of the calculus 42 can be calculated based on the distance and the size on the image.

こうして、判定部により結石42の実際の大きさが算出されたら、その大きさに応じて、第1画像処理部23aが、結石マークMK1の表示態様、具体的には、大きさ、形状、色、模様、あるいはこれらの組み合わせなどを異ならせて表示するようにすればよい。   Thus, when the actual size of the calculus 42 is calculated by the determination unit, the first image processing unit 23a displays the calculus mark MK1 according to the size, specifically, the size, shape, and color. , A pattern, or a combination of these may be displayed differently.

なお、この実施形態3に示したような構成において、上述した実施形態2で説明したような第1の画像処理と第2の画像処理とを切り替え可能な構成をさらに追加しても勿論構わない。   Of course, in the configuration as shown in the third embodiment, a configuration capable of switching between the first image processing and the second image processing as described in the second embodiment may be added. .

このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、撮像画像に基づいて所定の対象物の種類を判定し、判定された種類に応じて表示態様を異ならせるようにしたために、単に結石42の位置を正確に知ることができるだけでなく、どのような結石であるのかまでを把握することが可能となる。   According to the third embodiment, the same effects as those of the first and second embodiments described above are obtained, and the type of the predetermined object is determined based on the captured image, and the display mode is determined according to the determined type. Therefore, it is possible not only to accurately know the position of the calculus 42 but also to understand what kind of calculus it is.

具体的に、腎杯との移動ベクトルの相違に基づき結石42が埋没結石であるか浮動結石であるかを判定する場合には、結石マークMK1を見るだけで、何れであるかを認識することができる。   Specifically, when determining whether the calculus 42 is an buried calculus or a floating calculus based on the difference in movement vector from the kidney cup, it is possible to recognize which is only by looking at the calculus mark MK1. Can do.

また、結石42の大きさを判定する場合には、結石マークMK1を見るだけで、どの程度の大きさの結石42であるかを認識することができる。   Further, when determining the size of the calculus 42, it is possible to recognize the size of the calculus 42 only by looking at the calculus mark MK1.

なお、上述した各部は、回路として構成されていてもよい。そして、任意の回路は、同一の機能を果たすことができれば、単一の回路として実装されていてもよいし、複数の回路を組み合わせたものとして実装されていても構わない。さらに、任意の回路は、目的とする機能を果たすための専用回路として構成されるに限るものではなく、汎用回路に処理プログラムを実行させることで目的とする機能を果たす構成であっても構わない。   In addition, each part mentioned above may be comprised as a circuit. Any circuit may be mounted as a single circuit or a combination of a plurality of circuits as long as it can perform the same function. Furthermore, an arbitrary circuit is not limited to being configured as a dedicated circuit for performing a target function, and may be configured to perform a target function by causing a general-purpose circuit to execute a processing program. .

また、上述では主として内視鏡装置について説明したが、内視鏡装置を上述したように作動させる作動方法であってもよいし、コンピュータに内視鏡装置と同様の処理を行わせるための処理プログラム、該処理プログラムを記録するコンピュータにより読み取り可能な一時的でない記録媒体、等であっても構わない。   In the above description, the endoscope apparatus has been mainly described. However, an operation method for operating the endoscope apparatus as described above may be used, or a process for causing a computer to perform the same process as the endoscope apparatus. It may be a program, a non-temporary recording medium readable by a computer for recording the processing program, or the like.

さらに、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various aspects of the invention can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

1…内視鏡
2…処理システム
3…データベース
4…表示装置
4a…内視鏡画像表示部
4b…3次元モデル画像表示部
11…撮像部
12…照明部
13…位置方位検出部
14…操作部
21…内視鏡画像生成部
22…3次元モデル画像生成部
23…画像処理部
23a…第1画像処理部
23b…第2画像処理部
24…画像合成出力部
25…照明制御部
26…位置算出部
27…制御部
31…画像処理切替部
35…判定部
41…腎杯
42…結石
EI…内視鏡画像
EL…内視鏡マーク
M3…3次元モデル画像
MK1…結石マーク
MK2,MK2’…先端マーク
O…内視鏡画像の投影面の中心
P…内視鏡の先端部位置
UOR…未観察領域
V1,V2…移動ベクトル
V42…内視鏡画像の結石画像
VD…光軸方向ベクトル
VE…視線ベクトル
VEI…内視鏡画像の投影面
DESCRIPTION OF SYMBOLS 1 ... Endoscope 2 ... Processing system 3 ... Database 4 ... Display apparatus 4a ... Endoscope image display part 4b ... Three-dimensional model image display part 11 ... Imaging part 12 ... Illumination part 13 ... Position direction detection part 14 ... Operation part DESCRIPTION OF SYMBOLS 21 ... Endoscopic image generation part 22 ... Three-dimensional model image generation part 23 ... Image processing part 23a ... 1st image processing part 23b ... 2nd image processing part 24 ... Image composition output part 25 ... Illumination control part 26 ... Position calculation Unit 27 ... Control unit 31 ... Image processing switching unit 35 ... Determination unit 41 ... Kidney cup 42 ... Stone EI ... Endoscopic image EL ... Endoscopic mark M3 ... Three-dimensional model image MK1 ... Stone mark MK2, MK2 '... Tip Mark O: Center of projection plane of endoscopic image P: End position of endoscope UOR: Unobserved region V1, V2 ... Movement vector V42 ... Stone image of endoscopic image VD ... Optical axis direction vector VE ... Line of sight Baek Projection plane Le VEI ... endoscopic image

Claims (9)

3次元形状をなす被検体の内部を撮像して撮像画像を取得するように構成された撮像部を有する内視鏡と、
前記被検体の3次元モデル画像を生成するように構成された3次元モデル画像生成部と、
前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出するように構成された位置算出部と、
前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行うように構成された第1の画像処理部と、
を備えることを特徴とする内視鏡装置。
An endoscope having an imaging unit configured to capture an image of a subject having a three-dimensional shape and acquire a captured image;
A three-dimensional model image generation unit configured to generate a three-dimensional model image of the subject;
The position of the predetermined object based on the position information and orientation information of the endoscope when the predetermined object existing inside the subject is imaged by the imaging unit, and the three-dimensional model image. A position calculator configured to calculate information;
The first image processing is performed to display the position indicated by the position information of the predetermined object on the three-dimensional model image or on a two-dimensional developed image obtained by two-dimensionally developing the three-dimensional model image. A first image processing unit configured to:
An endoscope apparatus comprising:
前記位置算出部は、前記内視鏡の位置情報で示される位置から、前記内視鏡の方位情報で示される方向に延長した直線が、前記3次元モデル画像と交わる点の位置を、前記所定の対象物の前記位置情報として算出することを特徴とする請求項1に記載の内視鏡装置。   The position calculating unit is configured to determine a position of a point where a straight line extending in a direction indicated by the azimuth information of the endoscope from a position indicated by the position information of the endoscope intersects the three-dimensional model image. The endoscope apparatus according to claim 1, wherein the position information is calculated as the position information of the target object. 前記位置算出部は、前記所定の対象物を前記撮像部により撮像して取得された前記撮像画像における該所定の対象物の位置と、前記内視鏡の方位情報で示される方向と、に基づいて、前記内視鏡の位置情報で示される位置から前記所定の対象物へ向かう視線方向を算出し、前記内視鏡の位置情報で示される位置から、前記視線方向に延長した直線が、前記3次元モデル画像と交わる点の位置を、前記所定の対象物の前記位置情報として算出することを特徴とする請求項1に記載の内視鏡装置。   The position calculation unit is based on a position of the predetermined object in the captured image acquired by imaging the predetermined object by the imaging unit and a direction indicated by the azimuth information of the endoscope. Calculating a line-of-sight direction from the position indicated by the position information of the endoscope toward the predetermined object, and a straight line extending in the line-of-sight direction from the position indicated by the position information of the endoscope is The endoscope apparatus according to claim 1, wherein the position of a point that intersects the three-dimensional model image is calculated as the position information of the predetermined object. 前記内視鏡の位置情報から求められる所定の領域を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第2の画像処理を行うように構成された第2の画像処理部と、
前記第1の画像処理部による前記第1の画像処理と、前記第2の画像処理部による前記第2の画像処理と、の何れか一方に切り替えるように構成された画像処理切替部と、
をさらに備えることを特徴とする請求項1に記載の内視鏡装置。
Second image processing is performed to display a predetermined region obtained from position information of the endoscope on the three-dimensional model image or on a two-dimensional developed image obtained by two-dimensionally developing the three-dimensional model image. A second image processing unit configured to:
An image processing switching unit configured to switch to any one of the first image processing by the first image processing unit and the second image processing by the second image processing unit;
The endoscope apparatus according to claim 1, further comprising:
前記第2の画像処理は、前記第1の画像処理による表示とは異なる態様で、前記内視鏡の位置情報から求められる前記所定の領域を表示することを特徴とする請求項4に記載の内視鏡装置。   The said 2nd image processing displays the said predetermined area | region calculated | required from the positional information on the said endoscope in a different aspect from the display by the said 1st image processing. Endoscopic device. 前記所定の対象物を前記撮像部により撮像して取得された前記撮像画像に基づいて、該所定の対象物の種類を判定するように構成された判定部をさらに備え、
前記第1の画像処理部は、前記判定部により判定された前記所定の対象物の種類に応じて、該所定の対象物の前記位置情報で示される位置を表示する際の表示態様を異ならせるように構成されていることを特徴とする請求項1に記載の内視鏡装置。
A determination unit configured to determine the type of the predetermined object based on the captured image acquired by imaging the predetermined object by the imaging unit;
The first image processing unit changes a display mode when displaying the position indicated by the position information of the predetermined object according to the type of the predetermined object determined by the determination unit. The endoscope apparatus according to claim 1, configured as described above.
前記所定の対象物は、前記被検体の内部の結石であり、
前記判定部は、取得時点の異なる複数枚の前記撮像画像に基づき得られる結石の移動ベクトルと結石以外の移動ベクトルとが、一致する場合に埋没結石であると判定し、一致しない場合に浮動結石であると判定するように構成され、
前記第1の画像処理部は、前記所定の対象物が埋没結石であるか浮動結石であるかに応じて、位置を表示する際の表示態様を異ならせることを特徴とする請求項6に記載の内視鏡装置。
The predetermined object is a calculus inside the subject,
The determination unit determines that a stone movement vector obtained based on a plurality of the captured images at different acquisition points and a movement vector other than a stone match an embedded stone, and if not, a floating stone Is configured to determine that
The said 1st image process part changes the display mode at the time of displaying a position according to whether the said predetermined target object is an embedded stone or a floating stone. Endoscope device.
前記判定部は、前記所定の対象物の大きさを判定するように構成され、
前記第1の画像処理部は、前記所定の対象物の大きさに応じて、位置を表示する際の表示態様を異ならせることを特徴とする請求項6に記載の内視鏡装置。
The determination unit is configured to determine a size of the predetermined object;
The endoscope apparatus according to claim 6, wherein the first image processing unit changes a display mode when displaying a position in accordance with a size of the predetermined object.
内視鏡が有する撮像部が、3次元形状をなす被検体の内部を撮像して撮像画像を取得し、
3次元モデル画像生成部が、前記被検体の3次元モデル画像を生成し、
位置算出部が、前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出し、
第1の画像処理部が、前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行うことを特徴とする内視鏡装置の作動方法。
The imaging unit of the endoscope captures a captured image by imaging the inside of the subject having a three-dimensional shape,
A three-dimensional model image generation unit generates a three-dimensional model image of the subject;
Based on the position information and azimuth information of the endoscope and the three-dimensional model image when the position calculation unit images a predetermined object existing inside the subject by the imaging unit. Calculate location information for
The first image processing unit displays the position indicated by the position information of the predetermined object on the three-dimensional model image or on a two-dimensional development image obtained by two-dimensionally developing the three-dimensional model image. An operation method of an endoscope apparatus, characterized by performing first image processing.
JP2016100592A 2016-05-19 2016-05-19 Endoscope device and method for operating endoscope device Pending JP2017205343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016100592A JP2017205343A (en) 2016-05-19 2016-05-19 Endoscope device and method for operating endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016100592A JP2017205343A (en) 2016-05-19 2016-05-19 Endoscope device and method for operating endoscope device

Publications (1)

Publication Number Publication Date
JP2017205343A true JP2017205343A (en) 2017-11-24

Family

ID=60414741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016100592A Pending JP2017205343A (en) 2016-05-19 2016-05-19 Endoscope device and method for operating endoscope device

Country Status (1)

Country Link
JP (1) JP2017205343A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082892A1 (en) 2017-10-24 2019-05-02 株式会社Lily MedTech Ultrasound diagnostic system and ultrasound diagnostic method
CN111770716A (en) * 2018-02-21 2020-10-13 奥林巴斯株式会社 Medical system and control method for medical system
WO2022124315A1 (en) * 2020-12-08 2022-06-16 国立研究開発法人産業技術総合研究所 Endoscopic diagnosis assistance method and endoscopic diagnosis assistance system
US11969141B2 (en) 2018-03-23 2024-04-30 Sony Olympus Medical Solutions Inc. Medical display controlling apparatus and display controlling method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082892A1 (en) 2017-10-24 2019-05-02 株式会社Lily MedTech Ultrasound diagnostic system and ultrasound diagnostic method
CN111770716A (en) * 2018-02-21 2020-10-13 奥林巴斯株式会社 Medical system and control method for medical system
CN111770716B (en) * 2018-02-21 2023-12-01 奥林巴斯株式会社 Medical system and control method for medical system
US11969141B2 (en) 2018-03-23 2024-04-30 Sony Olympus Medical Solutions Inc. Medical display controlling apparatus and display controlling method
WO2022124315A1 (en) * 2020-12-08 2022-06-16 国立研究開発法人産業技術総合研究所 Endoscopic diagnosis assistance method and endoscopic diagnosis assistance system
JP7388648B2 (en) 2020-12-08 2023-11-29 国立研究開発法人産業技術総合研究所 Endoscopic diagnosis support method and endoscopic diagnosis support system

Similar Documents

Publication Publication Date Title
US10706610B2 (en) Method for displaying an object
CN107374729B (en) Operation navigation system and method based on AR technology
JP6323183B2 (en) Image processing apparatus and image processing method
JP2022172134A (en) Surgical system and method with bleeding detection unit
JP5810248B2 (en) Endoscope system
KR20190078540A (en) Use of augmented reality to assist navigation during medical procedures
JP5771757B2 (en) Endoscope system and method for operating endoscope system
JP5977900B2 (en) Image processing device
JP5750669B2 (en) Endoscope system
US20190043215A1 (en) Endoscope apparatus
JP6932135B2 (en) Computational device for superimposing laparoscopic images and ultrasonic images
JP6141559B1 (en) Medical device, medical image generation method, and medical image generation program
JP2017164007A (en) Medical image processing device, medical image processing method, and program
JP2015228955A (en) Image processing device, image processing method, and program
WO2016076262A1 (en) Medical device
JP2017205343A (en) Endoscope device and method for operating endoscope device
US10951837B2 (en) Generating a stereoscopic representation
US9345394B2 (en) Medical apparatus
US10631948B2 (en) Image alignment device, method, and program
JP6770655B2 (en) Devices and Corresponding Methods for Providing Spatial Information for Intervention Devices in Live 2D X-ray Images
US10049480B2 (en) Image alignment device, method, and program
JP6211239B1 (en) Endoscope device
WO2022190366A1 (en) Shape measurement system for endoscope and shape measurement method for endoscope
US20230032791A1 (en) Measuring method and a measuring device
JP6335839B2 (en) Medical device, medical image generation method, and medical image generation program