JP2017205343A - Endoscope device and method for operating endoscope device - Google Patents
Endoscope device and method for operating endoscope device Download PDFInfo
- Publication number
- JP2017205343A JP2017205343A JP2016100592A JP2016100592A JP2017205343A JP 2017205343 A JP2017205343 A JP 2017205343A JP 2016100592 A JP2016100592 A JP 2016100592A JP 2016100592 A JP2016100592 A JP 2016100592A JP 2017205343 A JP2017205343 A JP 2017205343A
- Authority
- JP
- Japan
- Prior art keywords
- image
- endoscope
- dimensional model
- unit
- predetermined object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、被検体の3次元モデル画像に関連付けて被検体の内部に存在する所定の対象物を表示する内視鏡装置、内視鏡装置の作動方法に関する。 The present invention relates to an endoscope apparatus that displays a predetermined object existing inside a subject in association with a three-dimensional model image of the subject, and an operation method of the endoscope apparatus.
内視鏡で管腔内を観察する際に、2次元の画像として取得される内視鏡画像を表示すると共に、管腔の3次元モデル画像を生成して表示することにより、観察状況をユーザに提示する観察支援システムとしての機能を備えた内視鏡装置が提案されている。 When observing the inside of a lumen with an endoscope, an endoscopic image acquired as a two-dimensional image is displayed, and a three-dimensional model image of the lumen is generated and displayed, so that the observation state can be displayed by the user. An endoscope apparatus having a function as an observation support system to be presented is proposed.
また、2次元の内視鏡画像により観察を行っているときに、病変あるいは結石などの所定の対象物を発見した場合には、発見時の内視鏡の先端位置をマーキングすることにより、おおよその所定の対象物の位置をユーザに提示する技術も提案されている。 When a predetermined target such as a lesion or a calculus is found while observing with a two-dimensional endoscope image, marking the tip position of the endoscope at the time of discovery A technique for presenting the position of a predetermined object to a user has also been proposed.
例えば、国際公開WO2013/132880号には、事前に取得したX線画像データおよびX線撮影位置データに基づいて結石等の位置を算出し、結石等の位置が重畳表示された3次元データを画像処理して、表示装置に表示するための2次元画像を作成する技術が記載されている。 For example, in International Publication No. WO2013 / 132880, a position of a calculus is calculated based on previously acquired X-ray image data and X-ray imaging position data, and three-dimensional data in which the position of the calculus is superimposed is displayed as an image. Techniques for processing and creating a two-dimensional image for display on a display device are described.
また、特開平10−234662号公報には、サブ画面に表示した立体モデル画像おける、予め記憶している腫瘍等が位置する座標に、腫瘍等を示す図形を作成する技術が記載されている。さらに、該公報には、内視鏡スコープの先端状況(視線方向、視点位置、術者の頭方向)を示すインジケータ画像を、立体モデル画像上に表示することも記載されている。 Japanese Patent Application Laid-Open No. 10-234662 describes a technique for creating a figure indicating a tumor or the like at coordinates stored in advance in a stereoscopic model image displayed on a sub-screen. Furthermore, this publication also describes that an indicator image indicating the distal state of the endoscope scope (the line-of-sight direction, the viewpoint position, and the operator's head direction) is displayed on the stereoscopic model image.
さらに、国際公開WO2015/190186号には、位置検出装置で取得された位置情報を、3次元画像に対して位置合わせし、位置合わせされた位置情報で示される位置に、画角表示情報を重畳する技術が記載されている。また、画角表示情報は、フリーズ画角表示ボタンの操作によってフリーズ表示されるようになっている。 Further, in International Publication No. WO2015 / 190186, position information acquired by a position detection device is aligned with a three-dimensional image, and angle-of-view display information is superimposed on a position indicated by the aligned position information. The technology to do is described. Further, the view angle display information is displayed in a freeze display by operating a freeze view angle display button.
そして、特表2008−537730号公報には、蛍光透視法で見ることができる放射性不透過性造影剤と、内視鏡観察装置を使用して見ることができる着色色素と、を含むマーキング材料で体腔をマーキングし、視覚的な表示を与える技術が記載されている。 JP 2008-537730 A discloses a marking material containing a radiopaque contrast agent that can be seen by fluoroscopy and a coloring pigment that can be seen using an endoscope observation apparatus. Techniques for marking body cavities and providing visual indications are described.
しかしながら、上記国際公開WO2013/132880号や上記特開平10−234662号公報に記載された技術では、結石や病変部などの所定の対象物の位置を、予めX線撮影等で取得しておく必要があり、内視鏡で観察中に発見した所定の対象物の位置をマーキングすることには対応していない。 However, in the techniques described in International Publication WO2013 / 132880 and Japanese Patent Application Laid-Open No. 10-234662, it is necessary to acquire the position of a predetermined object such as a calculus or a lesion by X-ray photography or the like in advance. However, it does not support marking the position of a predetermined object found during observation with an endoscope.
また、上記国際公開WO2015/190186号や上記特表2008−537730号公報に記載された技術は、内視鏡の先端またはその近傍位置をマーキングする技術であるために、マーキングされた位置の近傍のどこかに結石や病変部などの所定の対象物があることは把握できても、所定の対象物の正確な位置を把握することは困難である。 Moreover, since the technique described in the said international publication WO2015 / 190186 or the said special table 2008-537730 is a technique which marks the front-end | tip of an endoscope, or its vicinity position, it is the vicinity of the marked position. Even if it can be understood that there is a predetermined object such as a calculus or a lesion part somewhere, it is difficult to grasp the exact position of the predetermined object.
こうして、上記従来の技術では、内視鏡で観察中に発見した所定の対象物の位置を正確にマーキングすることは困難であった。そのために、ユーザが、前回の手技/検査で生成した管腔臓器モデルと、今回の手技/検査の観察状況とを比較しようとしても、比較しているのが同一の対象物であるかどうかを明確に判断することができなかった。 Thus, with the above-described conventional technology, it is difficult to accurately mark the position of a predetermined object found during observation with an endoscope. Therefore, even if the user tries to compare the luminal organ model generated in the previous procedure / examination with the observation status of the present procedure / examination, it is determined whether or not the comparison is the same object. It was not possible to judge clearly.
本発明は上記事情に鑑みてなされたものであり、内視鏡観察中に発見した所定の対象物の位置を正確にマーキングすることができる内視鏡装置、内視鏡装置の作動方法を提供することを目的としている。 The present invention has been made in view of the above circumstances, and provides an endoscope apparatus capable of accurately marking the position of a predetermined object discovered during endoscopic observation, and an operation method of the endoscope apparatus. The purpose is to do.
本発明のある態様による内視鏡装置は、3次元形状をなす被検体の内部を撮像して撮像画像を取得するように構成された撮像部を有する内視鏡と、前記被検体の3次元モデル画像を生成するように構成された3次元モデル画像生成部と、前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出するように構成された位置算出部と、前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行うように構成された第1の画像処理部と、を備える。 An endoscope apparatus according to an aspect of the present invention includes an endoscope having an imaging unit configured to capture an image of a subject having a three-dimensional shape and acquire a captured image, and the three-dimensional of the subject. A three-dimensional model image generation unit configured to generate a model image, and position information and azimuth information of the endoscope when a predetermined object existing inside the subject is imaged by the imaging unit; A position calculation unit configured to calculate position information of the predetermined object based on the three-dimensional model image, and a position indicated by the position information of the predetermined object A first image processing unit configured to perform first image processing on a model image or a two-dimensionally developed image obtained by two-dimensionally developing the three-dimensional model image.
本発明のある態様による内視鏡装置の作動方法は、内視鏡が有する撮像部が、3次元形状をなす被検体の内部を撮像して撮像画像を取得し、3次元モデル画像生成部が、前記被検体の3次元モデル画像を生成し、位置算出部が、前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出し、第1の画像処理部が、前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行う。 According to an operation method of an endoscope apparatus according to an aspect of the present invention, an imaging unit included in an endoscope captures a captured image by imaging an inside of a subject having a three-dimensional shape, and a three-dimensional model image generation unit Generating a three-dimensional model image of the subject, and the position calculating unit when the predetermined object existing inside the subject is imaged by the imaging unit; The position information of the predetermined object is calculated based on the three-dimensional model image, and the first image processing unit determines the position indicated by the position information of the predetermined object as the three-dimensional model. First image processing is performed to display the image or a two-dimensional developed image obtained by developing the three-dimensional model image in two dimensions.
本発明の内視鏡装置、内視鏡装置の作動方法によれば、内視鏡観察中に発見した所定の対象物の位置を正確にマーキングすることが可能となる。 According to the endoscope apparatus and the operation method of the endoscope apparatus of the present invention, it is possible to accurately mark the position of a predetermined object found during endoscopic observation.
以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
Embodiments of the present invention will be described below with reference to the drawings.
[Embodiment 1]
図1から図6は本発明の実施形態1を示したものであり、図1は内視鏡装置の構成を示すブロック図である。 1 to 6 show a first embodiment of the present invention, and FIG. 1 is a block diagram showing a configuration of an endoscope apparatus.
この内視鏡装置は、内視鏡1と、処理システム2とを備え、必要に応じてさらにデータベース3と表示装置4との少なくとも一方を備えていてもよい。以下では、内視鏡装置が、表示装置4を備えている場合を例に挙げて説明し、データベース3をさらに備えている場合については適宜説明する。
The endoscope apparatus includes an
内視鏡1は、3次元形状をなす被検体の内部を観察するために、被検体の内部の画像を取得する画像取得装置であり、撮像部11と、照明部12と、位置方位検出部13と、操作部14と、を備えている。これら内の撮像部11、照明部12、および位置方位検出部13は例えば内視鏡1の挿入部の先端部に配置され、操作部14は挿入部の手元側に連設されている。
The
なお、本実施形態においては、3次元形状をなす被検体として腎臓の腎盂腎杯を例に挙げるが、これに限定されるものではなく、複数の管路を有し内視鏡観察が可能な被検体であれば広く適用することができる。 In the present embodiment, the renal pelvic kidney gob is taken as an example of a subject having a three-dimensional shape. However, the present invention is not limited to this, and endoscope observation is possible with a plurality of ducts. Any subject can be widely applied.
照明部12は、被検体の内部へ向けて照明光を照射する。
The
撮像部11は、照明光を照射された被検体の内部の光学像を光学系により結像して撮像素子等により光電変換を行うことで撮像し、撮像画像を生成して取得する。
The
位置方位検出部13は、内視鏡1の挿入部の先端部の3次元位置を検出して位置情報として出力すると共に、内視鏡1の挿入部の先端部が向く方向を検出して方位情報として出力する。例えば、xyz座標系を設定する場合には、位置情報は(x,y,z)座標により表され、方位情報はx軸周りの角度、y軸周りの角度、およびz軸周りの角度により表される(従って、位置方位検出部13は、例えば6Dセンサなどとも呼ばれる)。なお、内視鏡1の位置情報および方位情報は、その他の適宜の方法(例えば極座標系など)を用いて表しても勿論構わない。
The position /
操作部14は、内視鏡1の湾曲操作等を行うものであると共に、マーキング操作を行うための部材を兼ねたものである。なお、マーキング操作は、フットスイッチ等により行ってもよいし、処理システム2に設けられた操作部により行っても構わないし、特定の構成により行うに限定されるものではない。
The
処理システム2は、内視鏡1を制御すると共に、必要に応じてデータベース3と通信し、内視鏡1から取得された撮像画像、位置情報および方位情報を処理して、表示用の画像データや記録用の画像データを生成し、表示装置4等へ出力するものである。なお、この処理システム2は、単一の装置として構成されていてもよいし、光源装置やビデオプロセッサなどの複数の装置から構成されていても構わない。
The
この処理システム2は、内視鏡画像生成部21と、3次元モデル画像生成部22と、画像処理部23と、画像合成出力部24と、照明制御部25と、制御部27と、を備えている。
The
内視鏡画像生成部21は、撮像部11から出力された撮像画像に、例えば、デモザイキング処理(または同時化処理)、ホワイトバランス処理、カラーマトリクス処理、ガンマ変換処理などの各種の画像処理を行って、内視鏡画像EI(図2等参照)を生成する。
The endoscopic
3次元モデル画像生成部22は、被検体の3次元モデル画像M3(図2等参照)を生成する。
The three-dimensional model
例えば、3次元モデル画像生成部22は、内視鏡画像生成部21により生成された内視鏡画像EIと、この内視鏡画像EIを生成する元となった撮像画像が撮像されたときに位置方位検出部13により検出された位置情報および方位情報と、を制御部27を介して複数フレーム分取得する。そして、3次元モデル画像生成部22は、複数フレームの内視鏡画像EIの位置関係を各フレームの位置情報および方位情報に基づき整合させながら、3次元モデル画像M3を生成するようになっている。この場合には、観察が進むにつれて3次元モデル画像M3(図2等参照)が次第に構築されることになる。
For example, the three-dimensional model
ただし、3次元モデル画像生成部22による3次元モデル画像M3の生成方法は、これに限定されるものではない。例えば、被検体に対する内視鏡検査が2回目もしくはそれ以降であり、過去の内視鏡検査によって生成された3次元モデルデータがデータベース3に既に記録されている場合には、その3次元モデルデータを用いてもよい。あるいは、被検体に対して造影CT撮影を行って取得したデータがデータベース3に既に記録されている場合には、その造影CTデータを用いて3次元モデル画像M3を生成するようにしても構わない。
However, the method of generating the three-dimensional model image M3 by the three-dimensional model
この3次元モデル画像M3は、例えば、3次元の被検体像をある視線方向から見たときの像であり、視線方向は変更可能となっている(すなわち、視線方向の変更に伴い、3次元モデル画像M3が回転するようになっている)。 The three-dimensional model image M3 is, for example, an image when a three-dimensional subject image is viewed from a certain line-of-sight direction, and the line-of-sight direction can be changed (that is, with the change of the line-of-sight direction, three-dimensional The model image M3 is rotated).
画像処理部23は、第1画像処理部23aを備えている。
The
第1画像処理部23aは、所定の対象物(なお、本実施形態においては所定の対象物として結石42(図2等参照)を例に挙げるが、病変部でも構わないし、その他の対象物であってもよいし、特定の対象物に限定されるものではない)の位置情報(この所定の対象物の位置情報は、後述する位置算出部26により算出される)で示される位置を、3次元モデル画像生成部22により生成された3次元モデル画像M3上に表示する第1の画像処理を行う。具体的に、第1画像処理部23aは、3次元モデル画像M3上の、所定の対象物である結石42の位置情報で示される位置に、結石マークMK1を追加すること(つまり、マーキング)を行う。従って、第1画像処理部23aは、対象物マーキング部である。
The first
ここでは第1画像処理部23aが、第1の画像処理として、所定の対象物の位置情報で示される位置を、3次元モデル画像M3上に表示する処理を行っているが、これに限定されるものではない。例えば、第1画像処理部23aが、第1の画像処理として、所定の対象物の位置情報で示される位置を、3次元モデル画像M3を2次元に展開した2次元展開画像上に表示する処理を行っても構わない。
Here, the first
画像合成出力部24は、内視鏡画像生成部21により生成された内視鏡画像EIと、画像処理部23により生成された3次元モデル画像M3と、を1つの画像に合成して、表示装置4へ出力する。
The image
照明制御部25は、照明部12が照射する照明光のオン/オフや光量を制御するものである。ここに、照明制御部25が光源装置であって照明部12がライトガイド等であってもよいし、照明制御部25が発光制御回路であって照明部12がLED等の発光源であっても構わない。
The
制御部27は、処理システム2の全体を制御し、さらに内視鏡1の制御も行うものであり、上述した内視鏡画像生成部21、3次元モデル画像生成部22、画像処理部23、画像合成出力部24、および照明制御部25と接続されている。
The
そして、制御部27は、位置算出部26を備えている。位置算出部26は、被検体の内部に存在する所定の対象物を撮像部11により撮像したときの内視鏡1の位置情報および方位情報と、3次元モデル画像M3と、に基づき、所定の対象物の位置情報を算出する。
The
データベース3は、例えば院内システム等を介して処理システム2に接続されており、上述したように、3次元モデル画像を生成する際の元データとなる、被検体の造影CTデータ、過去の内視鏡検査によって生成された被検体の3次元モデルデータなどを記録している。
The database 3 is connected to the
表示装置4は、画像合成出力部24から出力された内視鏡画像EIおよび3次元モデル画像M3を含む画像を表示する。
The
次に、図2は、内視鏡画像EIおよび3次元モデル画像M3を表示する表示装置4の表示例を示す図である。
Next, FIG. 2 is a diagram illustrating a display example of the
表示装置4には、内視鏡画像表示部4aと、3次元モデル画像表示部4bと、が設けられている。
The
内視鏡画像表示部4aには、内視鏡画像EIが表示されている。この内視鏡画像EIは、被検体である腎杯41の内部に存在する、所定の対象物である結石42を、撮像部11により撮像して取得された撮像画像に基づき、内視鏡画像生成部21により生成された画像である。この図2では、結石42が内視鏡画像EIの中央部に写っており、撮像部11の光学系のほぼ光軸上に結石42が位置する例となっている。
An endoscopic image EI is displayed on the endoscopic
3次元モデル画像表示部4bには、3次元モデル画像生成部22により生成された3次元モデル画像M3が表示されている。この図2には、上述したような、観察が進むにつれて次第に構築されていく3次元モデル画像M3を示しているために、未観察領域UORが存在することを、未観察領域UORへの接続部分の表示態様(例えば、色(色相、彩度、明度)、模様、または色と模様の組み合わせなど)を異ならせることで表示している。幾つかの具体例を挙げれば、未観察領域UORへの接続部分を赤の色相で表示する(赤色表示)、未観察領域UORへの接続部分の彩度を下げて表示する(モノクロ表示)、未観察領域UORへの接続部分の明度を上げて表示する(ハイライト表示)、等である。
A 3D model image M3 generated by the 3D model
そして、3次元モデル画像M3上には、第1画像処理部23aにより追加された結石マークMK1と、内視鏡マークELと、が表示されている。この図2に示す例においては、結石マークMK1は例えば球状であり、内視鏡マークELは内視鏡1の挿入部の湾曲形状に沿った曲線状をなしている。なお、3次元モデル画像M3の内部に位置する結石マークMK1と、内視鏡マークELが視認できるよう3次元モデル画像M3の透過明度が調整されている。
On the three-dimensional model image M3, a calculus mark MK1 added by the first
また、図3は、3次元モデル画像M3における結石位置の表示例を示す図である。この図3に示すように、内視鏡マークELは表示しなくても構わない。あるいは、内視鏡マークELの表示のオン/オフをユーザが所望に切り替えられるようにしてもよい。 FIG. 3 is a diagram illustrating a display example of a calculus position in the three-dimensional model image M3. As shown in FIG. 3, the endoscope mark EL need not be displayed. Alternatively, the user may switch on / off the display of the endoscope mark EL as desired.
ここで、位置算出部26による所定の対象物の位置情報の算出について、図4および図5を参照して説明する。3次元モデル画像M3と内視鏡1の位置情報および方位情報とを用いた位置算出部26による位置情報の算出方法は、例えば、次のような2通りの方法がある。
Here, calculation of position information of a predetermined object by the
第1の方法は、所定の対象物が内視鏡画像EIの中央部に位置すると見なして、所定の対象物の位置情報を算出する簡易的な方法である。 The first method is a simple method for calculating the position information of the predetermined object on the assumption that the predetermined object is located at the center of the endoscopic image EI.
また、第2の方法は、所定の対象物が内視鏡画像EIの中央部からどの方向にどれだけずれているかに基づいて、所定の対象物の位置情報をより正確に算出する方法である。 In addition, the second method is a method of calculating the position information of the predetermined object more accurately based on how much the predetermined object is displaced in which direction from the central portion of the endoscopic image EI. .
第2の方法は、第1の方法よりも正確な位置情報を取得できるが、内視鏡画像EI内の結石42を画像認識により検出する必要があり、演算処理が複雑になる。従って、内視鏡画像EIの中央部に結石42が位置する場合には、第1の方法を用いれば足りるし、結石42を画像認識できない場合には、第1の方法を用いることになる。
Although the second method can obtain more accurate position information than the first method, it is necessary to detect the
これら第1の方法と第2の方法の使い分けとしては、例えば、ユーザが操作部14等から操作を行ったことによりマーキングを行うためのトリガ信号が生成された場合に第1の方法で結石42の位置情報を生成し、画像処理部23による画像認識処理で結石42が発見されたことによりマーキングを行うためのトリガ信号が生成された場合に第2の方法で結石42の位置情報を生成する、等である。
The first method and the second method are selectively used by, for example, the
第1の方法について、図4を参照して説明する。図4は、内視鏡1と管腔臓器内の結石42との位置関係の一例を示す図である。
The first method will be described with reference to FIG. FIG. 4 is a diagram showing an example of the positional relationship between the
図4に示す例では、内視鏡1の撮像部11の光学系の光軸上に所定の対象物である結石42が存在している。
In the example shown in FIG. 4, there is a
位置算出部26は、内視鏡1の位置情報で示される位置から、内視鏡1の方位情報で示される方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、所定の対象物である結石42の位置情報として算出する。
The
具体的に、位置算出部26は、位置方位検出部13から取得される位置情報に基づき、3次元座標で表される内視鏡1の先端部位置Pを算出する。さらに、位置算出部26は、位置方位検出部13から取得される方位情報に基づき、内視鏡1の撮像部11の光学系の光軸方向ベクトルVDを算出する。そして、内視鏡1の先端部位置Pから、光軸方向ベクトルVDに沿って延長した直線が、3次元モデル画像M3における腎杯41の内壁と交差した点を、結石42の位置情報として算出する。
Specifically, the
次に、第2の方法について、図5を参照して説明する。図5は、内視鏡1と管腔臓器内の結石との位置関係の他の例を示す図である。
Next, the second method will be described with reference to FIG. FIG. 5 is a diagram illustrating another example of the positional relationship between the
図5に示す例では、内視鏡1の撮像部11の光学系の光軸上からずれた位置に、所定の対象物である結石42が存在している。
In the example illustrated in FIG. 5, a
位置算出部26は、所定の対象物である結石42を撮像部11により撮像して取得された撮像画像における結石42の位置と、内視鏡1の方位情報で示される方向と、に基づいて、内視鏡1の位置情報で示される位置から結石42へ向かう視線方向を算出し、内視鏡1の位置情報で示される位置から、視線方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、結石42の位置情報として算出する。
The
具体的に、内視鏡1の先端部位置Pから所定の距離に内視鏡画像の投影面VEIがあると想定したときに、内視鏡1の先端部位置Pから光軸方向ベクトルVDに沿って延長した直線は、内視鏡画像の投影面VEIの中心Oを通る。
Specifically, when it is assumed that there is a projection surface VEI of the endoscope image at a predetermined distance from the distal end position P of the
これに対して、内視鏡画像の投影面VEIにおける結石画像V42は、内視鏡画像の投影面VEIの中心Oからずれた位置にあるとする。この場合に位置算出部26は、内視鏡画像の投影面VEIの中心Oに対する結石画像V42の座標と、内視鏡1の先端部位置Pから内視鏡画像の投影面VEIまでの所定の距離と、に基づいて、内視鏡1の先端部位置Pから結石画像V42へ向かう視線ベクトルVEを算出する。そして、内視鏡1の先端部位置Pから、視線ベクトルVEに沿って延長した直線が、3次元モデル画像M3における腎杯41の内壁と交差した点を、結石42の位置情報として算出する。
On the other hand, it is assumed that the calculus image V42 on the projection plane VEI of the endoscopic image is at a position shifted from the center O of the projection plane VEI of the endoscopic image. In this case, the
上述したように、位置算出部26による位置情報算出の第1の方法は、3次元モデル画像M3と、内視鏡1の位置情報および方位情報と、を用いる方法であった。また、位置算出部26による位置情報算出の第2の方法は、3次元モデル画像M3と、内視鏡1の位置情報および方位情報と、撮像部11により撮像された撮像画像に基づいて生成された内視鏡画像EIと、を用いる方法であった。
As described above, the first method of position information calculation by the
しかし、位置算出部26による位置情報の算出方法は、これらに限定されるものではない。例えば、撮影位置の異なる複数枚の撮像画像(あるいは撮像画像に基づいて生成された内視鏡画像EI)に基づいて、視差を利用したステレオ計測技術を用いて、結石42の位置情報を算出するようにしても構わない。
However, the calculation method of the position information by the
次に、図6は、内視鏡装置の観察時の処理を示すフローチャートである。 Next, FIG. 6 is a flowchart showing processing during observation of the endoscope apparatus.
この処理を開始すると、ステップS1からステップS7のループを回っている間に新たな結石42が発見されたか否かを判定する(ステップS1)。
When this process is started, it is determined whether or not a
この結石42の発見は、ユーザにより行うか、または画像処理部23の画像認識処理により自動的に行う。
The discovery of the
自動判定を行う場合の結石42である旨の判定は、例えば、内視鏡画像EI内に結石42の輪郭が全て入ったときに行うものする。さらに自動判定を行う場合には、既に発見されている結石42の位置から所定の半径rの球の外部に結石42が発見された場合に、新たな結石42が発見されたと判定するものとする。
The determination to be a
このような処理を行うことにより、所定の半径rの球内に複数の結石42が存在する場合であっても、結石マークMK1は1つだけ表示されることになり、表示が煩雑になるのを避けて、見易くすることができる。
By performing such processing, only one calculus mark MK1 is displayed even if there are a plurality of
そして、ステップS1において新たな結石42が発見された場合には、制御部27がトリガ信号を生成する(ステップS2)。このトリガ信号は、ユーザが操作部14等に対して行ったマーキング操作に基づき、または、画像処理部23により新たな結石42が発見されたとの画像認識結果に基づき、制御部27が生成する。
And when the
すると、制御部27は、トリガ信号が生成された時点の内視鏡1の先端部の位置情報および方位情報を位置方位検出部13から取得し(ステップS3)、トリガ信号がユーザ操作に基づき生成された場合には上述した第1の方法により、トリガ信号が画像認識処理に基づき生成された場合には上述した第2の方法により、視線ベクトルVEを算出する(ステップS4)。ここに、第1の方法の場合には、光軸方向ベクトルVDが視線ベクトルVEに一致すると近似することに該当する。
Then, the
そして、内視鏡1の先端部位置Pから視線ベクトルVEの方向に延長した直線が、3次元モデル画像M3における腎杯41の内壁と交差した点の座標を、結石42の位置情報として算出する(ステップS5)。
Then, the coordinates of the point where the straight line extending from the distal end position P of the
第1画像処理部23aは、3次元モデル画像M3上における、ステップS5において算出した交点の座標の位置に、例えば球状の結石マークMK1を追加し、必要に応じて内視鏡マークELも追加してから、追加後の3次元モデル画像M3を画像合成出力部24へ出力する。ただし、内視鏡マークELについては、トリガ信号の有無に関わらず、リアルタイムの形状が追加されるようになっている。
The first
ここに、第1画像処理部23aが用いる3次元モデル画像M3は、ステップS1〜S6のループにおいて既に結石マークMK1が追加されている画像であるために、ステップS1〜S6のループを繰り返して行うに従って、結石マークMK1の数が増加して行くことになる。ただし、任意の結石マークMK1を、ユーザ操作に応じて所望に取り消すことができるようにしてもよい。
Here, since the three-dimensional model image M3 used by the first
画像合成出力部24は、内視鏡画像生成部21からの内視鏡画像EIと、画像合成出力部24からの3次元モデル画像M3とを図2に示すように合成して、表示装置4へ出力する。これにより、表示装置4には、結石マークMK1(必要に応じてさらに内視鏡マークEL)が追加された3次元モデル画像M3が、内視鏡画像EIと共に表示される(ステップS6)。
The image
このステップS6の処理を行った場合、またはステップS1において新たな結石が発見されていなかった場合には、内視鏡観察を終了するか否かを判定する(ステップS7)。 When the process of step S6 is performed, or when no new calculus has been found in step S1, it is determined whether or not to end the endoscopic observation (step S7).
ここで、内視鏡観察をまだ終了しないと判定された場合にはステップS1へ戻って上述したような処理を繰り返して行い、一方、内視鏡観察を終了すると判定された場合には、この処理を終える。 Here, when it is determined that the endoscopic observation is not yet finished, the process returns to step S1 and the above-described processing is repeated. On the other hand, when it is determined that the endoscopic observation is finished, Finish the process.
このような実施形態1によれば、内視鏡1の位置情報および方位情報と、3次元モデル画像M3と、に基づき、所定の対象物の位置情報を算出するようにしたために、内視鏡観察中に発見した所定の対象物の位置を正確に算出することができる。
According to the first embodiment, since the position information of the predetermined object is calculated based on the position information and orientation information of the
また、3次元モデル画像M3上、または3次元モデル画像M3を2次元に展開した2次元展開画像上の、算出により得られた所定の対象物の位置にマークを表示するようにしたために、所定の対象物の位置を正確にマーキングすることができる。 Further, since the mark is displayed at the position of the predetermined object obtained by the calculation on the three-dimensional model image M3 or on the two-dimensional development image obtained by two-dimensionally developing the three-dimensional model image M3, a predetermined value is displayed. The position of the object can be accurately marked.
こうして、内視鏡観察を行う前のCT撮影等を必須とすることなく、対象物の正確なマーキングを行うことが可能となり、ユーザは、所定の対象物の位置を正確に把握することができる。 In this way, it becomes possible to perform accurate marking of an object without requiring CT imaging before performing endoscopic observation, and the user can accurately grasp the position of a predetermined object. .
さらに、今回の手技/検査で算出した石と、次回の手技/検査で算出する石と、を比較することができるようになるために、より精度の高い診断および治療を行うことができる。 Furthermore, since it becomes possible to compare the stone calculated in the current procedure / examination with the stone calculated in the next procedure / examination, more accurate diagnosis and treatment can be performed.
そして、結石マークMK1が追加された3次元モデル画像M3を用いれば、患者に対する説明を、分かり易く正確に行うことが可能となる。 If the three-dimensional model image M3 to which the calculus mark MK1 is added is used, the patient can be explained easily and accurately.
また、内視鏡1の先端部位置Pから光軸方向ベクトルVDの方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、所定の対象物の位置情報として算出する場合には、所定の対象物を画像認識することができない場合でも、結石マークMK1等を表示することが可能となる。
Further, when the position of a point where a straight line extending from the distal end position P of the
一方、撮像画像における所定の対象物の位置と、光軸方向ベクトルVDと、に基づいて、所定の対象物へ向かう視線ベクトルVEを算出し、内視鏡1の先端部位置Pから視線ベクトルVEの方向に延長した直線が、3次元モデル画像M3と交わる点の位置を、所定の対象物の位置情報として算出する場合には、結石マークMK1等をより正確な位置で表示することが可能となる。
[実施形態2]
On the other hand, a line-of-sight vector VE toward the predetermined object is calculated based on the position of the predetermined object in the captured image and the optical axis direction vector VD, and the line-of-sight vector VE from the distal end position P of the
[Embodiment 2]
図7から図10は本発明の実施形態2を示したものであり、図7は内視鏡装置の構成を示すブロック図である。 7 to 10 show the second embodiment of the present invention, and FIG. 7 is a block diagram showing the configuration of the endoscope apparatus.
この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。 In the second embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.
上述した実施形態1では、トリガ信号に応じて結石マークMK1を3次元モデル画像M3等に追加するようにしていたが、本実施形態では、トリガ信号に応じて結石マークMK1と内視鏡1の例えば先端位置を示す先端マークMK2との何れか一方を3次元モデル画像M3等に追加するようにしたものとなっている。
In the first embodiment described above, the calculus mark MK1 is added to the three-dimensional model image M3 or the like according to the trigger signal. However, in the present embodiment, the calculus mark MK1 and the
まず、本実施形態の内視鏡装置は、図7に示すように、制御部27が、位置算出部26に加えて画像処理切替部31を備え、画像処理部23が、第1画像処理部23aに加えて第2画像処理部23bを備えている。ここに、第1画像処理部23aと第2画像処理部23bとは、独立した異なる回路として構成されていてもよいが、同一の回路を兼用する構成であっても構わない。
First, in the endoscope apparatus according to the present embodiment, as illustrated in FIG. 7, the
第2画像処理部23bは、内視鏡1の位置情報から求められる所定の領域を、例えば3次元モデル画像M3上に表示する第2の画像処理を行う。
The second image processing unit 23b performs second image processing for displaying a predetermined area obtained from the position information of the
画像処理切替部31は、3次元モデル画像生成部22により生成された3次元モデル画像M3に対して行う画像処理を、第1画像処理部23aによる第1の画像処理と、第2画像処理部23bによる第2の画像処理と、の何れか一方に切り替える処理を行う。この画像処理切替部31による画像処理の切り替えは、例えば操作部14からのユーザによる切り替え操作に基づき行う。
The image
上述した第2画像処理部23bが表示する所定の領域は、内視鏡1の先端部の位置(面積0の領域が点となる)、内視鏡1の先端部の位置を含む腎杯、内視鏡1の先端部の位置を含まない腎杯、などの何れでもよい。
The predetermined area displayed by the second image processing unit 23b described above includes the position of the distal end portion of the endoscope 1 (the area of area 0 is a point), the kidney cup including the position of the distal end portion of the
図8は、内視鏡1の先端部位置Pをマーキングする例を示す図である。
FIG. 8 is a diagram illustrating an example of marking the distal end portion position P of the
この図8に示す例では、内視鏡1の先端部位置P(図4、図5等参照)に対応する先端マークMK2が、内視鏡マークELと共に、3次元モデル画像M3に対して追加されている。ここに、図8に示す先端マークMK2は六面体となっており、上述した結石マークMK1の球状とは異なっている。このように、第1の画像処理で追加する結石マークMK1と、第2の画像処理で追加する先端マークMK2とは、マークの大きさ、形状、色、模様、あるいはこれらの組み合わせなどの表示態様を異ならせるとよい。
In the example shown in FIG. 8, a tip mark MK2 corresponding to the tip position P (see FIGS. 4, 5, etc.) of the
また、図9は、内視鏡1の先端部位置Pから求められる所定の領域をマーキングする例を示す図である。
FIG. 9 is a diagram illustrating an example of marking a predetermined region obtained from the distal end position P of the
この図9に示す例では、内視鏡1の先端部位置Pを含む腎杯の領域を塗りつぶすように、先端マークMK2’が3次元モデル画像M3に対して追加されている。
In the example shown in FIG. 9, a tip mark MK2 'is added to the three-dimensional model image M3 so as to fill the area of the kidney cup including the tip position P of the
続いて、図10は、内視鏡装置の観察時の処理を示すフローチャートである。 Next, FIG. 10 is a flowchart illustrating processing during observation of the endoscope apparatus.
この処理を開始すると、制御部27は、ユーザの切り替え操作に応じて画像処理切替部31により選択されているのが、第1画像処理であるか第2画像処理であるかを判定する(ステップS11)。
When this process is started, the
ここで第1画像処理が選択されていると判定された場合には、図6を参照して説明したのと同様の、結石マークMK1を3次元モデル画像M3に追加するためのステップS1〜S6の処理を行う。 If it is determined that the first image processing is selected, steps S1 to S6 for adding the calculus mark MK1 to the three-dimensional model image M3, similar to those described with reference to FIG. Perform the process.
一方、ステップS11において第2画像処理が選択されていると判定された場合には、操作部14等からのユーザによるマーキング操作がなされたか否かを判定する(ステップS12)。
On the other hand, when it is determined in step S11 that the second image processing is selected, it is determined whether or not a marking operation by the user from the
ここで、マーキング操作が行われたと判定された場合には、制御部27がトリガ信号を生成する(ステップS13)。
Here, when it is determined that the marking operation has been performed, the
すると、制御部27は、トリガ信号が生成された時点の内視鏡1の先端部の位置情報を位置方位検出部13から取得する(ステップS14)。
Then, the
第2画像処理部23bは、3次元モデル画像M3上における、ステップS14において取得した位置情報で示される座標の位置に、例えば六面体の先端マークMK2を追加してから、追加後の3次元モデル画像M3を画像合成出力部24へ出力する。
The second image processing unit 23b adds, for example, a hexahedral tip mark MK2 to the position of the coordinates indicated by the position information acquired in step S14 on the three-dimensional model image M3, and then adds the three-dimensional model image after the addition. M3 is output to the image
なお、内視鏡1の先端マークMK2についても、3次元モデル画像M3に表示するのに代えて、3次元モデル画像M3を2次元に展開した2次元展開画像上に表示しても構わないのは、上述した実施形態1の結石マークMK1の場合と同様である。
Note that the tip mark MK2 of the
画像合成出力部24は、上述したように画像合成を行うために、表示装置4には、新たな先端マークMK2が追加された3次元モデル画像M3が、内視鏡画像EIと共に表示される(ステップS15)。
In order to perform image composition as described above, the image
上述したステップS6の処理を行った場合、ステップS1において新たな結石が発見されていなかった場合、ステップS15の処理を行った場合、またはステップS12においてマーキング操作が行われていないと判定された場合には、ステップS7の処理を行って内視鏡観察を終了するか否かを判定する。ここで、内視鏡観察をまだ終了しないと判定された場合にはステップS11へ戻って上述したような処理を繰り返して行う。 When the process of step S6 described above is performed, when no new calculus is found in step S1, when the process of step S15 is performed, or when it is determined that the marking operation is not performed in step S12 In step S7, it is determined whether or not to end the endoscopic observation by performing the process in step S7. If it is determined that the endoscopic observation is not yet finished, the process returns to step S11 and the above-described processing is repeated.
こうして、ステップS11〜S7のループを繰り返して行うに従って、結石マークMK1と先端マークMK2とが増加して行くことになる(内視鏡マークELは、上述したように、リアルタイムの形状が表示される)。なお、上述と同様に、任意の結石マークMK1および任意の先端マークMK2を、ユーザ操作に応じて所望に取り消すことができるようにしてもよい。 Thus, as the loop of steps S11 to S7 is repeated, the calculus mark MK1 and the tip mark MK2 increase (the endoscope mark EL displays a real-time shape as described above. ). As described above, any calculus mark MK1 and any tip mark MK2 may be canceled as desired according to a user operation.
一方、ステップS7において内視鏡観察を終了すると判定された場合には、この処理を終える。 On the other hand, if it is determined in step S7 that the endoscopic observation is to be terminated, this process is terminated.
手技や検査を行う場合に、マーキングは結石42の位置を示すために用いられるだけでなく、その他の目的にも有効活用することができる。例えば、腎杯に対してマーキングすることで、その腎杯内に残石が無いという情報を残したい場合などである。従って、内視鏡1の先端部の位置をマーキングする第2の画像処理を可能とすることで、このような需要にも応えることができる。
When performing a procedure or an inspection, the marking can be used not only for indicating the position of the
また、例えば、あまり大きくない結石42が1つだけ存在する場合には、そのまま結石42を破砕して取り出す処置が行われることがある。これに対して、結石42が大きい場合や複数ある場合には、結石42の位置を予め覚えておいて、結石42を取り出し易い場所に移動してまとめてから、まとめた場所で結石42を破砕して取り出す処置が行われることがある。このために、結石42の位置を予め覚えておく際に、正確な結石42の位置を示す結石マークMK1が有用となる。また、結石42をまとめておく場所をマーキングする際には、先端マークMK2を利用することができる。従って、こうした用途にも、本実施形態の構成を有効に利用することができる。
Further, for example, when there is only one
このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、結石マークMK1等を表示する第1の画像処理と、先端マークMK2等を表示する第2の画像処理と、をユーザが所望に切り替えることができるようにしたために、先端マークMK2を、残石が無い腎杯のマーキングや、結石42をまとめた場所のマーキングなどに適応的に利用することができる。これにより、手技や検査をより効率的に行うことが可能となる。
[実施形態3]
According to the second embodiment, the first image processing for displaying the calculus mark MK1 and the like and the second image processing for displaying the tip mark MK2 and the like have the same effects as the first embodiment. Therefore, the tip mark MK2 can be used adaptively for marking of the goblet without the remaining stone, marking of the place where the
[Embodiment 3]
図11から図14は本発明の実施形態3を示したものであり、図11は内視鏡装置の制御部27に関連する構成を示すブロック図である。
11 to 14 show Embodiment 3 of the present invention, and FIG. 11 is a block diagram showing a configuration related to the
この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。 In the third embodiment, the same parts as those in the first and second embodiments are denoted by the same reference numerals and the description thereof is omitted as appropriate, and only different points will be mainly described.
本実施形態は、所定の対象物、具体例としては結石42の種類を判別して、判別した種類に応じて異なる表示態様で結石42の位置を表示するようにしたものとなっている。
In the present embodiment, a type of a predetermined object, specifically, a
本実施形態の内視鏡装置は、図11に示すように、制御部27が、位置算出部26に加えて判定部35を備えている。
In the endoscope apparatus according to the present embodiment, as shown in FIG. 11, the
判定部35は、所定の対象物を撮像部11により撮像して取得された撮像画像に基づいて、所定の対象物の種類を判定する。
The
また、第1画像処理部23aは、判定部35により判定された所定の対象物の種類に応じて、所定の対象物の位置情報で示される位置を表示する際の表示態様を異ならせる。
In addition, the first
具体的に、結石42を、埋没結石と浮動結石とに種類判定する場合の例について、図12〜図14を参照して説明する。ここに、埋没結石は、被検体の内部に埋め込まれるなどして移動が被検体と一体的である埋没型の結石、浮動結石は、被検体とは独立して移動可能な浮動型の結石を指す。
Specifically, an example in the case where the
まず、図13は、内視鏡装置の観察時の処理を示すフローチャートである。 First, FIG. 13 is a flowchart showing processing during observation of the endoscope apparatus.
この処理を開始すると、上述したステップS1〜S5の処理を行う。ただし、判定部35により結石42の種類を判定するには、結石42の画像認識が必要であるために、ここではトリガ信号が例えば画像認識処理に基づき生成され、視線ベクトルVEが上述した第2の方法により算出されているものとする(ただし、ユーザ操作に基づき生成されたトリガ信号に応じて、結石42の画像認識を行っても構わない)。
When this process is started, the above-described steps S1 to S5 are performed. However, in order to determine the type of the
そして、ステップS5の処理を行った後に、判定部35が、結石42の種類を判定する処理を行う(ステップS21)。
And after performing the process of step S5, the
ここで、図14は、図13における結石42の種類判定の処理を示すフローチャートである。
Here, FIG. 14 is a flowchart showing processing for determining the type of the
この処理に入ると、判定部35は、例えば、撮像部11により取得された取得時点の異なる複数枚の撮像画像に基づき、内視鏡画像生成部21により生成された複数枚の内視鏡画像EIを用いて、図12に示すような、結石42の移動ベクトルV1(図12参照)を算出する(ステップS31)と共に、結石42以外の例えば腎杯41内壁の移動ベクトルV2(図12参照)を算出する(ステップS32)。
Upon entering this process, the
ここに、図12は、取得時点の異なる複数枚の撮像画像に基づき得られる結石42の移動ベクトルV1と結石42以外の移動ベクトルV2の例を示す図である。
FIG. 12 is a diagram illustrating an example of the movement vector V1 of the
そして、判定部35は、移動ベクトルV1と移動ベクトルV2とが、一致するか否かを判定する(ステップS33)。
And the
ここで、移動ベクトルV1と移動ベクトルV2とが(許容範囲の誤差内で)一致する場合には、判定部35は、種類判定の対象となっている結石42が埋没結石であると判定する(ステップS34)。
Here, when the movement vector V1 and the movement vector V2 match (within an allowable range error), the
一方、移動ベクトルV1と移動ベクトルV2とが(許容範囲の誤差を超えて)一致しない場合には、判定部35は、種類判定の対象となっている結石42が浮動結石であると判定する(ステップS35)。
On the other hand, when the movement vector V1 and the movement vector V2 do not coincide (exceeding an allowable range error), the
こうして、ステップS34またはステップS35の処理を行って種類判定の結果が得られたら、図13の処理にリターンする。 When the process of step S34 or step S35 is thus performed and the result of the type determination is obtained, the process returns to the process of FIG.
図13の処理に戻ると、第1画像処理部23aは、所定の対象物である結石42が埋没結石であるか浮動結石であるかに応じて、位置を表示する際の結石マークMK1の表示態様を異ならせる。具体的には、結石42が埋没結石であるか浮動結石であるかに応じて、結石マークMK1の大きさ、形状、色、模様、あるいはこれらの組み合わせを異ならせる、等である。
Returning to the processing of FIG. 13, the first
画像合成出力部24は、内視鏡画像生成部21からの内視鏡画像EIと、画像合成出力部24からの3次元モデル画像M3とを図2に示すように合成して、表示装置4へ出力する。これにより、表示装置4には、結石42の種類に応じた結石マークMK1等が追加された3次元モデル画像M3が、内視鏡画像EIと共に表示される(ステップS6A)。
The image
その後は、ステップS7の判定を行って、終了しない場合にはステップS1へ戻り、終了する場合にはこの処理を終えることは、上述した実施形態1の図6に示した処理と同様である。 Thereafter, the determination in step S7 is performed, and if not completed, the process returns to step S1, and if completed, the process is terminated, as in the process shown in FIG. 6 of the first embodiment.
また、この実施形態3の変形例として、所定の対象物の大きさを判定するようにしてもよい。この場合には、判定部35が所定の対象物の大きさを判定し、第1画像処理部23aは、所定の対象物の大きさに応じて、位置を表示する際の表示態様を異ならせる。
As a modification of the third embodiment, the size of a predetermined object may be determined. In this case, the
具体的に、図5に示す内視鏡1の先端部位置Pから結石42までの距離は、3次元モデル画像M3を用いて算出することができる。一方、結石42の輪郭から、内視鏡画像EI内における結石42の画像の大きさを算出することができる。従って、距離と画像上の大きさとに基づいて、結石42の実際の大きさを算出することができる。
Specifically, the distance from the distal end position P of the
こうして、判定部により結石42の実際の大きさが算出されたら、その大きさに応じて、第1画像処理部23aが、結石マークMK1の表示態様、具体的には、大きさ、形状、色、模様、あるいはこれらの組み合わせなどを異ならせて表示するようにすればよい。
Thus, when the actual size of the
なお、この実施形態3に示したような構成において、上述した実施形態2で説明したような第1の画像処理と第2の画像処理とを切り替え可能な構成をさらに追加しても勿論構わない。 Of course, in the configuration as shown in the third embodiment, a configuration capable of switching between the first image processing and the second image processing as described in the second embodiment may be added. .
このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、撮像画像に基づいて所定の対象物の種類を判定し、判定された種類に応じて表示態様を異ならせるようにしたために、単に結石42の位置を正確に知ることができるだけでなく、どのような結石であるのかまでを把握することが可能となる。
According to the third embodiment, the same effects as those of the first and second embodiments described above are obtained, and the type of the predetermined object is determined based on the captured image, and the display mode is determined according to the determined type. Therefore, it is possible not only to accurately know the position of the
具体的に、腎杯との移動ベクトルの相違に基づき結石42が埋没結石であるか浮動結石であるかを判定する場合には、結石マークMK1を見るだけで、何れであるかを認識することができる。
Specifically, when determining whether the
また、結石42の大きさを判定する場合には、結石マークMK1を見るだけで、どの程度の大きさの結石42であるかを認識することができる。
Further, when determining the size of the
なお、上述した各部は、回路として構成されていてもよい。そして、任意の回路は、同一の機能を果たすことができれば、単一の回路として実装されていてもよいし、複数の回路を組み合わせたものとして実装されていても構わない。さらに、任意の回路は、目的とする機能を果たすための専用回路として構成されるに限るものではなく、汎用回路に処理プログラムを実行させることで目的とする機能を果たす構成であっても構わない。 In addition, each part mentioned above may be comprised as a circuit. Any circuit may be mounted as a single circuit or a combination of a plurality of circuits as long as it can perform the same function. Furthermore, an arbitrary circuit is not limited to being configured as a dedicated circuit for performing a target function, and may be configured to perform a target function by causing a general-purpose circuit to execute a processing program. .
また、上述では主として内視鏡装置について説明したが、内視鏡装置を上述したように作動させる作動方法であってもよいし、コンピュータに内視鏡装置と同様の処理を行わせるための処理プログラム、該処理プログラムを記録するコンピュータにより読み取り可能な一時的でない記録媒体、等であっても構わない。 In the above description, the endoscope apparatus has been mainly described. However, an operation method for operating the endoscope apparatus as described above may be used, or a process for causing a computer to perform the same process as the endoscope apparatus. It may be a program, a non-temporary recording medium readable by a computer for recording the processing program, or the like.
さらに、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。 Furthermore, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various aspects of the invention can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.
1…内視鏡
2…処理システム
3…データベース
4…表示装置
4a…内視鏡画像表示部
4b…3次元モデル画像表示部
11…撮像部
12…照明部
13…位置方位検出部
14…操作部
21…内視鏡画像生成部
22…3次元モデル画像生成部
23…画像処理部
23a…第1画像処理部
23b…第2画像処理部
24…画像合成出力部
25…照明制御部
26…位置算出部
27…制御部
31…画像処理切替部
35…判定部
41…腎杯
42…結石
EI…内視鏡画像
EL…内視鏡マーク
M3…3次元モデル画像
MK1…結石マーク
MK2,MK2’…先端マーク
O…内視鏡画像の投影面の中心
P…内視鏡の先端部位置
UOR…未観察領域
V1,V2…移動ベクトル
V42…内視鏡画像の結石画像
VD…光軸方向ベクトル
VE…視線ベクトル
VEI…内視鏡画像の投影面
DESCRIPTION OF
Claims (9)
前記被検体の3次元モデル画像を生成するように構成された3次元モデル画像生成部と、
前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出するように構成された位置算出部と、
前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行うように構成された第1の画像処理部と、
を備えることを特徴とする内視鏡装置。 An endoscope having an imaging unit configured to capture an image of a subject having a three-dimensional shape and acquire a captured image;
A three-dimensional model image generation unit configured to generate a three-dimensional model image of the subject;
The position of the predetermined object based on the position information and orientation information of the endoscope when the predetermined object existing inside the subject is imaged by the imaging unit, and the three-dimensional model image. A position calculator configured to calculate information;
The first image processing is performed to display the position indicated by the position information of the predetermined object on the three-dimensional model image or on a two-dimensional developed image obtained by two-dimensionally developing the three-dimensional model image. A first image processing unit configured to:
An endoscope apparatus comprising:
前記第1の画像処理部による前記第1の画像処理と、前記第2の画像処理部による前記第2の画像処理と、の何れか一方に切り替えるように構成された画像処理切替部と、
をさらに備えることを特徴とする請求項1に記載の内視鏡装置。 Second image processing is performed to display a predetermined region obtained from position information of the endoscope on the three-dimensional model image or on a two-dimensional developed image obtained by two-dimensionally developing the three-dimensional model image. A second image processing unit configured to:
An image processing switching unit configured to switch to any one of the first image processing by the first image processing unit and the second image processing by the second image processing unit;
The endoscope apparatus according to claim 1, further comprising:
前記第1の画像処理部は、前記判定部により判定された前記所定の対象物の種類に応じて、該所定の対象物の前記位置情報で示される位置を表示する際の表示態様を異ならせるように構成されていることを特徴とする請求項1に記載の内視鏡装置。 A determination unit configured to determine the type of the predetermined object based on the captured image acquired by imaging the predetermined object by the imaging unit;
The first image processing unit changes a display mode when displaying the position indicated by the position information of the predetermined object according to the type of the predetermined object determined by the determination unit. The endoscope apparatus according to claim 1, configured as described above.
前記判定部は、取得時点の異なる複数枚の前記撮像画像に基づき得られる結石の移動ベクトルと結石以外の移動ベクトルとが、一致する場合に埋没結石であると判定し、一致しない場合に浮動結石であると判定するように構成され、
前記第1の画像処理部は、前記所定の対象物が埋没結石であるか浮動結石であるかに応じて、位置を表示する際の表示態様を異ならせることを特徴とする請求項6に記載の内視鏡装置。 The predetermined object is a calculus inside the subject,
The determination unit determines that a stone movement vector obtained based on a plurality of the captured images at different acquisition points and a movement vector other than a stone match an embedded stone, and if not, a floating stone Is configured to determine that
The said 1st image process part changes the display mode at the time of displaying a position according to whether the said predetermined target object is an embedded stone or a floating stone. Endoscope device.
前記第1の画像処理部は、前記所定の対象物の大きさに応じて、位置を表示する際の表示態様を異ならせることを特徴とする請求項6に記載の内視鏡装置。 The determination unit is configured to determine a size of the predetermined object;
The endoscope apparatus according to claim 6, wherein the first image processing unit changes a display mode when displaying a position in accordance with a size of the predetermined object.
3次元モデル画像生成部が、前記被検体の3次元モデル画像を生成し、
位置算出部が、前記被検体の内部に存在する所定の対象物を前記撮像部により撮像したときの前記内視鏡の位置情報および方位情報と、前記3次元モデル画像と、に基づき、前記所定の対象物の位置情報を算出し、
第1の画像処理部が、前記所定の対象物の前記位置情報で示される位置を、前記3次元モデル画像上、または前記3次元モデル画像を2次元に展開した2次元展開画像上に表示する第1の画像処理を行うことを特徴とする内視鏡装置の作動方法。 The imaging unit of the endoscope captures a captured image by imaging the inside of the subject having a three-dimensional shape,
A three-dimensional model image generation unit generates a three-dimensional model image of the subject;
Based on the position information and azimuth information of the endoscope and the three-dimensional model image when the position calculation unit images a predetermined object existing inside the subject by the imaging unit. Calculate location information for
The first image processing unit displays the position indicated by the position information of the predetermined object on the three-dimensional model image or on a two-dimensional development image obtained by two-dimensionally developing the three-dimensional model image. An operation method of an endoscope apparatus, characterized by performing first image processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016100592A JP2017205343A (en) | 2016-05-19 | 2016-05-19 | Endoscope device and method for operating endoscope device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016100592A JP2017205343A (en) | 2016-05-19 | 2016-05-19 | Endoscope device and method for operating endoscope device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017205343A true JP2017205343A (en) | 2017-11-24 |
Family
ID=60414741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016100592A Pending JP2017205343A (en) | 2016-05-19 | 2016-05-19 | Endoscope device and method for operating endoscope device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017205343A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082892A1 (en) | 2017-10-24 | 2019-05-02 | 株式会社Lily MedTech | Ultrasound diagnostic system and ultrasound diagnostic method |
CN111770716A (en) * | 2018-02-21 | 2020-10-13 | 奥林巴斯株式会社 | Medical system and control method for medical system |
WO2022124315A1 (en) * | 2020-12-08 | 2022-06-16 | 国立研究開発法人産業技術総合研究所 | Endoscopic diagnosis assistance method and endoscopic diagnosis assistance system |
US11969141B2 (en) | 2018-03-23 | 2024-04-30 | Sony Olympus Medical Solutions Inc. | Medical display controlling apparatus and display controlling method |
-
2016
- 2016-05-19 JP JP2016100592A patent/JP2017205343A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082892A1 (en) | 2017-10-24 | 2019-05-02 | 株式会社Lily MedTech | Ultrasound diagnostic system and ultrasound diagnostic method |
CN111770716A (en) * | 2018-02-21 | 2020-10-13 | 奥林巴斯株式会社 | Medical system and control method for medical system |
CN111770716B (en) * | 2018-02-21 | 2023-12-01 | 奥林巴斯株式会社 | Medical system and control method for medical system |
US11969141B2 (en) | 2018-03-23 | 2024-04-30 | Sony Olympus Medical Solutions Inc. | Medical display controlling apparatus and display controlling method |
WO2022124315A1 (en) * | 2020-12-08 | 2022-06-16 | 国立研究開発法人産業技術総合研究所 | Endoscopic diagnosis assistance method and endoscopic diagnosis assistance system |
JP7388648B2 (en) | 2020-12-08 | 2023-11-29 | 国立研究開発法人産業技術総合研究所 | Endoscopic diagnosis support method and endoscopic diagnosis support system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10706610B2 (en) | Method for displaying an object | |
CN107374729B (en) | Operation navigation system and method based on AR technology | |
JP6323183B2 (en) | Image processing apparatus and image processing method | |
JP2022172134A (en) | Surgical system and method with bleeding detection unit | |
JP5810248B2 (en) | Endoscope system | |
KR20190078540A (en) | Use of augmented reality to assist navigation during medical procedures | |
JP5771757B2 (en) | Endoscope system and method for operating endoscope system | |
JP5977900B2 (en) | Image processing device | |
JP5750669B2 (en) | Endoscope system | |
US20190043215A1 (en) | Endoscope apparatus | |
JP6932135B2 (en) | Computational device for superimposing laparoscopic images and ultrasonic images | |
JP6141559B1 (en) | Medical device, medical image generation method, and medical image generation program | |
JP2017164007A (en) | Medical image processing device, medical image processing method, and program | |
JP2015228955A (en) | Image processing device, image processing method, and program | |
WO2016076262A1 (en) | Medical device | |
JP2017205343A (en) | Endoscope device and method for operating endoscope device | |
US10951837B2 (en) | Generating a stereoscopic representation | |
US9345394B2 (en) | Medical apparatus | |
US10631948B2 (en) | Image alignment device, method, and program | |
JP6770655B2 (en) | Devices and Corresponding Methods for Providing Spatial Information for Intervention Devices in Live 2D X-ray Images | |
US10049480B2 (en) | Image alignment device, method, and program | |
JP6211239B1 (en) | Endoscope device | |
WO2022190366A1 (en) | Shape measurement system for endoscope and shape measurement method for endoscope | |
US20230032791A1 (en) | Measuring method and a measuring device | |
JP6335839B2 (en) | Medical device, medical image generation method, and medical image generation program |