JP5530406B2 - Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device - Google Patents

Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device Download PDF

Info

Publication number
JP5530406B2
JP5530406B2 JP2011177723A JP2011177723A JP5530406B2 JP 5530406 B2 JP5530406 B2 JP 5530406B2 JP 2011177723 A JP2011177723 A JP 2011177723A JP 2011177723 A JP2011177723 A JP 2011177723A JP 5530406 B2 JP5530406 B2 JP 5530406B2
Authority
JP
Japan
Prior art keywords
insertion direction
endoscope
lumen
endoscopic image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011177723A
Other languages
Japanese (ja)
Other versions
JP2011235177A (en
Inventor
博一 西村
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011177723A priority Critical patent/JP5530406B2/en
Publication of JP2011235177A publication Critical patent/JP2011235177A/en
Application granted granted Critical
Publication of JP5530406B2 publication Critical patent/JP5530406B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

本発明は内視鏡の挿入方向検出方法に係り、特に医療分野における大腸及び工業分野におけるパイプ配管のように管腔構造を有する対象の観察及び検査に対する内視鏡挿入方向検出装置の作動方法および内視鏡挿入方向検出装置に関する。 The present invention relates to a method for detecting an insertion direction of an endoscope, and more particularly to an operation method of an endoscope insertion direction detection device for observation and inspection of an object having a lumen structure such as a large intestine in the medical field and a pipe pipe in the industrial field. The present invention relates to an endoscope insertion direction detection device .

近年、体腔内に可僥性を有する細長の挿入部を挿入することにより、体腔内臓器を観察したり、必要に応じチャンネル内に挿通した処置具を用いて各種治療処置のできる医療用内視鏡が広く利用されている。また、工業分野においても建造物の配管等の内部腐食状態の観察等に工業用内視鏡が用いられている。   In recent years, medical endoscopes that allow observation of internal organs of the body cavity by inserting a flexible elongated insertion part into the body cavity, and can perform various therapeutic treatments using a treatment tool inserted into the channel as necessary. Mirrors are widely used. Also in the industrial field, industrial endoscopes are used for observing the internal corrosion state of building piping and the like.

これらの各種検査における内視鏡の挿入においては、操作者である医師や技術者が内視鏡象を観察しながら、進行方向を判断している。   In insertion of an endoscope in these various examinations, a doctor or a technician who is an operator determines an advancing direction while observing an endoscopic image.

一方、例えば大腸検査における挿入手技は難易度が高く、非常に熟練を要するものとなっているが、その原因としては大腸の形状の複雑さ、管腔の狭さ、さらにはそれらの個人差があげられる。また、挿入は確実かつ慎重に行う必要があるため、経験の浅い医師には非常に負担がかかるものとなっている。   On the other hand, for example, the insertion procedure in the large intestine examination has a high degree of difficulty and requires a lot of skill. The causes include the complexity of the shape of the large intestine, the narrowness of the lumen, and their individual differences. can give. Moreover, since it is necessary to perform insertion reliably and carefully, it is very burdensome for an inexperienced doctor.

内視鏡の挿入は基本的に管腔の伸びる方向に向けて行われるが、常に内視鏡装置の視野内に管腔方向が存在しているとは限らず、大腸の屈曲する部位(シグモイド、肝湾曲、牌湾曲等)や腸壁・襞(ひだ、fold)に対する近接時等においては、操作者である医師の経験及び知識に基づき挿入方向を判断する必要がある。   Endoscope insertion is basically performed in the direction in which the lumen extends, but the lumen direction does not always exist in the field of view of the endoscopic device, and the bent part of the large intestine (sigmoid) In the case of proximity to the intestinal wall / fold (fold, etc.), it is necessary to determine the insertion direction based on the experience and knowledge of the doctor who is the operator.

このような条件下において、医師は多くの検査経験を積み、様々な判断要素を用いて挿入方向を決定して行く。   Under such conditions, doctors gain a lot of examination experience and determine the insertion direction using various judgment factors.

特許第2710384号Japanese Patent No. 2710384 特許第2680111号Japanese Patent No. 2680111

しかしながら、熟練していない医師にとってはどのような情報を用いてどのように判断するかという知識や経験が乏しく、管腔を再度視野にとらえるために内視鏡を引き戻す操作等が必要となり、検査時間の遅延や患者の苦痛等が発生する原因となっていた。   However, unskilled doctors have little knowledge and experience about what information to use and how to make judgments, and it is necessary to pull back the endoscope to capture the lumen in the field of view again. This was a cause of delays in time and patient distress.

また、工業分野における配管検査においても、配管を構成するパイプの複雑な屈曲等の理由により、挿入における操作者への負担が大きくなっていた。   Also, in the piping inspection in the industrial field, the burden on the operator during insertion has been increased due to complicated bending of the pipes constituting the piping.

一方、挿入方向検出手法として、特許第2710384号及び特許第2680111号が開示されているが、これらは画像視野内に存在する管腔を検出することを主眼としたものであり、視野内から管腔が外れた場合等において挿入方向を検出するという効果は得られなかった。   On the other hand, Japanese Patent No. 2710384 and Japanese Patent No. 2680111 have been disclosed as insertion direction detection methods, but these are mainly intended to detect a lumen existing in the image field of view, and the tube is viewed from within the field of view. The effect of detecting the insertion direction, for example, when the cavity was removed was not obtained.

本発明は、大腸内視鏡検査における粘膜表面の過近接時等、挿入方向検出が困難となった場合に操作者に適切な操作を促すことのできる内視鏡挿入方向検出装置の作動方法および内視鏡挿入方向検出装置を提供することを目的とする。 The present invention relates to an operating method of an endoscope insertion direction detecting device capable of prompting an operator to perform an appropriate operation when detection of the insertion direction becomes difficult, such as when the mucosal surface is too close in a colonoscopy, and An object of the present invention is to provide an endoscope insertion direction detecting device .

本発明の一態様の内視鏡挿入方向検出装置の作動方法は、内視鏡により管腔構造を有する被検体を観察して得られる内視鏡画像が入力される内視鏡挿入方向検出装置の作動方法であって、前記内視鏡挿入方向検出装置の処理部が、第1の内視鏡画像から前記内視鏡が観察対象に対し過近接状態にあるか否かを判定する第2のステップと、前記第2のステップにおいて前記過接近状態にないと判定された場合において、前記内視鏡挿入方向検出装置の処理部が、前記第1の内視鏡画像から管腔の移動を追跡する移動ベクトルを検出する第3のステップと、を有する。
本発明の一態様の内視鏡挿入方向検出装置は、内視鏡により管腔構造を有する被検体を観察して得られる第1の内視鏡画像が入力される入力部と、前記第1の内視鏡画像から前記内視鏡が前記被検体に対し過近接状態にあるか否かを判定し、前記過接近状態にないと判定された場合において、前記第1の内視鏡画像から管腔の移動を追跡する移動ベクトルを検出する処理部と、を備える。
An operation method of an endoscope insertion direction detection device according to one aspect of the present invention is an endoscope insertion direction detection device to which an endoscope image obtained by observing a subject having a lumen structure with an endoscope is input. a method of operating, the second processing unit of the endoscope insertion direction detecting device, determining whether the endoscope from a first endoscopic image is to observation target in excessively close state of the step, when it is determined that there is no the over-approaching state in the second step, the processing unit of the endoscope insertion direction detecting device, the movement of the lumen from the first endoscopic image Detecting a movement vector to be tracked .
An endoscope insertion direction detecting device according to an aspect of the present invention includes an input unit to which a first endoscope image obtained by observing a subject having a lumen structure with an endoscope is input, and the first From the first endoscopic image, it is determined whether or not the endoscope is in an over-proximity state with respect to the subject. And a processing unit that detects a movement vector that tracks the movement of the lumen.

本発明によれば、大腸内視鏡検査における粘膜表面の過近接時等、挿入方向検出が困難となった場合に操作者に適切な操作を促すことのできる内視鏡挿入方向検出装置の作動方法および内視鏡挿入方向検出装置を提供することができる。 According to the present invention, the operation of the endoscope insertion direction detection device that can prompt the operator to perform an appropriate operation when detection of the insertion direction becomes difficult, such as when the mucosal surface is too close in a colonoscopy A method and an endoscope insertion direction detection device can be provided.

本発明の第1の実施の形態に係る内視鏡装置の全体構成を示す構成図The block diagram which shows the whole structure of the endoscope apparatus which concerns on the 1st Embodiment of this invention. 図1の内視鏡の挿入を説明するための説明図Explanatory drawing for demonstrating insertion of the endoscope of FIG. 図1の挿入方向検出装置の構成を示す構成図The block diagram which shows the structure of the insertion direction detection apparatus of FIG. 図3の挿入方向検出装置の表示装置における挿入方向の表示を説明する図The figure explaining the display of the insertion direction in the display apparatus of the insertion direction detection apparatus of FIG. 図3の挿入方向検出装置における挿入方向判断対象となる内視鏡像の例を示す第1の説明図1st explanatory drawing which shows the example of the endoscopic image used as the insertion direction judgment object in the insertion direction detection apparatus of FIG. 図3の挿入方向検出装置における挿入方向判断対象となる内視鏡像の例を示す第2の説明図2nd explanatory drawing which shows the example of the endoscopic image used as the insertion direction judgment object in the insertion direction detection apparatus of FIG. 図1の内視鏡の挿入状態を説明する図The figure explaining the insertion state of the endoscope of FIG. 図3の挿入方向検出装置における挿入方向検出処理を説明するためのフローチャートThe flowchart for demonstrating the insertion direction detection process in the insertion direction detection apparatus of FIG. 図8の処理での管腔方向検出におけるサンプリング画素の設定を説明するための説明図Explanatory drawing for demonstrating the setting of the sampling pixel in the lumen direction detection in the process of FIG. 図8の処理での勾配ベクトル算出のための空間微分処理を説明する図The figure explaining the spatial differentiation process for the gradient vector calculation in the process of FIG. 図8の処理での勾配ベクトルに基づく管腔方向検出を説明するための第1の説明図First explanatory view for explaining lumen direction detection based on the gradient vector in the process of FIG. 図8の処理での勾配ベクトルに基づく管腔方向検出を説明するための第2の説明図FIG. 8 is a second explanatory diagram for explaining lumen direction detection based on the gradient vector in the process of FIG. 図8の処理でのサンプリング画素の他の設定を説明するための説明図Explanatory drawing for demonstrating the other setting of the sampling pixel in the process of FIG. 図8の処理における領域分割を用いた処理を説明する図The figure explaining the process using the area division in the process of FIG. 図8の処理における画像最外周を管腔方向と関連付けるための分割を説明するための説明図Explanatory drawing for demonstrating the division | segmentation for associating the outermost periphery of an image with a luminal direction in the process of FIG. 図8の処理におけるベクトルの射影に関する説明図Explanatory drawing about vector projection in the processing of FIG. 本発明の第2の実施の形態に係る円弧形状を有するハレーションを説明する図The figure explaining the halation which has the circular arc shape based on the 2nd Embodiment of this invention 図17のハレーションに対応した挿入方向検出処理を説明するためのフローチャートThe flowchart for demonstrating the insertion direction detection process corresponding to the halation of FIG. 図18の処理での細線化処理を説明する図The figure explaining the thinning process in the process of FIG. 図18の処理でのサンプリングを説明する図The figure explaining the sampling in the process of FIG. 図18の処理でのハレーションの形状に対する円弧近似を説明するための説明図Explanatory drawing for demonstrating circular arc approximation with respect to the shape of halation in the process of FIG. 図18の処理での近似のための円弧中心の探索範囲を説明するための説明図Explanatory drawing for demonstrating the search range of the circular arc center for the approximation in the process of FIG. 図18の処理での管腔方向の決定方法を説明するための説明図Explanatory drawing for demonstrating the determination method of the luminal direction in the process of FIG. 図18の処理での膨張処理を説明する図The figure explaining the expansion process in the process of FIG. 図18の処理でのハレーションが複数存在する場合の処理内容を説明するための説明図Explanatory drawing for demonstrating the processing content in case there exist two or more halations in the process of FIG. 本発明の第3の実施の形態に係る挿入方向検出処理を説明するためのフローチャートThe flowchart for demonstrating the insertion direction detection process which concerns on the 3rd Embodiment of this invention. 図26の処理での管腔方向の決定方法を説明するための説明図Explanatory drawing for demonstrating the determination method of the luminal direction in the process of FIG. 図26の処理での円弧形状判定を説明するための説明図Explanatory drawing for demonstrating circular arc shape determination in the process of FIG. 本発明の第4の実施の形態に係る挿入方向検出処理を説明するためのフローチャートThe flowchart for demonstrating the insertion direction detection process which concerns on the 4th Embodiment of this invention. 図29の処理での管腔方向の決定方法を説明するための第1の説明図FIG. 29 is a first explanatory diagram for explaining a method for determining a lumen direction in the processing of FIG. 図29の処理での管腔方向の決定方法を説明するための第2の説明図FIG. 29 is a second explanatory diagram for explaining the method for determining the lumen direction in the process of FIG. 図29の処理での管腔方向の決定方法を説明するための第3の説明図3rd explanatory drawing for demonstrating the determination method of the luminal direction in the process of FIG. 図29の処理での管腔方向の決定方法を説明するための第4の説明図4th explanatory drawing for demonstrating the determination method of the luminal direction in the process of FIG. 本発明の第5の実施の形態に係る挿入方向検出処理を説明するためのフローチャートThe flowchart for demonstrating the insertion direction detection process which concerns on the 5th Embodiment of this invention. 図34の処理での移動ベクトルに基づく管腔方向検出が不適と判定される場合を説明するための説明図Explanatory drawing for demonstrating the case where it determines with the lumen direction detection based on the movement vector in the process of FIG. 34 being unsuitable 図34の処理での挿入方向検出が不適あるいは不能である場合の結果表示を説明するための説明図Explanatory drawing for demonstrating a result display when the insertion direction detection in the process of FIG. 34 is inappropriate or impossible.

以下、図を用いて本発明の実施形態について説明する。
なお、以下においては大腸への内視鏡の挿入に対する挿入方向の検出に関して説明するが、工業分野における配管等、管状の挿入対象に対して同様の処理を適用することが可能である。一般にパイプ等は体腔内臓器である大腸に比べ、剛性体であること、拍動等による対象の動きがないことから挿入方向の検出における条件は緩いため、良好な効果を得ることができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following, the detection of the insertion direction with respect to the insertion of the endoscope into the large intestine will be described, but the same processing can be applied to a tubular insertion target such as a pipe in the industrial field. In general, a pipe or the like is a rigid body compared to a large intestine that is an organ in a body cavity, and since there is no movement of a target due to pulsation or the like, conditions for detecting an insertion direction are loose, and thus a good effect can be obtained.

また、本発明における一連の実施の形態においては挿入方向の検出に基づく操作者への内視鏡挿入補助情報提示を主な目的としているが、内視鏡操作の自動化との組み合わせによる自動挿入への応用が当然可能である。この場合は検出した挿入方向に進行するように内視鏡自動操作を制御する。   In the series of embodiments of the present invention, the main purpose is to present endoscope insertion auxiliary information to the operator based on the detection of the insertion direction. However, automatic insertion by combination with automation of endoscope operation is performed. Of course, the application of is possible. In this case, the endoscope automatic operation is controlled so as to proceed in the detected insertion direction.

第1の実施の形態:
図1ないし図16は本発明の第1の実施の形態に係わり、図1は内視鏡装置の全体構成を示す構成図、図2は図1の内視鏡の挿入を説明するための説明図、図3は図1の挿入方向検出装置の構成を示す構成図、図4は図3の挿入方向検出装置の表示装置における挿入方向の表示を説明する図、図5は図3の挿入方向検出装置における挿入方向判断対象となる内視鏡像の例を示す第1の説明図、図6は図3の挿入方向検出装置における挿入方向判断対象となる内視鏡像の例を示す第2の説明図、図7は図1の内視鏡の挿入状態を説明する図、図8は図3の挿入方向検出装置における挿入方向検出処理を説明するためのフローチャート、図9は図8の処理での管腔方向検出におけるサンプリング画素の設定を説明するための説明図、図10は図8の処理での勾配ベクトル算出のための空間微分処理を説明する図、図11は図8の処理での勾配ベクトルに基づく管腔方向検出を説明するための第1の説明図、図12は図8の処理での勾配ベクトルに基づく管腔方向検出を説明するためsの第2の説明図、図13は図8の処理でのサンプリング画素の他の設定を説明するための説明図、図14は図8の処理における領域分割を用いた処理を説明する図、図15は図8の処理における画像最外周を管腔方向と関連付けるための分割を説明するための説明図、図16は図8の処理におけるベクトルの射影に関する説明図である。
First embodiment:
FIGS. 1 to 16 relate to the first embodiment of the present invention, FIG. 1 is a block diagram showing the overall configuration of the endoscope apparatus, and FIG. 2 is an explanation for explaining insertion of the endoscope of FIG. 3 is a configuration diagram showing the configuration of the insertion direction detection device of FIG. 1, FIG. 4 is a diagram for explaining the display of the insertion direction in the display device of the insertion direction detection device of FIG. 3, and FIG. 5 is the insertion direction of FIG. FIG. 6 is a first explanatory diagram illustrating an example of an endoscopic image that is an insertion direction determination target in the detection device, and FIG. 6 is a second description that illustrates an example of an endoscopic image that is an insertion direction determination target in the insertion direction detection device of FIG. 7 is a diagram for explaining the insertion state of the endoscope of FIG. 1, FIG. 8 is a flowchart for explaining the insertion direction detection processing in the insertion direction detection device of FIG. 3, and FIG. 9 is the processing in FIG. FIG. 10 is an explanatory diagram for explaining the setting of the sampling pixel in the lumen direction detection. FIG. 11 is a diagram for explaining the spatial differentiation process for calculating the gradient vector in the processing, FIG. 11 is a first explanatory diagram for explaining the lumen direction detection based on the gradient vector in the processing of FIG. 8, and FIG. FIG. 13 is an explanatory diagram for explaining another setting of the sampling pixel in the processing of FIG. 8, and FIG. 14 is an explanatory diagram for explaining other settings of the sampling pixel in the processing of FIG. FIG. 15 is a diagram for explaining processing using region division in the processing of FIG. 8, FIG. 15 is an explanatory diagram for explaining division for associating the outermost image periphery with the lumen direction in the processing of FIG. 8, and FIG. It is explanatory drawing regarding the projection of the vector in a process.

本発明の第1の実施の形態においては、画像視野内から管腔が外れた場合等において明暗の勾配方向に基づき管腔方向を決定する挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示することによりスムーズな内視鏡検査を実現することが可能となる挿入方向検出装置について説明する。   In the first embodiment of the present invention, an insertion direction detection method for determining a lumen direction based on the gradient direction of light and dark when the lumen deviates from the image field of view, and an operation based on the processing result of the method An insertion direction detecting device that can realize a smooth endoscopic examination by presenting insertion direction information to a person will be described.

はじめに、図1を用いて本実施の形態における内視鏡装置について説明する。図1において、本実施の形態の内視鏡装置は、内視鏡1と、制御装置6と、観察用モニタ9と、挿入方向を検出及び表示する挿入方向検出装置12と、A/D変換器11を備えている。   First, the endoscope apparatus according to the present embodiment will be described with reference to FIG. In FIG. 1, an endoscope apparatus according to the present embodiment includes an endoscope 1, a control device 6, an observation monitor 9, an insertion direction detection device 12 that detects and displays an insertion direction, and an A / D conversion. A container 11 is provided.

内視鏡1は、操作部2と、可撓性を有する挿入部3とを備えるとともに、挿入部3の先端に図示しない固体撮像素子(CCD)及び照射光を発するライトガイド端を備え、ライトガイド制御装置8とコネクタ5を介して接続される。   The endoscope 1 includes an operation unit 2 and a flexible insertion unit 3, and includes a solid-state imaging device (CCD) (not shown) and a light guide end that emits irradiation light at the distal end of the insertion unit 3. It is connected to the guide control device 8 via the connector 5.

また、内視鏡1は、照射光を伝達するファイバと映像信号及び各種制御情報を送受信するためのユニバーサルコード4とを備えており、挿入部3を大腸13に挿入することで体腔内の画像情報を得る。   The endoscope 1 also includes a fiber for transmitting the irradiation light and a universal cord 4 for transmitting and receiving video signals and various control information. By inserting the insertion portion 3 into the large intestine 13, an image inside the body cavity is provided. get information.

また、制御装置6は、内視鏡1に対する照射光を発生するための光源部7と、内視鏡1から入力される映像信号に対する信号処理を行うための映像信号処理回路8とを備えている。   Further, the control device 6 includes a light source unit 7 for generating irradiation light for the endoscope 1 and a video signal processing circuit 8 for performing signal processing on a video signal input from the endoscope 1. Yes.

制御装置6により映像化された体腔内の画像情報は、アナログRGB信号として観察モニタ9に入力されるとともに、A/D変換機11を介してディジタル化され、挿入方向検出装置12に入力される。   The image information in the body cavity visualized by the control device 6 is input as an analog RGB signal to the observation monitor 9, digitized via the A / D converter 11, and input to the insertion direction detection device 12. .

次に、図2を用いて内視鏡の挿入について、大腸検査を例に説明する。内視鏡1による大腸検査では、図2に示すように、内視鏡1の細長で可僥性を有する挿入部3を大腸13に挿入することにより、体腔内の観察を行うようになっている。挿入においては、操作者である医師は操作部2に備えられた図示しないアングルノブ(挿入部3に内蔵されたワイヤ等を介し内視鏡先端を上下・左右に湾曲させるための操作部)による先端の湾曲操作、挿入部3の押し引き及び捻り等の手技を駆使し、肛門から最深部である回盲部(小腸と大腸の連結する部位)までの観察を行う。   Next, insertion of an endoscope will be described with reference to FIG. In the large intestine examination by the endoscope 1, as shown in FIG. 2, by inserting the elongated and flexible insertion portion 3 of the endoscope 1 into the large intestine 13, the inside of the body cavity is observed. Yes. In insertion, a doctor who is an operator uses an angle knob (not shown) provided in the operation unit 2 (an operation unit for bending the endoscope tip up and down, left and right via a wire or the like built in the insertion unit 3). Using the technique of bending the tip, pushing and pulling the insertion part 3 and twisting, observation from the anus to the deepest part of the ileocecum (the part where the small and large intestines are connected) is performed.

次に、図3を用いて本実施の形態における挿入方向検出装置12の構成について説明する。   Next, the configuration of the insertion direction detection device 12 in the present embodiment will be described with reference to FIG.

図3に示すように、挿入方向検出装置12は、A/D変換器11より入力されるRGB画像信号に対し挿入方向検出に関わる一連の処理を実行するためのコンピュータ20と、挿入方向検出結果を表示するための表示装置21とを備えている。   As shown in FIG. 3, the insertion direction detection device 12 includes a computer 20 for executing a series of processes related to insertion direction detection on the RGB image signal input from the A / D converter 11, and an insertion direction detection result. And a display device 21 for displaying.

さらに、コンピュータ20は挿入方向検出を行うためのメインプログラム26を記憶した記憶装置25と、メインプログラム26を用いた挿入方向検出処理を実行するためのCPU(中央処理装置)23及びメインメモリ24と、A/D変換器11及び記憶装置25及び表示装置21とCPU23との間での各入出力を制御するためのI/O制御回路22とを備えている。   Further, the computer 20 stores a storage device 25 that stores a main program 26 for detecting an insertion direction, a CPU (central processing unit) 23 and a main memory 24 for executing an insertion direction detection process using the main program 26. , An A / D converter 11, a storage device 25, and an I / O control circuit 22 for controlling each input / output between the display device 21 and the CPU 23.

メインプログラム26は、本実施の形態における挿入方向検出にともなう一連の処理を実行するプログラムであるとともに、I/O制御回路22に対するA/D変換器11からの画像信号の取得要求、表示装置21への挿入方向検出処理結果表示要求等を行うようになっている。   The main program 26 is a program for executing a series of processing accompanying detection of the insertion direction in the present embodiment, an acquisition request for an image signal from the A / D converter 11 to the I / O control circuit 22, and the display device 21. Insertion direction detection processing result display request and the like are made.

なお、本実施の形態においては、内視鏡画像はA/D変換器11によりRGB各プレーンが0から255の値をとる8bitに量子化され、その画像サイズは水平及び垂直方向に対して各々ISX及びISYであるものとする。また、以降の説明においては、内視鏡画像を構成する画素の位置について画像左上端点を(0、0)、右下端点を (ISX-1、ISY-1)とした座標系に基づき表示する。   In the present embodiment, the endoscope image is quantized by the A / D converter 11 into 8 bits in which each RGB plane takes a value from 0 to 255, and the image size is respectively horizontal and vertical. Assume ISX and ISY. In the following description, the positions of pixels constituting the endoscopic image are displayed based on a coordinate system in which the upper left end point of the image is (0, 0) and the lower right end point is (ISX-1, ISY-1). .

次に、挿入方向検出装置12の表示装置21における挿入方向検出結果表示例について説明する。   Next, a display example of the insertion direction detection result on the display device 21 of the insertion direction detection device 12 will be described.

大腸のような管腔臓器に対しては、管腔の伸びている方向に向けて内視鏡を挿入する。このような場合、常に画像の視野内に管腔を捉えながら、確実かつ安全に挿入して行く必要がある。しかしながら、後述する様々な理由により視野内から管腔が外れることが多々あり、また、経験の浅い医師にはどの方向に管腔が存在するかを判断することが困難にである状況が頻繁に発生する。このような場合、視野内に管腔が入るよう一度内視鏡1を後退(引き抜く操作:以下、Pull Back操作と称する)させる必要があり、検査時間の遅延等の原因となっている。   For a hollow organ such as the large intestine, an endoscope is inserted in the direction in which the lumen extends. In such a case, it is necessary to insert it securely and safely while always capturing the lumen in the field of view of the image. However, there are many cases where the lumen is out of view for various reasons described later, and it is often difficult for inexperienced doctors to determine in which direction the lumen exists. Occur. In such a case, it is necessary to retract the endoscope 1 once so that the lumen enters the visual field (extraction operation: hereinafter referred to as “Pull Back operation”), which causes a delay in examination time.

本実施の形態における挿入方向検出装置12は、内視鏡画像中に明確な管腔が存在しない場合において挿入方向を画像処理手法の適用により検出し、検査を行う医師に対して挿入方向情報を提示することで、スムーズな内視鏡検査を実現する。   The insertion direction detection device 12 in the present embodiment detects the insertion direction by applying an image processing method when there is no clear lumen in the endoscopic image, and provides the insertion direction information to the doctor performing the examination. By presenting, smooth endoscopy is realized.

具体的な挿入方向情報としては、図4に示すように、内視鏡画像上に45°ごとの8方向のいずれかの矢印を重畳表示する。内視鏡検査を実施する医師は重畳された矢印の方向に内視鏡が進むように、アングル操作、押し引き、捻じり等の操作を行うことにより管腔を視野内に捉えることが可能となる。   As specific insertion direction information, as shown in FIG. 4, any arrow in 8 directions at 45 ° intervals is superimposed and displayed on the endoscopic image. Doctors who perform endoscopy can grasp the lumen in the visual field by performing operations such as angle operation, push-pull, and twisting so that the endoscope advances in the direction of the superimposed arrow. Become.

なお、本実施の形態においては説明の便宜上、挿入方向を8方向のいずれかとするが、22.5°ごとの16方向等より細分化して表示することも可能であり、検査を実施する医師の熟練度や必要に応じて適宜設定することができる。   In the present embodiment, for convenience of explanation, the insertion direction is any one of the eight directions, but it is possible to display it in more detail than 16 directions at 22.5 °, etc. It can be set as appropriate depending on the skill level and necessity.

次に、本実施の形態における挿入方向検出手法について説明する。   Next, an insertion direction detection method in the present embodiment will be described.

大腸検査における挿入手技は難易度が高く、非常に熟練を要するものとなっているが、その原因としては大腸の形状の複雑さ、管腔の狭さ、さらにはそれらの個人差があげられる。また、挿入は確実かつ慎重に行う必要があるため、経験の浅い医師には非常に負担がかかるものとなっている。内視鏡の挿入は基本的に管腔の伸びる方向に向けて行われるが、常に内視鏡装置の視野内に管腔方向が存在しているとは限らず、大腸の屈曲する部位(シグモイド、肝湾曲、牌湾曲等)や腸壁・襞(ひだ、fold)に対する内視鏡の過接近等においては操作者である医師の経験及び知識に基づき挿入方向を判断する必要がある。このような条件下において、医師は多くの検査経験を積み、様々な判断要素を用いて挿入方向を決定して行く。   The insertion procedure in the large intestine examination is very difficult and requires a lot of skill. The causes include the complexity of the shape of the large intestine, the narrowness of the lumen, and the individual differences between them. Moreover, since it is necessary to perform insertion reliably and carefully, it is very burdensome for an inexperienced doctor. Endoscope insertion is basically performed in the direction in which the lumen extends, but the lumen direction does not always exist in the field of view of the endoscopic device, and the bent part of the large intestine (sigmoid) When the endoscope is too close to the intestinal wall / fold (fold, etc.), it is necessary to determine the insertion direction based on the experience and knowledge of the doctor who is the operator. Under such conditions, doctors gain a lot of examination experience and determine the insertion direction using various judgment factors.

具体的には、例えば図5に示す内視鏡像においては、視野内に存在する明瞭な管腔から、直進方向に挿入を継続するものと判断できる。一方、図6に示す内視鏡像においては、視野内に管腔は存在しないため何らかの情報に基づき挿入方向、すなわち管腔の存在する方向を判断することとなる。   Specifically, for example, in the endoscopic image shown in FIG. 5, it can be determined that the insertion is continued in the straight direction from the clear lumen existing in the visual field. On the other hand, in the endoscopic image shown in FIG. 6, since there is no lumen in the field of view, the insertion direction, that is, the direction in which the lumen exists is determined based on some information.

本実施の形態では、視野内に管腔が存在しない場合等において挿入方向を決定するための技術として、明暗勾配(Gradientと呼ばれる)方向を用いた方向検出方法について説明する。   In the present embodiment, a direction detection method using a light / dark gradient (referred to as a gradient) direction will be described as a technique for determining an insertion direction when a lumen does not exist in the visual field.

視野内に管腔が存在しない場合の挿入方向の判断要素の一つとして、画像中の明暗変化方向があげられる。例えば大腸13と内視鏡の挿入部3の先端との位置関係が図7のような場合、内視鏡先端に近い位置から遠くなる位置にかけて大域的な明暗の変化が生ずる。挿入方向は内視鏡先端から遠い方向となることより、画像中の明部から暗部への変化方向の検知に基づき、挿入方向を検出することが可能となる。   One of the factors for determining the insertion direction when there is no lumen in the field of view is the light / dark change direction in the image. For example, when the positional relationship between the large intestine 13 and the distal end of the insertion portion 3 of the endoscope is as shown in FIG. 7, a global change in brightness occurs from a position closer to the distal end of the endoscope to a position farther away. Since the insertion direction is a direction far from the distal end of the endoscope, it is possible to detect the insertion direction based on detection of the change direction from the bright part to the dark part in the image.

図8に本実施の形態の挿入方向検出における一連の処理の流れを示す。ここではA/D変換器11を経由して入力される内視鏡画像信号の各フレームに対して処理を適用する。   FIG. 8 shows a flow of a series of processes in the insertion direction detection of the present embodiment. Here, processing is applied to each frame of the endoscopic image signal input via the A / D converter 11.

図8のステップS1において、入力される内視鏡画像のRGB画像の中で、R画像を取得する。本実施の形態においてはR画像を用いた処理について説明するが、G、B画像あるいは輝度画像(=0.3R+0.6G+0.1B)等を用いて同様の処理を適用することも可能である。   In step S1 of FIG. 8, an R image is acquired from among the RGB images of the input endoscopic image. In this embodiment, processing using an R image will be described. However, similar processing can be applied using a G, B image, a luminance image (= 0.3R + 0.6G + 0.1B), or the like.

続くステップS2において、R画像上にM個(Mは1以上の整数)のサンプリング画素を設定する。サンプリング画素は画像全体をサンプルするように定める。サンプリング画素の設定例を図9に示す。   In subsequent step S2, M sampling pixels (M is an integer of 1 or more) are set on the R image. Sampling pixels are defined to sample the entire image. An example of setting sampling pixels is shown in FIG.

ステップS3においては、各サンプリング画素の明暗勾配方向を得るための勾配ベクトルの算出を行う。本実施の形態においては、勾配ベクトルの算出手法として空間微分処理を使用する。図10は空間微分処理を用いた勾配ベクトル算出方法を説明するための説明図である。   In step S3, a gradient vector for obtaining the light / dark gradient direction of each sampling pixel is calculated. In the present embodiment, spatial differentiation processing is used as a gradient vector calculation method. FIG. 10 is an explanatory diagram for explaining a gradient vector calculation method using spatial differentiation processing.

まず、図10に示すようにサンプリング画素Pを中心とする大きさN×N(図10ではN=5)の近傍画素を抽出し、その水平、垂直及び対角方向端に位置する画素をA、B、C、D、E、F、G、Hとする。これらの画素の値より、水平及び水平方向の各空間微分値SX及びSYを、以下のように求める。   First, as shown in FIG. 10, neighboring pixels of size N × N (N = 5 in FIG. 10) centering on the sampling pixel P are extracted, and pixels located at the horizontal, vertical, and diagonal ends are A , B, C, D, E, F, G, H. From these pixel values, horizontal and horizontal spatial differential values SX and SY are obtained as follows.

[数1]
SX=(C+E+H)−(A+D+F) (1)
[数2]
SY=(F+G+H)−(A+B+C) (2)
なお、式(1)及び(2)においてはA、B、C、D、E、F、G、Hは各画素の濃度値を表すものとする。
[Equation 1]
SX = (C + E + H)-(A + D + F) (1)
[Equation 2]
SY = (F + G + H)-(A + B + C) (2)
In equations (1) and (2), A, B, C, D, E, F, G, and H represent the density values of each pixel.

得られたSX及びSYを用いて、勾配ベクトルV(下線はVがベクトルであることを表す)は
[数3]
V=(SX、SY) (3)
と表される。
Using the obtained SX and SY, the gradient vector V (the underline indicates that V is a vector) is
V = (SX, SY) (3)
It is expressed.

また、Vの大きさ|V|及び勾配方向Vθは以下のように算出することができる。   Further, the magnitude | V | of V and the gradient direction Vθ can be calculated as follows.

[数4]
[数5]
Vθ=tan−1(SY/SX) (5)
以上に説明した勾配ベクトルVを、M個のサンプリング画素についてVi(i=1、2、…、M)として算出する。
[Equation 4]
[Equation 5]
Vθ = tan-1 (SY / SX) (5)
The gradient vector V described above is calculated as Vi (i = 1, 2,..., M) for M sampling pixels.

続いて、ステップS4において、管腔方向検出を行う。本実施の形態における管腔方向検出の処理内容について、図11及び12を用いて説明する。   Subsequently, the lumen direction is detected in step S4. The processing content of the lumen direction detection in the present embodiment will be described with reference to FIGS.

図4を用いて説明した8方向に対応する画像外周上の点をQk(k=1、2、…、8)とし、画像サイズISX×ISYに対する各々の座標を図11のように定める。Qkの座標を(qx、qy)、サンプリング画素Piの座標を(px、py)とすると、QkとPiとを結ぶベクトルQkは
[数6]
Qk=(qx−px、qy−py) (6)
により得られる。
The points on the outer periphery of the image corresponding to the eight directions described with reference to FIG. Assuming that the coordinates of Qk are (qx, qy) and the coordinates of the sampling pixel Pi are (px, py), the vector Qk connecting Qk and Pi is [Equation 6]
Qk = (qx-px, qy-py) (6)
Is obtained.

管腔は画像において明から暗に変化する方向に存在することから、サンプリング画素Piの明暗勾配Viの逆方向ベクトルV’θi(式(5)により算出される勾配方向は暗から明の方向を表すので反転させる)に最も近いQkが管腔方向となる。   Since the lumen exists in a direction that changes from light to dark in the image, the reverse direction vector V′θi of the light / dark gradient Vi of the sampling pixel Pi (the gradient direction calculated by the equation (5) indicates the direction from dark to bright). Qk closest to (inverted) is the lumen direction.

具体的には図12に示すφikを各Qkについて式(7)より求める。ここでφikはV’θiとQkのなす角である。   Specifically, φik shown in FIG. 12 is obtained for each Qk from Equation (7). Here, φik is an angle formed by V′θi and Qk.

[数7]
φik=cos−1{(Qk・V’θi)/(|Qk|×|V’θi|)} (7)
ただし、「・」はベクトルの内積、「||」はベクトルの大きさを示す。
[Equation 7]
φik = cos−1 {(Qk · V′θi) / (| Qk | × | V′θi |)} (7)
However, “·” indicates an inner product of vectors, and “||” indicates the size of the vector.

φikは−180<φik≦+180の値をとり、点Qkの方向に管腔が存在する場合、すなわち勾配方向がQkの方向に近い場合0に近づく(単位は”度”)。   φik takes a value of −180 <φik ≦ + 180, and approaches 0 when the lumen exists in the direction of the point Qk, that is, when the gradient direction is close to the direction of Qk (the unit is “degree”).

したがって、管腔方向全サンプリング画素についてφikを算出し、以下の誤差評価値を最小とするkを求めることにより、明暗勾配が明から暗に変化する最も確実な方向を得ることができる。   Therefore, by calculating φik for all sampling pixels in the lumen direction and obtaining k that minimizes the following error evaluation value, the most reliable direction in which the light / dark gradient changes from light to dark can be obtained.

[数8]
ステップS5においては、得られた管腔方向に対応する方向を挿入方向として、図4に示した矢印情報を画像に重畳し、表示装置21に表示の上、ステップS1に戻り次のフレームに対し一連の処理を繰り返す。
[Equation 8]
In step S5, the direction corresponding to the obtained lumen direction is set as the insertion direction, and the arrow information shown in FIG. 4 is superimposed on the image, displayed on the display device 21, and then returned to step S1 to the next frame. Repeat a series of processes.

なお、本実施の形態においては図10に示した近傍領域の大きさを決定するNについてN=5としたが、より大きな値(例えばN=17等)を用いて大域的な明暗勾配を検出することも可能である。さらに、各サンプル画素からの勾配ベクトル算出に先立ち、前処理として低減通過フィルタリング(いわゆるぼけマスク)を適用することにより、ノイズや血管等の粘膜構造による影響を除外し、挿入方向検出精度の向上を図ることができる。   In the present embodiment, N = 5 is determined for N that determines the size of the neighborhood shown in FIG. 10, but a global light / dark gradient is detected using a larger value (for example, N = 17). It is also possible to do. Furthermore, prior to the calculation of the gradient vector from each sample pixel, by applying reduced pass filtering (so-called blur mask) as pre-processing, the influence of mucous membrane structures such as noise and blood vessels is eliminated, and the insertion direction detection accuracy is improved. Can be planned.

また、誤差評価においては式(8)に示したなす角φikの大きさの総和を用いたが、φikに関する他の関数に置きかえることは当熱可能である。   In the error evaluation, the total sum of the angles φik shown in the equation (8) is used. However, it is possible to replace the function with another function related to φik.

また、図10におけるサンプル画素P及び勾配ベクトル算出のための近傍画素A〜Hに対し、ハレーションによる影響を除去し、誤検出の防止を図るための閏値処理を行うこともできる。具体的には、A〜H及びPを含む大きさN×Nの局所領域に含まれる各画素に対し、閏値THL(例えばTHL=250とする)との比較を行い、いずれかの画素がTHLを超えるようであればサンプル画素Pの位置を変更する、あるいは挿入方向検出に使用しないようにする。   Further, threshold processing for removing the influence of halation and preventing erroneous detection can be performed on the sample pixel P and the neighboring pixels A to H for calculating the gradient vector in FIG. Specifically, for each pixel included in a local region of size N × N including A to H and P, a comparison is made with a threshold value THL (for example, THL = 250), and any pixel is If it exceeds THL, the position of the sample pixel P is changed, or it is not used for insertion direction detection.

なお、大きさ|Vi|=0である場合には明暗勾配がないことを示すので、挿入方向検出には使用しないようにする。具体的には該当するViについて、式(7)に代えて、すべてのkに対しφikをφi1=φi2=・・・=φiK=0とすればよい(大きさ|Vi|=0のサンプリング画素は式(8)の結果に寄与しなくなる)。   When the magnitude | Vi | = 0, it indicates that there is no light / dark gradient, so it is not used for detecting the insertion direction. Specifically, for the corresponding Vi, instead of the equation (7), φik may be set to φi1 = φi2 =... = ΦiK = 0 for all k (sampling pixels of size | Vi | = 0) Does not contribute to the result of equation (8)).

また、ステップS4における管腔方向検出においては明暗変化の勾配ベクトルVの方向(角度)Vθを用いたが、内視鏡画像においては明暗変化の大きさが大きい方向に管腔が存在する確率が高いことから、さらに大きさ|V|の利用を図ることができる。具体的には、M個のサンプリング画索について算出したVi(1≦i≦M)について、大きさの最大値max|Vi|を求める。次いで、すべてのViに対し
[数9]
αi=|Vi|/max|Vi| (9)
で表される正規化を行う。
In the lumen direction detection in step S4, the direction (angle) Vθ of the gradient vector V of the light / dark change is used, but in the endoscopic image, there is a probability that the lumen exists in the direction in which the light / dark change is large. Since it is high, it is possible to use the size | V |. Specifically, the maximum value max | Vi | is obtained for Vi (1 ≦ i ≦ M) calculated for M sampling images. Then, for all Vis, [Equation 9]
αi = | Vi | / max | Vi | (9)
The normalization represented by

式(9)におけるαiはmax|Vi|を与えるi番目の勾配ベクトルViについてαi=1となり、その他(ただし、|Vi|≠0)では0<αi≦1の値をとる。αiを重み係数として利用するため式(8)を
[数10]
と置きかえる。
Αi in equation (9) is αi = 1 for the i-th gradient vector Vi giving max | Vi |, and takes the value of 0 <αi ≦ 1 in the other cases (where | Vi | ≠ 0). In order to use αi as a weighting coefficient, Equation (8) is expressed as [Equation 10].
Replace.

また、サンプリング画素については、図9に示すように画像全体に均等に設定する例について説明したが、例えば図13に示すように、画像中央部付近を除き、管腔方向に向かう明暗変化情報をより多く含む画像周辺部のみに設定してもよい。   Further, with respect to the sampling pixels, the example in which the entire image is set equally as shown in FIG. 9 has been described. However, as shown in FIG. 13, for example, as shown in FIG. You may set only to the image peripheral part which contains more.

また、図14に示すように、画像を領域分割し、各領域に対応する方向について以下の処理に基づき挿入方向を検出してもよい。図14においては画像周辺部の分割領域にサンプリング画素を設定する。これらの分割領域は、図11及び図15の設定に基づき、1つの領域が1つの方向に対応している(画像中央部は除く)。   Further, as shown in FIG. 14, the image may be divided into regions, and the insertion direction may be detected based on the following processing for the direction corresponding to each region. In FIG. 14, sampling pixels are set in the divided areas at the periphery of the image. In these divided areas, one area corresponds to one direction based on the settings shown in FIGS. 11 and 15 (except for the central part of the image).

図15において、U1ないしU8は水平及び垂直方向の長さの3等分割に基づき設定される画像最外周上の点であり、U1−U3、U1−U2、U2−U4、U3−U5、U4−U6、U5−U7、U7−U8及びU6−U8の組み合せにより決定される最外周上の区間が、それぞれ図11におけるQ1、Q2、・・・、Q7及びQ8の示す各方向と対応する。   In FIG. 15, U1 to U8 are points on the outermost periphery of the image set based on three equal divisions of the lengths in the horizontal and vertical directions, and U1-U3, U1-U2, U2-U4, U3-U5, U4. The sections on the outermost periphery determined by the combination of -U6, U5-U7, U7-U8 and U6-U8 correspond to the directions indicated by Q1, Q2, ..., Q7 and Q8 in Fig. 11, respectively.

各領域において、対応する方向への明暗変化の大きさが最大の領域を検出し、対応する方向を挿入方向と決定する。具体的には領域k(1≦k≦K)内のMk個のサンプリング画素について、方向ベクトルの各領域kに対応する点Qkに向かう方向への射影の大きさ(図16に例を示す)の総和
[数11]
を算出する。
In each region, a region having the maximum magnitude of change in brightness in the corresponding direction is detected, and the corresponding direction is determined as the insertion direction. Specifically, for Mk sampling pixels in the region k (1 ≦ k ≦ K), the size of projection in the direction toward the point Qk corresponding to each region k of the direction vector (an example is shown in FIG. 16). Sum of [Equation 11]
Is calculated.

すべての領域に対しξ(k)を求め、最大のξ(k)を与えるkに対応する方向を挿入方向とする。   Ξ (k) is obtained for all regions, and the direction corresponding to k giving the maximum ξ (k) is set as the insertion direction.

以上説明したように、本発明の第1の実施の形態における挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示する挿入方向検出装置によれば、内視鏡検査に熟練していない操作者に対する挿入補助情報の提供が可能となり、スムーズな内視鏡検査を実現することが可能となる。   As described above, according to the insertion direction detection method in the first embodiment of the present invention and the insertion direction detection device that presents the insertion direction information to the operator based on the processing result of the method, the endoscopy is performed. Therefore, it is possible to provide insertion assistance information to an operator who is not skilled in the field, and to realize a smooth endoscopy.

第2の実施の形態:
図17ないし図25は本発明の第2の実施の形態に係わり、図17は円弧形状を有するハレーションを説明する図、図18は図17のハレーションに対応した挿入方向検出処理を説明するためのフローチャート、図19は図18の処理での細線化処理を説明する図、図20は図18の処理でのサンプリングを説明する図、図21は図18の処理でのハレーションの形状に対する円弧近似を説明するための説明図、図22は図18の処理での近似のための円弧中心の探索範囲を説明するための説明図、図23は図18の処理での管腔方向の決定方法を説明するための説明図、図24は図18の処理での膨張処理を説明する図、図25は図18の処理でのハレーションが複数存在する場合の処理内容を説明するための説明図である。
Second embodiment:
FIGS. 17 to 25 relate to the second embodiment of the present invention, FIG. 17 is a diagram for explaining halation having an arc shape, and FIG. 18 is a diagram for explaining insertion direction detection processing corresponding to the halation of FIG. FIG. 19 is a diagram for explaining thinning processing in the processing of FIG. 18, FIG. 20 is a diagram for explaining sampling in the processing of FIG. 18, and FIG. 21 is an arc approximation for the shape of halation in the processing of FIG. FIG. 22 is an explanatory diagram for explaining the search range of the arc center for approximation in the processing of FIG. 18, and FIG. 23 is a method for determining the lumen direction in the processing of FIG. FIG. 24 is a diagram for explaining the expansion processing in the processing of FIG. 18, and FIG. 25 is a diagram for explaining the processing contents when there are a plurality of halation in the processing of FIG.

第2の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the second embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本発明の第2の実施の形態においては、画像視野内から管腔が外れた場合等において、粘膜表面等の反射により発生するハレーションの形状特徴を用いて管腔方向を決定する挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示することによりスムーズな内視鏡検査を実現することが可能となる挿入方向検出装置について説明する。   In the second embodiment of the present invention, an insertion direction detecting method for determining a lumen direction using a shape feature of halation generated by reflection of a mucosal surface or the like when the lumen deviates from the image visual field. An insertion direction detection device that can realize a smooth endoscopic examination by presenting insertion direction information to the operator based on the processing result of the technique will be described.

内視鏡検査においては、内視鏡先端に正対した粘膜表面等の強い鏡面反射により、CCDからの出力信号が飽和あるいは周辺に比して明らかに大となる現象が発生し、一般にハレーションとして知られている。管腔形状を有する大腸等に対する内視鏡観察像においては、このようなハレーションが円弧の形状を形成する場合がある。   In endoscopy, due to strong specular reflection of the mucosal surface facing the tip of the endoscope, a phenomenon occurs in which the output signal from the CCD becomes saturated or becomes significantly larger than the surroundings. Are known. In an endoscopic observation image on a large intestine or the like having a lumen shape, such a halation may form an arc shape.

例えば、図7に示した挿入状態においては、図17のような円弧状のハレーションが発生する。熟練した医師は、円弧の中心方向が管腔方向と一致することから、円弧状ハレーションを挿入の補助情報として利用しており、図17の例においては画像視野の右方向に挿入を進める。   For example, in the inserted state shown in FIG. 7, arc-shaped halation as shown in FIG. 17 occurs. A skilled doctor uses arc-shaped halation as auxiliary information for insertion because the center direction of the arc coincides with the lumen direction, and in the example of FIG. 17, the insertion proceeds in the right direction of the image field.

本実施の形態のおいては、画像処理手法の適用により、画像内に発生したハレーションが円弧形状を形成しているかどうかを判定し、形成している場合には円弧の中心方向を推定し、挿入方向情報とする。   In the present embodiment, by applying the image processing method, it is determined whether or not the halation generated in the image forms an arc shape, and if it is formed, the center direction of the arc is estimated, This is insertion direction information.

本実施の形態における内視鏡装置及び挿入方向検出装置の構成は第1の実施の形態と同様であり、メインプログラム26の内容が異なるものであるため、メインプログラム26において実行する画像処理内容の詳細について説明する。   Since the configurations of the endoscope apparatus and the insertion direction detecting apparatus in the present embodiment are the same as those in the first embodiment and the contents of the main program 26 are different, the image processing contents executed in the main program 26 are the same. Details will be described.

図18は本実施の形態のメインプログラム26における挿入方向検出処理を説明するためのフローチヤートである。ステップS11において、第1の実施の形態の説明における図8に示したステップS1と同様に、入力される内視鏡画像のRGB画像の中で、R画像を取得する。同様の処理をG、B画像あるいは輝度画像等を用いて同様の処理を適用することも可能である。   FIG. 18 is a flowchart for explaining the insertion direction detection processing in the main program 26 of the present embodiment. In step S11, as in step S1 shown in FIG. 8 in the description of the first embodiment, an R image is acquired from the input RGB images of the endoscopic image. Similar processing can be applied using G, B images, luminance images, or the like.

続くステップS12において、入力されたR画像の各面素に対する閾値を用いた2値化処理により、ハレーション画素を抽出する。具体的には、座標(x、y)(0≦x<ISX、0≦y<ISY)における画素の値r(x、y)に基づき、2値画像Hを作成する。Hにおける各面素h(x、y)の値は
[数12]
h(x、y)=1 if r(x、y)≧THL
h(x、y)=0 if r(x、y)<THL (12)
により決定する。
In subsequent step S12, halation pixels are extracted by a binarization process using a threshold value for each surface element of the input R image. Specifically, the binary image H is created based on the pixel value r (x, y) at the coordinates (x, y) (0 ≦ x <ISX, 0 ≦ y <ISY). The value of each surface element h (x, y) in H is [Equation 12].
h (x, y) = 1 if r (x, y) ≧ THL
h (x, y) = 0 if r (x, y) <THL (12)
Determined by

ここで、閾値THLはTHL=255とするか、若干の余裕を見てTHL=240等、適宜設定を変更する。これは、画素の値としては最大値の255に達していなくても視覚上ハレーションと認識される場合があることへの対応となる。   Here, the setting of the threshold THL is appropriately changed such that THL = 255 or THL = 240 with a slight margin. This corresponds to the fact that even if the pixel value does not reach the maximum value of 255, it may be visually recognized as halation.

次に、ステップS13においては、ハレーションは常に円弧形状を構成するとは限らないため、挿入方向検出に利用可能であるかどうかを判定する必要があることから、2値画像Hを用いたハレーションの円弧形状判定処理を行う。   Next, in step S13, since the halation does not always form an arc shape, it is necessary to determine whether the halation can be used for detecting the insertion direction. Therefore, the halation arc using the binary image H is used. Perform shape determination processing.

本実施の形態においては、抽出したハレーションを近似するための円を、中心及び半径をパラメータとして変更することにより探索的に決定し、処理対象であるハレーションの形状と方程式により規定される円弧との誤差を評価する。   In the present embodiment, a circle for approximating the extracted halation is determined exploratively by changing the center and radius as parameters, and the shape of the halation to be processed and the arc defined by the equation are determined. Evaluate the error.

はじめに、ハレーション画像Hに対する前処理として公知の細線化処理(小分岐等が発生する場合はさらに縮退処理を加える)を適用する。図19にハレーションに対する細線化処理結果例を示す(図19においては黒色が画素値1に対応している)。   First, as a pre-processing for the halation image H, a known thinning process (addition of a degeneration process when a small branch or the like occurs) is applied. FIG. 19 shows an example of a thinning process result for halation (black corresponds to pixel value 1 in FIG. 19).

なお、縮退処理についても、例えば「コンピュータ画像処理入門P.75-P83、田村秀行監修、日本工業技術センター編、総研出版発行、星雲社発売」に開示されている。   The degeneration processing is also disclosed in, for example, “Introduction to Computer Image Processing P.75-P83, Supervised by Hideyuki Tamura, edited by Japan Industrial Technology Center, published by Soken Publishing Co., Ltd., released by Nebula.”

続いて、細線化後のハレーションを構成するh(x、y)について、サンプリングを行う。サンプリングはハレーションの両端点及びその延長画素数において中点となる画素を決定後、ほぼ等間隔となるようにNS個のh(x、y)を抽出する。以下、抽出後のNs個のh(x、y)を新たにhj(xj、yj)、1≦j≦Nsとして説明する。図20にサンプリングの例を示す。このサンプリングは計算時間の短縮のためのものであり、CPU23の性能が十分であれば省略できる。   Subsequently, sampling is performed for h (x, y) constituting the halation after thinning. Sampling is performed by determining NS h (x, y) so as to be substantially equidistant after determining both pixels of the halation and the middle pixel in the number of extended pixels. Hereinafter, the extracted Ns h (x, y) will be described as new hj (xj, yj), 1 ≦ j ≦ Ns. FIG. 20 shows an example of sampling. This sampling is for shortening the calculation time, and can be omitted if the performance of the CPU 23 is sufficient.

次に、細線化及びサンプリングにより抽出した画素hj(xj、yj)について、以下に示す一連の処理によりハレーションが円弧形状を形成しているかどうかを判定する。   Next, for the pixel hj (xj, yj) extracted by thinning and sampling, it is determined whether or not the halation forms an arc shape by the following series of processing.

はじめに、近似するための円の中心及び半径の探索範囲を設定する。図21に示すように、h1(x1、y1)、hNs/2(xNs/2、yNs/2)及びhNs(xNs、yNs)により構成される三角形PQRを定め、Qから辺PRに直交する半直線τを求める。次に、図22に示すように、τ上でPS1=QS1、RS2=QS2となる点S1及びS2を求める。S1及びS2の中点S(座標を(xs、ys)とする)を中心とし、半径r=s/2の円内(ここで、sはS1S2の長さ)を中心の探索範囲と定め、K個の中心候補点Ckを設定する(1≦K、1≦k≦K)。中心候補点Ckを中心とする円の半径rkはCkに基づき決定し、rk=CkQと定める。 Ckの座標を(cxk、cyk)とすると、円Ckに対するNs個のhj(xj、yj)との誤差評価値は、
[数13]
により得ることができる。
First, the search range of the center and radius of the circle for approximation is set. As shown in FIG. 21, a triangle PQR composed of h1 (x1, y1), hNs / 2 (xNs / 2, yNs / 2) and hNs (xNs, yNs) is defined, and a half orthogonal from Q to the side PR Find the straight line τ. Next, as shown in FIG. 22, points S1 and S2 where PS1 = QS1 and RS2 = QS2 on τ are obtained. A center point S (coordinates are (xs, ys)) of S1 and S2, and a circle within a radius r = s / 2 (where s is the length of S1S2) is defined as a center search range. K center candidate points Ck are set (1 ≦ K, 1 ≦ k ≦ K). The radius rk of the circle centered on the center candidate point Ck is determined based on Ck, and rk = CkQ. If the coordinates of Ck are (cxk, cyk), the error evaluation value of Ns hj (xj, yj) for the circle Ck is
[Equation 13]
Can be obtained.

式(13)に基づきK個のε(k)を算出し、その最小値であるmin(ε(k))と、円弧形状と認識できるか否かを判定するための閾値THEとを比較し、
[数14]
min(ε(k))<THE (14)
であれば円弧形状であるものと判定する。
K pieces of ε (k) are calculated based on the equation (13), and the minimum value min (ε (k)) is compared with a threshold value THE for determining whether or not the arc shape can be recognized. ,
[Formula 14]
min (ε (k)) <THE (14)
If it is, it will determine with it being a circular arc shape.

ステップS14においては、式(14)を満たした場合はステップS15に進み、満たさない場合はステップS11に戻り次のフレームに対する処理を実行するための分岐判定を行う。   In step S14, if the expression (14) is satisfied, the process proceeds to step S15. If not satisfied, the process returns to step S11 to perform branch determination for executing processing for the next frame.

ステップS15においては、管腔方向を決定する。管腔方向はハレーション形状を近似する円弧の中心方向に存在することから、min(ε(k))を与える円Ckの中心Ckと図21における点Qとを結ぶ半直線τkを図23のように定め(直線の方程式は2点の座標により容易に求まるため詳細な説明は省略する)、画像最外周との交点Tを求める。画像最外周の4辺については、図15に示したように水平・垂直方向の長さをそれぞれ3等分(ISX/3、ISY/3)し、図4に示した8方向に対応付け、交点Tがいずれに位置するかに基づき挿入方向を決定する。図23においては交点Tは左下方向(図11におけるQ6の方向)となる。   In step S15, the lumen direction is determined. Since the lumen direction exists in the center direction of the arc approximating the halation shape, a half line τk connecting the center Ck of the circle Ck that gives min (ε (k)) and the point Q in FIG. 21 is as shown in FIG. (Since the straight line equation can be easily obtained from the coordinates of two points, detailed description is omitted), and the intersection point T with the outermost periphery of the image is obtained. For the four outermost sides of the image, the horizontal and vertical lengths are respectively divided into three equal parts (ISX / 3, ISY / 3) as shown in FIG. 15, and are associated with the eight directions shown in FIG. The insertion direction is determined based on where the intersection point T is located. In FIG. 23, the intersection T is in the lower left direction (the direction of Q6 in FIG. 11).

ステップS16においては第1の実施の形態におけるステップS5と同様にして、得られた入方向を示す矢印情報を画像に重畳し、表示装置21に表示の上、ステップS11に戻り次のフレームに対し一連の処理を繰り返す。   In step S16, as in step S5 in the first embodiment, the obtained arrow information indicating the entry direction is superimposed on the image, displayed on the display device 21, and then returned to step S11 to return to the next frame. Repeat a series of processes.

以上説明したように、本発明の第2の実施の形態における挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示する挿入方向検出装置によれば、内視鏡検査に熟練していない操作者に対する挿入補助情報の提供が可能となり、スムーズな内視鏡検査を実現することが可能となる。   As described above, according to the insertion direction detection method in the second embodiment of the present invention and the insertion direction detection device that presents the insertion direction information to the operator based on the processing result of the method, the endoscopy is performed. Therefore, it is possible to provide insertion assistance information to an operator who is not skilled in the field, and to realize a smooth endoscopy.

また、ハレーションの形状が管腔方向の検出に適切であるか否かを判定するため、誤った挿入方向補助情報を表示することがない。   Further, since it is determined whether or not the shape of the halation is appropriate for detecting the lumen direction, erroneous insertion direction auxiliary information is not displayed.

なお、ハレーションの2値化画像Hは図24(a)に示すように、複雑な外周形状となる場合があり、細線化処理適用後に不要な分岐等を多く発生する原因となる。このような場合は公知の膨張処理を適用することで、図24(b)に示すように外周形状を滑らかにしてから細線化処理を適用する(膨張処理及び細線化処理については、例えば「コンピュータ画像処理入門P.75-P83、田村秀行監修、日本工業技術センター編、総研出版発行、星雲社発売」に開示されている)。     In addition, as shown in FIG. 24A, the binarized image H of halation may have a complicated outer peripheral shape, which causes many unnecessary branches and the like after the thinning process is applied. In such a case, by applying a known expansion process, the thinning process is applied after smoothing the outer peripheral shape as shown in FIG. 24B (for the expansion process and the thinning process, for example, “Computer (Introduction to image processing, P.75-P83, supervised by Hideyuki Tamura, edited by Japan Industrial Technology Center, published by Soken Publishing Co., Ltd.)

また、本実施の形態においては探索的に円弧の中心Ckを決定したが、Hough(ハフ)変換等の形状抽出手法の適用も可能である。   Further, in the present embodiment, the arc center Ck is determined in an exploratory manner, but it is also possible to apply a shape extraction method such as Hough transformation.

また、図25(a)に示すように、画像に複数のハレーションが存在した場合は、図25(b)に示すように細線化後の各ハレーションの端点hk及びhk+1の連結したものとして本実施の形態に示した一連の処理を適用すればよい。連結の可否の判定については、例えば端点hkの座標に基づき、hk+1がhkを中心とする半径rhk(rhkは適宜定める。例えばrhk=20とする)の円領域内に存在するかどうかにより判定することができる。   Also, as shown in FIG. 25A, when there are a plurality of halation in the image, it is assumed that the end points hk and hk + 1 of each halation after thinning are connected as shown in FIG. 25B. A series of processing shown in this embodiment mode may be applied. For determining whether or not connection is possible, for example, based on the coordinates of the end point hk, whether hk + 1 exists within a circular region having a radius rhk (rhk is appropriately determined, for example, rhk = 20) centered on hk. Can be determined.

第3の実施の形態:
図26ないし図28は本発明の第3の実施の形態に係わり、図26は挿入方向検出処理を説明するためのフローチャート、図27は図26の処理での管腔方向の決定方法を説明するための説明図、図28は図26の処理での円弧形状判定を説明するための説明図である。
Third embodiment:
26 to 28 relate to the third embodiment of the present invention, FIG. 26 is a flowchart for explaining the insertion direction detecting process, and FIG. 27 is a method for determining the lumen direction in the process of FIG. FIG. 28 is an explanatory diagram for explaining arc shape determination in the process of FIG.

第3の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the third embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本発明の第3の実施の形態においては、画像視野内から管腔が外れた場合等において、本発明の第2の実施の形態に示したハレーションの形状特徴を利用した挿入方向検出の他の手法及び該手法による処理結果に基づき操作者に挿入方向情報を提示することによりスムーズな内視鏡検査を実現することが可能となる挿入方向検出装置について説明する。   In the third embodiment of the present invention, when the lumen deviates from the image field of view, etc., the insertion direction detection using the shape feature of the halation shown in the second embodiment of the present invention is different. A method and an insertion direction detection device capable of realizing a smooth endoscopic examination by presenting insertion direction information to an operator based on the processing result of the method will be described.

本実施の形態における内視鏡装置及び挿入方向検出装置の構成は第1の実施の形態と同様であり、メインプログラム26の内容が異なるものであるため、メインプログラム26において実行する画像処理内容の詳細について説明する。   Since the configurations of the endoscope apparatus and the insertion direction detecting apparatus in the present embodiment are the same as those in the first embodiment and the contents of the main program 26 are different, the image processing contents executed in the main program 26 are the same. Details will be described.

図26は本実施の形態のメインプログラム26における挿入方向検出処理を説明するためのフローチャートである。ステップS21において、第1の実施の形態の説明における図8に示したステップS1と同様に、入力される内視鏡画像のRGB画像の中で、R画像を取得する。同様の処理をG、B画像あるいは輝度画像等を用いて同様の処理を適用することも可能である。   FIG. 26 is a flowchart for explaining the insertion direction detection processing in the main program 26 of the present embodiment. In step S21, as in step S1 shown in FIG. 8 in the description of the first embodiment, an R image is acquired from the input RGB images of the endoscopic image. Similar processing can be applied using G, B images, luminance images, or the like.

ステップS22においては第2の実施の形態において示したステップS12と同様の処理の適用により、ハレーション画素を抽出し、2値画像Hを作成する。   In step S22, a halation pixel is extracted and a binary image H is created by applying the same processing as in step S12 shown in the second embodiment.

続くステップS23では、第2の実施の形態におけるステップS13と同様に、図19及び図20を用いて説明した、ハレーション画像Hに対する細線化処理の適用によりh(x、y)の生成及びサンプリングを行う。サンプリングはハレーションの両端点及びほぼ等間隔となるようにNs個のh(x、y)を抽出する。以下、抽出後のNs個のh(x、y)を新たにhj(xj、yj)、1≦j≦Nsとして説明する。   In the subsequent step S23, similarly to step S13 in the second embodiment, h (x, y) is generated and sampled by applying the thinning process to the halation image H described with reference to FIGS. Do. For sampling, Ns h (x, y) are extracted so that the end points of the halation and the substantially equal intervals are obtained. Hereinafter, the extracted Ns h (x, y) will be described as hj (xj, yj), 1 ≦ j ≦ Ns.

本実施の形態においては、抽出されたhj(xj、yj)からNs−1通りの画素の組(h1(x1、y1)、h2(x2、y2))、(h2(x2、y2)、h3(x3、y3))、・・・・・、(hNs-2(xNs-2、yNs-2)、hNs-1(xNs-1、yNs-1))、(hNs-1(xNs-1、yNs-1)、hNs(xNs、yNs))の各々を結ぶ線分に対する垂直二等分線L(k)を求める。ここで、1≦k≦Ns−1である。   In the present embodiment, Ns-1 pixel groups (h1 (x1, y1), h2 (x2, y2)), (h2 (x2, y2), h3) from the extracted hj (xj, yj). (X3, y3)), ..., (hNs-2 (xNs-2, yNs-2), hNs-1 (xNs-1, yNs-1)), (hNs-1 (xNs-1, yNs-1) and hNs (xNs, yNs)) are determined to obtain a perpendicular bisector L (k) with respect to the line segment connecting each of them. Here, 1 ≦ k ≦ Ns−1.

図27にL(k)及び管腔方向候補の算出例を示す。得られたL(k)は、hj(xj、yj)が正しく円弧上に存在している場合には円弧の中心Cで交わる。したがって、Cの位置を図4に示した8方向と対応付けることにより、管腔方向候補を定めることができる。また、L(k)が一点で交わらない場合においては、図28に示すように複数の交点により構成される閉領域R内の画素の重心CRを求め、中心Cに代用する。重心CRの座標(Xc、Yc)は
[数14]
となる。
FIG. 27 shows an example of calculating L (k) and lumen direction candidates. The obtained L (k) intersects at the center C of the arc when hj (xj, yj) is correctly present on the arc. Therefore, a lumen direction candidate can be determined by associating the position of C with the eight directions shown in FIG. Further, when L (k) does not intersect at one point, the center of gravity CR of the pixel in the closed region R constituted by a plurality of intersections is obtained as shown in FIG. The coordinates (Xc, Yc) of the center of gravity CR are [Equation 14].
It becomes.

ここで、Nrは領域R内の画素数、xri及びyriはR内のi番目の画素の水平及び垂直方向における座標である。   Here, Nr is the number of pixels in the region R, and xri and yri are the coordinates in the horizontal and vertical directions of the i-th pixel in R.

続くステップS24においては、得られた管腔方向候補が信頼できるものであるか、すなわちハレーションが円弧形状を形成しているものとしてよいか否かを判定する。具体的には図28に示した閉領域Rの面積(画素数)Raを閾値THRと比較し、Ra≦THRならば円弧形状であり、信頼できるものと判定する。Ra>THRであれば、円弧形状ではないため信頼できないものと判定する。   In a succeeding step S24, it is determined whether or not the obtained lumen direction candidate is reliable, that is, whether or not the halation forms an arc shape. Specifically, the area (number of pixels) Ra of the closed region R shown in FIG. 28 is compared with a threshold value THR, and if Ra ≦ THR, it is determined that the arc shape is reliable. If Ra> THR, it is determined that the arc shape is not reliable because it is not an arc shape.

ステップS25においてはステップS24における判定結果により管腔方向候補が信頼できるものである場合はステップS26に進み、そうでない場合はステップS21に戻り次のフレームに対する処理を実行するための分岐判定を行う。   In step S25, if the lumen direction candidate is reliable as a result of the determination in step S24, the process proceeds to step S26, and if not, the process returns to step S21 to perform branch determination for executing processing for the next frame.

ステップS26においては第1の実施の形態におけるステップS5と同様にして、得られた入方向を示す矢印情報を画像に重畳し、表示装置21に表示の上、ステップS21に戻り次のフレームに対し一連の処理を繰り返す。   In step S26, as in step S5 in the first embodiment, the obtained arrow information indicating the entry direction is superimposed on the image, displayed on the display device 21, and then returned to step S21 to return to the next frame. Repeat a series of processes.

以上説明したように、本発明の第3の実施の形態における挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示する挿入方向検出装置によれば、内視鏡検査に熟練していない操作者に対する挿入補助情報の提供が可能となり、スムーズな内視鏡検査を実現することが可能となる。また、ハレーションの形状が管腔方向の検出に適切であるか否かを判定するため、誤った挿入方向補助情報を表示することがない。   As described above, according to the insertion direction detection method in the third embodiment of the present invention and the insertion direction detection device that presents the insertion direction information to the operator based on the processing result of the method, the endoscopy is performed. Therefore, it is possible to provide insertion assistance information to an operator who is not skilled in the field, and to realize a smooth endoscopy. Further, since it is determined whether or not the shape of the halation is appropriate for detecting the lumen direction, erroneous insertion direction auxiliary information is not displayed.

なお、以上の説明においてステップS23での管腔方向候補の推定にL(k)の交点座標に基づく処理を適用したが、図15に示したように場合分けされた画像最外周とL(k)との交点を求め、最も多くのL(k)と交わる方向を管腔方向候補と定めることも可能である。   In the above description, the processing based on the intersection coordinates of L (k) is applied to the estimation of the lumen direction candidate in step S23. However, as shown in FIG. ), And the direction that intersects with the most L (k) can be determined as the lumen direction candidate.

第4の実施の形態:
図29ないし図33は本発明の第4の実施の形態に係わり、図29は挿入方向検出処理を説明するためのフローチャート、図30は図29の処理での管腔方向の決定方法を説明するための第1の説明図、図31は図29の処理での管腔方向の決定方法を説明するための第2の説明図、図32は図29の処理での管腔方向の決定方法を説明するための第3の説明図、図33は図29の処理での管腔方向の決定方法を説明するための第4の説明図である。
Fourth embodiment:
FIGS. 29 to 33 relate to the fourth embodiment of the present invention, FIG. 29 is a flowchart for explaining the insertion direction detecting process, and FIG. 30 is a method for determining the lumen direction in the process of FIG. FIG. 31 is a second explanatory diagram for explaining the method for determining the lumen direction in the process of FIG. 29, and FIG. 32 is a method for determining the lumen direction in the process of FIG. FIG. 33 is a fourth explanatory diagram for explaining the method for determining the lumen direction in the process of FIG. 29. FIG.

第4の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the fourth embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本発明の第4の実施の形態においては、画像視野内から管腔が外れた場合等において、視野内に管腔が存在していた状態からの視野の時系列的な移動状態に基づき管腔方向を決定する挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示することによりスムーズな内視鏡検査を実現することが可能となる挿入方向検出装置について説明する。   In the fourth embodiment of the present invention, the lumen is based on the time-series movement state of the visual field from the state in which the lumen is present in the visual field, such as when the lumen is out of the image visual field. An insertion direction detection method for determining a direction and an insertion direction detection device that can realize a smooth endoscopic examination by presenting insertion direction information to an operator based on the processing result of the method will be described.

図29は本実施の形態のメインプログラム26における挿入方向検出処理を説明するためのフローチヤートである。ステップS31において、第1の実施の形態の説明における図8に示したステップS1と同様に、入力される内視鏡画像のRGB画像の中で、R画像を取得する。同様の処理をG、B画像あるいは輝度画像等を用いて同様の処理を適用することも可能である。 ステップS32においては、視野内に存在する管腔検出のため、閾値処理THDを用いた2値化による暗部画素の抽出を行う。具体的には、座標(x、y)(0≦x<ISX、0≦y<ISY)における画素の値r(x、y)に基づき、2値画像Dを作成する。Dにおける各画素d(x、y)の値は
[数15]
d(x、y)=1 if r(x、y)≦THD d(x、y)=0 if r(x、y)>THD (15)
により決定する。ここで、閾値THDは例えばTHD=20と設定する。
FIG. 29 is a flowchart for explaining the insertion direction detection processing in the main program 26 of the present embodiment. In step S31, as in step S1 shown in FIG. 8 in the description of the first embodiment, an R image is acquired from the input RGB images of the endoscopic image. Similar processing can be applied using G, B images, luminance images, or the like. In step S32, in order to detect a lumen existing in the field of view, dark pixel extraction is performed by binarization using threshold processing THD. Specifically, the binary image D is created based on the pixel value r (x, y) at the coordinates (x, y) (0 ≦ x <ISX, 0 ≦ y <ISY). The value of each pixel d (x, y) in D is [Equation 15]
d (x, y) = 1 if r (x, y) ≦ THD d (x, y) = 0 if r (x, y)> THD (15)
Determined by Here, the threshold value THD is set to THD = 20, for example.

続くステップS33では、2値画像Dにおいて値1を有する画素、すなわち抽出した暗部画素の数Ndを算出する。   In the subsequent step S33, the number Nd of pixels having the value 1 in the binary image D, that is, the extracted dark part pixels is calculated.

ステップS34においては、視野内に管腔が存在していると判断するのに十分な暗部画素数が得られているか否かを判定するため、ステップS33で求めたNdと閾値THCとの比較を行う。THCは本実施の形態においては全画素数の10%であるものとして
[数16]
THC=(ISX×ISY)/10 (16)
と定める。Nd≧THCであればステップS35へ、そうでなければステップS37に進む。
In step S34, a comparison is made between Nd obtained in step S33 and the threshold value THC in order to determine whether or not a sufficient number of dark pixels is obtained to determine that a lumen is present in the visual field. Do. In this embodiment, THC is 10% of the total number of pixels [Equation 16]
THC = (ISX × ISY) / 10 (16)
It is determined. If Nd ≧ THC, the process proceeds to step S35, and if not, the process proceeds to step S37.

ステップS35においては、視野内に存在する管腔により抽出されたNd個の暗部画素について、その重心Rを求める。図30に重心Rの例を示す。図30(a)に示す原画像(R画像)に対し、閏値処理による暗部画素抽出を行い図30(b)の斜線部の管腔領域を得、重心Rを求める。   In step S35, the center of gravity R of Nd dark pixels extracted by the lumen existing in the field of view is obtained. FIG. 30 shows an example of the center of gravity R. For the original image (R image) shown in FIG. 30 (a), dark pixel extraction is performed by threshold processing to obtain the luminal region in the shaded area in FIG. 30 (b), and the center of gravity R is obtained.

ステップS36においては、以前のフレームに対する重心Rとの位置変化に基づきRの移動ベクトルの推定を行う。以下、図31を用いて説明する。図31において、F1、F2及びF3は時系列的に入力される画像のフレームを示す。フレームF1において得られた管腔暗部領域の重心位置をR1、その座標を(xr1、yr1)とする。同様にフレームF2において得られた重心位置をR2、その座標を(xr2、yr2)とすると、視野内における管腔の移動を追跡する移動ベクトルv1は
[数17]
v1=(xr2−xr1、yr2−yr1) (17)
より算出できる。
In step S36, the movement vector of R is estimated based on the position change with respect to the center of gravity R with respect to the previous frame. Hereinafter, a description will be given with reference to FIG. In FIG. 31, F1, F2 and F3 indicate frames of images input in time series. The center of gravity of the luminal dark part region obtained in the frame F1 is R1, and its coordinates are (xr1, yr1). Similarly, assuming that the center of gravity obtained in the frame F2 is R2 and its coordinates are (xr2, yr2), the movement vector v1 for tracking the movement of the lumen in the field of view is [Equation 17].
v1 = (xr2-xr1, yr2-yr1) (17)
Can be calculated.

同様にして、フレームF2からF3に対する移動ベクトルv2を求める。以降、重心位置Ri及び移動ベクトルvi(iは1以上の整数)を記憶することにより、図32のように管腔の重心位置を追跡することができる。   Similarly, a movement vector v2 for the frames F2 to F3 is obtained. Thereafter, by storing the center of gravity position Ri and the movement vector vi (i is an integer of 1 or more), the center of gravity position of the lumen can be tracked as shown in FIG.

画像視野内に管腔が存在しない場合においては、ステップS34からステップS37に進み、管腔方向の推定を行う。   If there is no lumen in the image field, the process proceeds from step S34 to step S37 to estimate the lumen direction.

フレームFiにおいて管腔が存在しており、Fi+1において視野から外れた場合、直前の移動ベクトルviの方向に管腔が存在する。したがって、移動ベクトルviの方向に最も近い方向を挿入方向とすることで、管腔を視野内に入れることが可能となる。例えば、図32におけるF5に示す状態にある場合には図11におけるQ8に対応する右下方向とする。riに最も近い方向を決定するには、第1の実施の形態に示した式(7)に類するなす角の評価を行う。   If a lumen exists in the frame Fi and deviates from the field of view at Fi + 1, the lumen exists in the direction of the immediately preceding movement vector vi. Therefore, by setting the direction closest to the direction of the movement vector vi as the insertion direction, it is possible to put the lumen into the visual field. For example, in the state indicated by F5 in FIG. 32, the lower right direction corresponding to Q8 in FIG. In order to determine the direction closest to ri, an angle formed by the expression (7) shown in the first embodiment is evaluated.

ステップS38においては、第1の実施の形態におけるステップS5と同様にして、得られた挿入方向を示す矢印情報を画像に重畳し、表示装置21に表示の上、ステップS21に戻り次のフレームに対し一連の処理を繰り返す。   In step S38, as in step S5 in the first embodiment, the obtained arrow information indicating the insertion direction is superimposed on the image, displayed on the display device 21, and then returned to step S21 to return to the next frame. Repeat a series of processes.

以上説明したように、本発明の第4の実施の形態における挿入方向検出手法と、該手法による処理結果に基づき操作者に挿入方向情報を提示する挿入方向検出装置によれば、視野の時系列的な移動状態に基づいて、画像視野内から管腔が外れた場合等の管腔方向を検出し、操作者に挿入方向情報を提示することができるため、内視鏡検査に熟練していない操作者に対する挿入補助情報の提供が可能となり、スムーズな内視鏡検査を実現することが可能となる。   As described above, according to the insertion direction detection method in the fourth embodiment of the present invention and the insertion direction detection device that presents the insertion direction information to the operator based on the processing result of the method, the time series of the visual field Because it can detect the direction of the lumen when the lumen deviates from the image field of view and presents the insertion direction information to the operator based on the state of movement, it is not skilled in endoscopy It is possible to provide insertion assistance information to the operator, and it is possible to realize a smooth endoscopy.

なお、ステップS33における抽出画素数Ndのカウントにあたり、管腔領域以外の例えば画像辺縁郎等照明むらにより暗部として抽出された画素を除外するための前処理として、ラベリング及び収縮・膨張処理を適用し、微小な抽出画素領域を除去してもよい。   It should be noted that in the counting of the number of extracted pixels Nd in step S33, labeling and contraction / expansion processing are applied as preprocessing for excluding pixels extracted as dark portions due to illumination unevenness such as image margins other than the lumen region. However, a minute extraction pixel region may be removed.

また、ラベリングについても、例えば「コンピュータ画像処理入門P.75-P83、田村秀行監修、日本工業技術センター編、総研出版発行、星雲社発売」に開示されている。   Labeling is also disclosed in, for example, “Introduction to Computer Image Processing P.75-P83, Supervised by Hideyuki Tamura, edited by Japan Industrial Technology Center, published by Soken Publishing Co., Ltd., and released by Nebula.”

第5の実施の形態:
図34ないし図36は本発明の第5の実施の形態に係わり、図34は挿入方向検出処理を説明するためのフローチャート、図35は図34の処理での移動ベクトルに基づく管腔方向検出が不適と判定される場合を説明するための説明図、図36は図34の処理での挿入方向検出が不適あるいは不能である場合の結果表示を説明するための説明図である。
Fifth embodiment:
FIGS. 34 to 36 relate to the fifth embodiment of the present invention, FIG. 34 is a flowchart for explaining the insertion direction detection process, and FIG. 35 shows the lumen direction detection based on the movement vector in the process of FIG. FIG. 36 is an explanatory diagram for explaining a case where it is determined that the insertion direction is inappropriate, and FIG. 36 is an explanatory diagram for explaining a result display when the insertion direction detection in the processing of FIG. 34 is inappropriate or impossible.

第5の実施の形態は、第1の実施の形態とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the fifth embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本発明の第5の実施の形態においては、処理対象とする内視鏡画像に応じて最適な挿入方向検出手法を選択的に適用することにより精度向上を図ることができる挿入方向検出手法と挿入方向検出装置に関する。   In the fifth embodiment of the present invention, an insertion direction detection method and an insertion that can improve accuracy by selectively applying an optimal insertion direction detection method according to an endoscopic image to be processed. The present invention relates to a direction detection device.

本発明の第1ないし第4の実施の形態においては、画像視野内の明暗勾配、ハレーションの形状特徴及び視野移動追跡に基づく各種の管腔方向検出手法について説明した。一方、内視鏡画像において現れる観察シーンは多種多様であり、これらの検出手法を有効に利用するには各々の観察シーンに応じて適切に用いることが重要となる。   In the first to fourth embodiments of the present invention, various lumen direction detection methods based on the light / dark gradient in the image field, the shape feature of the halation, and the field movement tracking have been described. On the other hand, there are a wide variety of observation scenes appearing in an endoscopic image, and in order to effectively use these detection methods, it is important to use them appropriately according to each observation scene.

以下、図面を参照して本実施の形態における挿入方向検出手法及び挿入方向検出装置について説明する。   Hereinafter, an insertion direction detection method and an insertion direction detection apparatus according to the present embodiment will be described with reference to the drawings.

図34は本実施の形態における挿入方向検出装置12の動作を説明するためのフローチャートである。   FIG. 34 is a flowchart for explaining the operation of the insertion direction detecting device 12 in the present embodiment.

ステップS41において、第1の実施の形態の説明における図8に示したステップS1と同様に、入力される内視鏡画像のRGB画像の中で、R画像を取得する。同様の処理をG、B画像あるいは輝度画像等を用いて同様の処理を適用することも可能である。   In step S41, as in step S1 shown in FIG. 8 in the description of the first embodiment, an R image is acquired from the input RGB images of the endoscopic image. Similar processing can be applied using G, B images, luminance images, or the like.

ステップS42においては、入力された内視鏡画像が視野内の管腔もしくは管腔方向の検出を行うことが可能であるか否かについての判定を行う。大腸内視鏡検査においては、粘膜への過近接状態により焦点が外れるとともに画像全体が赤一色となるシーンが発生する(内視鏡医の間では「赤玉」と呼ぱれている)。   In step S42, it is determined whether or not the input endoscopic image can detect the lumen or the lumen direction in the visual field. In colonoscopy, a scene in which the focus is lost due to excessive proximity to the mucous membrane and the entire image is reddish occurs (referred to as an “red ball” by endoscopists).

このような画像においては挿入方向を表示することは不適切であり(第4の実施の形態において示した移動ベクトル追跡を用いた手法により検出可能であるが、確実な挿入状態の確保に対する配慮を優先するべきである)、視野内に管腔が入るよう一度内視鏡1を後退(Pull Back操作)させる必要がある。   In such an image, it is inappropriate to display the insertion direction (it can be detected by the method using the movement vector tracking shown in the fourth embodiment, but consideration is given to ensuring a reliable insertion state). It should be prioritized), and it is necessary to retract the endoscope 1 once (Pull Back operation) so that the lumen enters the visual field.

赤玉の状態は非常に特異であり、R画像全体の平均値、標準偏差のとり得る範囲から判定することができる。また、G画像を併用し、画像全体のR/G等の色調の平均値、標準偏差から判定してもよい。   The state of the red ball is very unique and can be determined from the average value and the standard deviation of the entire R image. Alternatively, the G image may be used in combination, and determination may be made from the average value and standard deviation of the color tone such as R / G of the entire image.

ステップS42において検出不能状態であると判定された場合はステップS53へ、そうでない場合はステップS43に進む。   If it is determined in step S42 that the state is undetectable, the process proceeds to step S53, and if not, the process proceeds to step S43.

ステップS43においては視野内に存在する管腔の検出を行う。ここでは第4の実施の形態において図29のステップS32及びS33に示した一連の暗部画素抽出に基づく処理の適用により管腔検出を行う。   In step S43, a lumen present in the visual field is detected. Here, lumen detection is performed by applying the processing based on the series of dark pixel extraction shown in steps S32 and S33 of FIG. 29 in the fourth embodiment.

続くステップS44においては、図29のステップS34と同様に検出結果に対する判定を行い、視野内に管腔が存在すると判定された場合にはステップS45に進み、第4の実施の形態におけるステップS35及びS36と同様の処理により移動ベクトル算出を行いステップS41に戻る。     In subsequent step S44, the detection result is determined in the same manner as in step S34 of FIG. 29. If it is determined that a lumen is present in the visual field, the process proceeds to step S45, and steps S35 and 4 in the fourth embodiment are performed. The movement vector is calculated by the same process as S36, and the process returns to step S41.

一方、視野内に管腔が存在しないと判定された場合にはステップS46に進む。 ステップS46においては、第1の実施の形態における図8のステップS2、S3及びS4を用いて説明した一連の処理による明暗勾配に基づく管腔方向の検出を適用し、ステップS47に進む。   On the other hand, if it is determined that there is no lumen in the field of view, the process proceeds to step S46. In step S46, the detection of the luminal direction based on the light / dark gradient by the series of processes described using steps S2, S3, and S4 of FIG. 8 in the first embodiment is applied, and the process proceeds to step S47.

ステップS47においては、ステップS46における明暗勾配に基づく管腔方向の検出が成功したかどうかを判定する。ここでは、式(8)に示した誤差評価式において最小値min(ε(k))及びその次に小となる値smin(ε(k))(管腔方向候補として第2位)の比min(ε(k))/smin(ε(k))を閾値THGと比較する。min(ε(k))>smin(ε(k))であり、比min(ε(k))/smin(ε(k))の値が小であるほど検出結果の信頼性が高いことに対応する。閾値THGは0≦THG≦1であり、ここではTHG=0.5であるものとする。min(ε(k))/smin(ε(k))≦THGであれば検出成功と判定し、ステップS52へ、そうでなければステップS48に進む。   In step S47, it is determined whether or not the detection of the luminal direction based on the brightness gradient in step S46 is successful. Here, the ratio between the minimum value min (ε (k)) and the next smallest value smin (ε (k)) (second place as a lumen direction candidate) in the error evaluation formula shown in Equation (8). Compare min (ε (k)) / smin (ε (k)) with the threshold THG. min (ε (k))> smin (ε (k)), and the smaller the ratio min (ε (k)) / smin (ε (k)), the higher the reliability of the detection result. Correspond. The threshold value THG is 0 ≦ THG ≦ 1, and THG = 0.5 here. If min (ε (k)) / smin (ε (k)) ≦ THG, it is determined that the detection is successful, and the process proceeds to step S52, and if not, the process proceeds to step S48.

ステップS48においては、第2または第3の実施の形態において説明したハレーションの形状特徴に基づく管腔方向検出処理を適用する。具体的には図18のステップS12ないしS15または図26のステップS22ないしS25を用いて説明した一連の処理を適用し、ステップS49に進む。   In step S48, the lumen direction detection processing based on the shape feature of the halation described in the second or third embodiment is applied. Specifically, the series of processes described using steps S12 to S15 in FIG. 18 or steps S22 to S25 in FIG. 26 are applied, and the process proceeds to step S49.

ステップS49においては、ハレーションの形状特徴による検出が成功したか否かに基づく分岐を行う。ここでの判定はステップS14またはS25におけるハレーションが円弧を形成しているか否かに基づくものと同様である。成功と判定されていればステップS52へ、そうでなければステップS50に進む。   In step S49, branching is performed based on whether or not the detection based on the shape feature of the halation has succeeded. The determination here is the same as that based on whether or not the halation in step S14 or S25 forms an arc. If it is determined to be successful, the process proceeds to step S52, and if not, the process proceeds to step S50.

ステップS50においては、第4の実施の形態において説明した移動ベクトルに基づく管腔方向検出処理を適用する。具体的には図29のステップS37と同様の処理の適用により、以前のフレームにおいて視野内に存在した管腔の移動方向に基づく検出を行い、ステップS51に進む。   In step S50, the lumen direction detection process based on the movement vector described in the fourth embodiment is applied. Specifically, by applying the same processing as step S37 in FIG. 29, detection is performed based on the moving direction of the lumen existing in the visual field in the previous frame, and the process proceeds to step S51.

ステップS51においてはステップS50における管腔方向の検出が成功したか否かを判定する。例えば体位の変更や拍動による影響等により大腸の形状変化、調光による光量の変化による暗部の増加、あるいは急激なアングル操作等による連続するフレームのレート(通常1/30秒)を超える視野変化等により移動ベクトルが誤検出される場合がある。このような場合、例えば図35に示すように、移動ベクトルviは視野中央部にあるにも関わらず、管腔は移動ベクトルからは推定できない方向の視野外に存在することとなる。そこで、図35に示すように、画像中央部付近に検出除外領域を定め、移動ベクトルviがこの範囲内にあるときは検出を行わないものと判定する。   In step S51, it is determined whether or not the detection of the lumen direction in step S50 is successful. For example, changes in the shape of the large intestine due to changes in body position or pulsation, increases in dark areas due to changes in the amount of light due to dimming, or changes in the visual field exceeding the rate of continuous frames (usually 1/30 seconds) due to sudden angle operations, etc. For example, the movement vector may be erroneously detected. In such a case, for example, as shown in FIG. 35, although the movement vector vi is in the center of the visual field, the lumen exists outside the visual field in a direction that cannot be estimated from the movement vector. Therefore, as shown in FIG. 35, a detection exclusion region is set near the center of the image, and it is determined that the detection is not performed when the movement vector vi is within this range.

ステップS51において、移動ベクトルによる管腔方向検出が成功と判定されていればステップS52へ、そうでなければステップS53に進む。   In step S51, if it is determined that the lumen direction detection based on the movement vector is successful, the process proceeds to step S52, and if not, the process proceeds to step S53.

ステップS52においては、明暗勾配方向、ハレーションの形状特徴または移動ベクトルに基づく検出のいずれかにより得られた管腔方向の検出結果に基づき、第1の実施の形態におけるステップS5と同様にして、得られた挿入方向を示す矢印情報を画像に重畳し、表示装置21に表示の上、ステップS41に戻り次のフレームに対し一連の処理を繰り返す。   In step S52, based on the detection result of the lumen direction obtained by any of the detection based on the light / dark gradient direction, the shape feature of the halation, or the movement vector, it is obtained in the same manner as in step S5 in the first embodiment. The arrow information indicating the inserted direction is superimposed on the image, displayed on the display device 21, and then returns to step S41 to repeat a series of processing for the next frame.

ステップS53においては、処理対象となる画像が管腔方向の検出が不能であることから移動ベクトルの追跡を中止するための初期化(それまでの移動ベクトル情報の破棄)を適用し、ステップS53に進む。   In step S53, since it is impossible to detect the lumen direction of the image to be processed, initialization for canceling tracking of the movement vector (discarding of the movement vector information so far) is applied, and step S53 is applied. move on.

ステップS54においては、内視鏡1を一度後退させ管腔を視野内に確保する等の安全かつ確実な挿入手技を医師に促すため、表示装置21に図36に示す「Pull Back」等のメッセージを表示しステップS41に戻り、一連の処理を繰り返す。   In step S54, a message such as “Pull Back” shown in FIG. 36 is displayed on the display device 21 in order to prompt the doctor to perform a safe and reliable insertion procedure such as retreating the endoscope 1 and securing the lumen in the field of view. Is displayed, the process returns to step S41, and a series of processing is repeated.

以上に説明したように、本発明の第5の実施の形態における挿入方向検出手法の適用及び該手法を用いた挿入方向検出装置によれば、処理対象とする内視鏡画像に応じて最適な挿入方向検出手法を選択的に適用することによりスムーズな内視鏡検査を実現することが可能となる。   As described above, according to the application of the insertion direction detection method and the insertion direction detection apparatus using the method according to the fifth embodiment of the present invention, an optimum is obtained according to the endoscope image to be processed. A smooth endoscopic examination can be realized by selectively applying the insertion direction detection method.

1…内視鏡
2…操作部
3…挿入部
5…コネクタ
6…制御装置
8…ライトガイド制御装置
9…観察用モニタ
11…A/D変換器
12…挿入方向検出装置
20…コンピュータ
21…表示装置
22…I/O制御回路
23…CPU
24…メインメモリ
25…記憶装置
26…メインプログラム
DESCRIPTION OF SYMBOLS 1 ... Endoscope 2 ... Operation part 3 ... Insertion part 5 ... Connector 6 ... Control apparatus 8 ... Light guide control apparatus 9 ... Monitor 11 for observation ... A / D converter 12 ... Insertion direction detection apparatus 20 ... Computer 21 ... Display Device 22 ... I / O control circuit 23 ... CPU
24 ... Main memory 25 ... Storage device 26 ... Main program

Claims (8)

内視鏡により管腔構造を有する被検体を観察して得られる内視鏡画像が入力される内視鏡挿入方向検出装置の作動方法であって、
前記内視鏡挿入方向検出装置の処理部が、第1の内視鏡画像から前記内視鏡が観察対象に対し過近接状態にあるか否かを判定する第2のステップと、
前記第2のステップにおいて前記過接近状態にないと判定された場合において、前記内視鏡挿入方向検出装置の処理部が、前記第1の内視鏡画像から管腔の移動を追跡する移動ベクトルを検出する第3のステップと、
有することを特徴とする内視鏡挿入方向検出装置の作動方法。
An operation method of an endoscope insertion direction detection device to which an endoscope image obtained by observing a subject having a lumen structure with an endoscope is input,
Processing unit of the endoscope insertion direction detecting device, a second step of determining whether the endoscope from a first endoscopic image is to observation target in excessively close state,
A movement vector for tracking the movement of the lumen from the first endoscopic image when the processing unit of the endoscope insertion direction detecting device determines that the over-close state is not established in the second step. A third step of detecting
Operation method of the endoscope insertion direction detecting device characterized in that it comprises a.
さらに、前記内視鏡挿入方向検出装置の処理部が、第3のステップにより検出された移動ベクトルを保持する第4のステップと、
さらに、前記内視鏡挿入方向検出装置の処理部が、前記第1の内視鏡画像とは異なる第2の内視鏡画像から前記内視鏡が観察対象に対し過近接状態にあるか否かを判定する第6のステップと、
さらに、前記内視鏡挿入方向検出装置の処理部が、前記第6のステップにおいて前記過接近状態にないと判定された場合において、前記第2の内視鏡画像から管腔の移動を追跡する移動ベクトルを検出する第7のステップと、
さらに、前記内視鏡挿入方向検出装置の処理部が、前記第6のステップにおいて前記過接近状態にあると判断された場合において、前記第4のステップにおいて保持された移動ベクトルを初期化する第8のステップと、
を備えたことを特徴とする内視鏡挿入方向検出装置の作動方法。
Furthermore, the processing unit of the endoscope insertion direction detection device holds a movement vector detected by the third step, a fourth step,
Further, the processing unit of the endoscope insertion direction detecting device determines whether the endoscope is in an over-proximity state with respect to the observation target from a second endoscopic image different from the first endoscopic image. a sixth step of determining whether,
Further, when the processing unit of the endoscope insertion direction detecting device determines that the over-close state is not present in the sixth step, the movement of the lumen is tracked from the second endoscopic image. A seventh step of detecting a movement vector;
Further, when the processing unit of the endoscope insertion direction detection device determines that the over-close state is present in the sixth step, the movement vector held in the fourth step is initialized. 8 steps,
A method of operating an endoscope insertion direction detecting device, comprising:
前記第2のステップは、前記第1の内視鏡画像における所定の色成分の平均値、標準偏差に基づき前記過近接状態にあるか否かを判定することを特徴とする請求項1に記載の内視鏡挿入方向検出装置の作動方法。 The said 2nd step determines whether it exists in the said excessive proximity state based on the average value and standard deviation of the predetermined | prescribed color component in a said 1st endoscopic image. Operating method of the endoscope insertion direction detecting device. 前記第6のステップは、前記第2の内視鏡画像における所定の色成分の平均値、標準偏差に基づき前記過近接状態にあるか否かを検出することを特徴とする請求項2に記載の内視鏡挿入方向検出装置の作動方法。 The 6th step detects whether it is in the over-proximity state based on an average value and standard deviation of a predetermined color component in the 2nd endoscopic image. Operating method of the endoscope insertion direction detecting device. 内視鏡により管腔構造を有する被検体を観察して得られる第1の内視鏡画像が入力される入力部と、  An input unit for inputting a first endoscopic image obtained by observing a subject having a luminal structure with an endoscope;
前記第1の内視鏡画像から前記内視鏡が前記被検体に対し過近接状態にあるか否かを判定し、前記過接近状態にないと判定された場合において、前記第1の内視鏡画像から管腔の移動を追跡する移動ベクトルを検出する処理部と、  From the first endoscopic image, it is determined whether or not the endoscope is in an over-proximity state with respect to the subject. A processing unit for detecting a movement vector for tracking the movement of the lumen from the mirror image;
を備えたことを特徴とする内視鏡挿入方向検出装置。  An endoscope insertion direction detecting device comprising:
さらに、前記入力部は、前記被検体を観察して得られる第2の内視鏡画像が入力され、  Furthermore, the input unit receives a second endoscopic image obtained by observing the subject,
さらに、前記処理部が、前記第1の内視鏡画像から検出された移動ベクトルを保持し、さらに前記第2の内視鏡画像から前記内視鏡が前記被検体に対し過近接状態にあるか否かを判定し、さらに前記第2の内視鏡画像から前記内視鏡が前記過接近状態にないと判定された場合において、前記第2の内視鏡画像から管腔の移動を追跡する移動ベクトルを検出し、前記第2の内視鏡画像から前記内視鏡が前記過接近状態にあると判定された場合において、保持された前記第1の内視鏡画像から検出された移動ベクトルを初期化する  Further, the processing unit holds a movement vector detected from the first endoscopic image, and further, the endoscope is in an in close proximity to the subject from the second endoscopic image. And further, when it is determined from the second endoscopic image that the endoscope is not in the excessively close state, the movement of the lumen is tracked from the second endoscopic image. And a movement detected from the held first endoscope image when it is determined from the second endoscopic image that the endoscope is in the overapproaching state. Initialize vector
ことを特徴とする内視鏡挿入方向検出装置。  An endoscope insertion direction detecting device characterized by the above.
前記処理部は、前記第1の内視鏡画像における所定の色成分の平均値、標準偏差に基づき前記過近接状態にあるか否かを判定することを特徴とする請求項5に記載の内視鏡挿入方向検出装置。  The internal processing unit according to claim 5, wherein the processing unit determines whether or not the over-close state is based on an average value and a standard deviation of predetermined color components in the first endoscopic image. Endoscope insertion direction detection device. 前記処理部は、前記第2の内視鏡画像における所定の色成分の平均値、標準偏差に基づき、前記第2の内視鏡画像から前記内視鏡が前記被検体に対し前記過近接状態にあるか否かを検出することを特徴とする請求項6に記載の内視鏡挿入方向検出装置。  The processing unit is configured so that, based on an average value and a standard deviation of predetermined color components in the second endoscopic image, the endoscope is in the close proximity state to the subject from the second endoscopic image. The endoscope insertion direction detecting device according to claim 6, wherein the endoscope insertion direction detecting device is detected.
JP2011177723A 2011-08-15 2011-08-15 Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device Expired - Fee Related JP5530406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011177723A JP5530406B2 (en) 2011-08-15 2011-08-15 Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011177723A JP5530406B2 (en) 2011-08-15 2011-08-15 Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001292230A Division JP4885388B2 (en) 2001-09-25 2001-09-25 Endoscope insertion direction detection method

Publications (2)

Publication Number Publication Date
JP2011235177A JP2011235177A (en) 2011-11-24
JP5530406B2 true JP5530406B2 (en) 2014-06-25

Family

ID=45323755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011177723A Expired - Fee Related JP5530406B2 (en) 2011-08-15 2011-08-15 Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device

Country Status (1)

Country Link
JP (1) JP5530406B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110769737B (en) * 2017-06-21 2022-03-29 奥林巴斯株式会社 Insertion aid, method of operation, and endoscopic device including insertion aid
WO2022014017A1 (en) * 2020-07-16 2022-01-20 オリンパス株式会社 Medical system
KR102464091B1 (en) * 2021-01-14 2022-11-04 고지환 Apparatus and Method for Large Intestine Examination Using an Endoscope

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0646978B2 (en) * 1986-02-07 1994-06-22 富士写真光機株式会社 Endoscope with warning device
GB2225188B (en) * 1988-11-16 1993-05-12 Olympus Optical Co Methods of detecting endoscope insertion direction
GB8830465D0 (en) * 1988-12-31 1989-03-01 Olympus Optical Co Methods of detecting endoscope insertion direction
JP4445623B2 (en) * 1999-12-10 2010-04-07 オリンパス株式会社 Endoscope device

Also Published As

Publication number Publication date
JP2011235177A (en) 2011-11-24

Similar Documents

Publication Publication Date Title
JP4885388B2 (en) Endoscope insertion direction detection method
JP5715311B2 (en) Endoscope system
JP4585048B2 (en) Endoscope system
US8211009B2 (en) Endoscope bending control apparatus and endoscope system
US20150196228A1 (en) Endoscope system
JP5078486B2 (en) Medical image processing apparatus and method of operating medical image processing apparatus
US20210274089A1 (en) Method and Apparatus for Detecting Missed Areas during Endoscopy
WO2010087057A1 (en) Endoscope system
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
JP5530406B2 (en) Method of operating endoscope insertion direction detection device and endoscope insertion direction detection device
EP1566140B1 (en) Endoscope insertion direction detecting device
US11219358B2 (en) Method and apparatus for detecting missed areas during endoscopy
JP5687583B2 (en) Endoscope insertion direction detection method and endoscope insertion direction detection device
JP2007236630A (en) Medical image processor and medical image processing method
JP4776919B2 (en) Medical image processing device
JP2008093287A (en) Medical image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140418

R151 Written notification of patent or utility model registration

Ref document number: 5530406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees