JP4916114B2 - Endoscope device - Google Patents

Endoscope device Download PDF

Info

Publication number
JP4916114B2
JP4916114B2 JP2005000183A JP2005000183A JP4916114B2 JP 4916114 B2 JP4916114 B2 JP 4916114B2 JP 2005000183 A JP2005000183 A JP 2005000183A JP 2005000183 A JP2005000183 A JP 2005000183A JP 4916114 B2 JP4916114 B2 JP 4916114B2
Authority
JP
Japan
Prior art keywords
contact position
treatment
treatment instrument
unit
treatment tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005000183A
Other languages
Japanese (ja)
Other versions
JP2006187385A (en
JP2006187385A5 (en
Inventor
澄人 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005000183A priority Critical patent/JP4916114B2/en
Publication of JP2006187385A publication Critical patent/JP2006187385A/en
Publication of JP2006187385A5 publication Critical patent/JP2006187385A5/ja
Application granted granted Critical
Publication of JP4916114B2 publication Critical patent/JP4916114B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は内視鏡装置に関し、更に詳しくは内視鏡装置の挿入具や処置具と被写体との3次元関係を求め、使用者に通知する技術に関する。   The present invention relates to an endoscope apparatus, and more particularly to a technique for obtaining a three-dimensional relationship between an insertion tool or treatment tool of an endoscope apparatus and a subject and notifying a user.

内視鏡による映像を画面表示し、それを見ながら使用者が処置具を用いて処置を行なう内視鏡装置では、内視鏡によって映し出された、被写体と操作している処置具の映像を見ながら処置を行なう。   In an endoscopic device in which an endoscope image is displayed on a screen and a user performs a treatment using a treatment tool while watching the image, the image of the treatment tool operated with the subject displayed by the endoscope is displayed. Take action while watching.

図19及び図20は、処置具を挿通可能な内視鏡による処置の様子とその時の内視鏡映像を示している。
図19は、被検体であるタービンブレード301と内視鏡の先端部分303及び処置具304を示しており、図20は内視鏡装置の表示画面300上に表示されている内視鏡による撮影映像を示している。
19 and 20 show a state of treatment by an endoscope through which a treatment tool can be inserted and an endoscope image at that time.
FIG. 19 shows a turbine blade 301 that is a subject, a distal end portion 303 of an endoscope, and a treatment tool 304, and FIG. 20 is an image taken by an endoscope displayed on a display screen 300 of the endoscope apparatus. A video is shown.

本例では、タービンブレード301に入っているヒビ302に処置具303によってマーキングする場合を示しているが、表示画面300を見ても3次元的な位置関係が把握できないために、処置具303を延ばして行ったときに処置具303がタービンブレード301のどの部分に当たるかは見当が付けにくい。よって、このような処置においては、内視鏡の2次元の映像だけでは被検体と処置具の3次元的な位置関係を把握しにくい為、経験や勘に頼る部分が大きかった。   In this example, the crack 302 in the turbine blade 301 is marked with the treatment tool 303. However, since the three-dimensional positional relationship cannot be grasped even when the display screen 300 is viewed, the treatment tool 303 is attached. It is difficult to determine which part of the turbine blade 301 the treatment tool 303 will contact when extended. Therefore, in such a procedure, since it is difficult to grasp the three-dimensional positional relationship between the subject and the treatment tool only with the two-dimensional image of the endoscope, the part that depends on experience and intuition is large.

この点に対処するための技術の1つとして提案されている、特許文献1では、内視鏡や処置具等の挿入具に磁気センサなどを使用した3次元位置の検出の為の仕組みを設け、処置対象位置に挿入具を挿入すると、磁器センサが磁場発生器より発生された磁場を信号にして出力し、この信号から各挿入具の位置を算出して内視鏡の映像に挿入具の挿入位置を合成して表示する。   Patent Document 1 proposed as one of the techniques for dealing with this point provides a mechanism for detecting a three-dimensional position using a magnetic sensor or the like for an insertion tool such as an endoscope or a treatment tool. When the insertion tool is inserted into the treatment target position, the magnetic sensor outputs the magnetic field generated by the magnetic field generator as a signal, and the position of each insertion tool is calculated from this signal, and the insertion tool is inserted into the endoscope image. The insertion position is synthesized and displayed.

また特許文献2は、医療用内視鏡についてのもので、装置内に予め生体画像情報を記憶しておき、処置具の位置情報、距離情報、生体画像情報をセンサによって測定し、これを予め記録された生体画像情報と合成して表示する構成が開示されている。   Patent Document 2 relates to a medical endoscope. Biological image information is stored in advance in the apparatus, and position information, distance information, and biological image information of a treatment instrument are measured by a sensor, A configuration is disclosed in which it is combined with the recorded biological image information and displayed.

これらの特許文献等に開示されている方法が適用されている装置を用いることによって、処置対象と処置具の3次元的な位置関係を把握して処置を行なうことができる。
特開2002−253480号公報(図1、段落[0017]、[0020]参照) 特開2001−204738号公報(図4、段落[0033]〜[0039]参照)
By using an apparatus to which the methods disclosed in these patent documents and the like are applied, it is possible to grasp the three-dimensional positional relationship between the treatment object and the treatment tool and perform the treatment.
JP 2002-253480 A (see FIG. 1, paragraphs [0017] and [0020]) JP 2001-204738 A (see FIG. 4, paragraphs [0033] to [0039])

しかし、被検体によっては、必ずしも上述した特許文献1に開示されている構成のように、挿入部や処置具にセンサ等の位置検出用の仕組みを設けることが出来るとは限らない。また、特許文献に2に開示されている構成のように予め被検体の画像情報を取得できるとも限らない。特に、航空機のエンジンや熱交換機を検査などに用いる工業用の内視鏡装置においては、これらの方法を適用することは、被検体の材質や形状、検査条件などから困難である。   However, depending on the subject, it is not always possible to provide a position detection mechanism such as a sensor in the insertion portion or the treatment instrument as in the configuration disclosed in Patent Document 1 described above. Further, the image information of the subject may not be acquired in advance as in the configuration disclosed in Patent Document 2. In particular, in an industrial endoscope apparatus that uses an aircraft engine or heat exchanger for inspection or the like, it is difficult to apply these methods because of the material and shape of the subject, inspection conditions, and the like.

この場合、内視鏡によって撮影される2次元の映像だけで処置具の操作を行なうことになるが、図20に示すような2次元の映像だけでは遠近惑が得られにくく、被検体と処置具の距離が判りにくい。従って、処置具を挿入してゆく際に、撮影画像を見ていても、被写体上のどの位置に処置具が接触するかが分からないため、処置対象に対して適切に処置具を近づけることが困難であり、処置に手間がかかってしまう。   In this case, the treatment tool is operated only with a two-dimensional image photographed by the endoscope, but it is difficult to obtain perspective with only the two-dimensional image as shown in FIG. The distance of the tool is difficult to understand. Therefore, when inserting the treatment tool, it is not known which position on the subject the treatment tool will contact even if the photographed image is viewed. Therefore, the treatment tool can be appropriately brought close to the treatment target. It is difficult and takes time and effort.

本発明は、上記問題を鑑みてなされたものであり、挿入具に特別な位置検出用の仕組みを設ける必要が無く、また予め被検体の画像情報を記憶する必要も無く、処置時に挿入具と被検体との距離を把握出来、またその結果処置対象に対して処置具を容易に近づけることが出来、適切な処置を行なうことが出来る内視鏡装置を提供することを目的とする。   The present invention has been made in view of the above problems, and it is not necessary to provide a special position detection mechanism for the insertion tool, and it is not necessary to store image information of a subject in advance, It is an object of the present invention to provide an endoscope apparatus that can grasp a distance from a subject, and as a result, can easily bring a treatment tool closer to a treatment target and can perform an appropriate treatment.

上記目的を達成するために本発明による内視鏡装置は、処置具による処置を行う内視鏡装置において、被写体の内視鏡映像を撮像する撮像部と、前記撮像部によって撮像される前記内視鏡映像を用いて3次元計測を行い、前記被写体の3次元情報を取得する3次元情報取得部と、前記処置具が被写体と接触すると予想される接触位置を、前記3次元情報、及び前記処置具の位置情報に基づいて算出する接触位置算出部と、を備えることを特徴とする。In order to achieve the above object, an endoscope apparatus according to the present invention is an endoscope apparatus that performs a treatment with a treatment tool, an imaging unit that captures an endoscopic image of a subject, and the internal that is captured by the imaging unit. A three-dimensional information acquisition unit that performs three-dimensional measurement using an endoscopic image and acquires three-dimensional information of the subject; a contact position where the treatment tool is expected to contact the subject; the three-dimensional information; and And a contact position calculation unit that calculates based on the position information of the treatment instrument.

本発明によれば、挿入具に特別な位置検出用の仕組みを設ける必要が無く、また予め被検体の画像情報を記憶する必要も無く、処置時に挿入具と被検体との接触位置や距離を把握出来る。またその為、使用者は処置対象に対して処置具を容易に近づけることが出来、適切な処置早く容易に、且つ正確に行なうことが出来る。   According to the present invention, it is not necessary to provide a special position detection mechanism for the insertion tool, and it is not necessary to store the image information of the subject in advance, and the contact position and distance between the insertion tool and the subject can be determined at the time of treatment. I can grasp. For this reason, the user can easily bring the treatment tool close to the treatment target, and can perform appropriate treatment quickly, easily and accurately.

以下に図面を参照しながら本発明の一実施形態を説明する。
図1は本実施形態の内視鏡装置1の外部構成を示す図である。
図1に示すように内視鏡装置1は、ステレオ計測可能なものを含む光学アダプタを着脱自在に構成されたスコープ部4、スコープ部4を収納するコントロールユニット2、内視鏡装置1のシステム全体の各種動作制御を実行するのに必要な操作を行なうリモートコントローラ6、内視鏡映像や操作制御内容(例えば処理メニューや使用者への通知等)等の表示を行なう液晶モニタ(以下、LCDと記載)3、通常の内視鏡映像、あるいはその内視鏡映像を擬似的にステレオ映像として立体視可能なフェイスマウントディスプレイ(以下、FMDと記載)7、及びFMD7に映像データを出力するFMDアダプタ8とを有する構成となっている
図2は図1の内視鏡装置1の制御処理を司る部分を中心に記載した回路ブロック図である。
An embodiment of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating an external configuration of an endoscope apparatus 1 according to the present embodiment.
As shown in FIG. 1, an endoscope apparatus 1 includes a scope unit 4 in which an optical adapter including one capable of stereo measurement is detachable, a control unit 2 that houses the scope unit 4, and a system of the endoscope apparatus 1. A remote controller 6 that performs operations necessary to execute overall various operation controls, and a liquid crystal monitor (hereinafter referred to as an LCD) that displays endoscope images and operation control contents (such as processing menus and notifications to users). 3. A normal endoscopic video, or a face-mounted display (hereinafter referred to as FMD) 7 that can stereoscopically view the endoscopic video as a pseudo stereo video, and an FMD that outputs video data to the FMD 7 FIG. 2 is a circuit block diagram mainly illustrating a portion that performs control processing of the endoscope apparatus 1 of FIG. 1.

図2に示すように、スコープ部4が接続される内視鏡ユニット11は、例えば図1に示したコントロールユニット2内に搭載される構成となる。この内視鏡ユニット11は、撮影時に必要な照明光を得るための光源装置と、内視鏡挿入部4を電気的に自在に湾曲させるための電動湾曲装置とを備えている。そしてこの内視鏡ユニット11は、カメラコントロールユニット(以下、CCUと記載)及びコントロールユニット2内に設けられている処理制御部20内の接続インタフェース(以下、接続I/Fと記載)29に接続されている。   As shown in FIG. 2, the endoscope unit 11 to which the scope unit 4 is connected is configured to be mounted in the control unit 2 shown in FIG. 1, for example. The endoscope unit 11 includes a light source device for obtaining illumination light necessary for photographing and an electric bending device for bending the endoscope insertion portion 4 freely and electrically. The endoscope unit 11 is connected to a camera control unit (hereinafter referred to as CCU) and a connection interface (hereinafter referred to as connection I / F) 29 in the processing control unit 20 provided in the control unit 2. Has been.

内視鏡挿入部4の先端にある後述する固体撮像素子43(図4参照)から入力される撮像信号は、内視鏡ユニット11を介してCCU12に入力される。このCCU12は、入力された撮像信号をNTSC信号等の映像信号に変換し、コントロールユニット2内の処理制御部20の接続I/F29へ出力する。   An imaging signal input from a solid-state imaging device 43 (see FIG. 4) described later at the distal end of the endoscope insertion unit 4 is input to the CCU 12 via the endoscope unit 11. The CCU 12 converts the input imaging signal into a video signal such as an NTSC signal and outputs the video signal to the connection I / F 29 of the processing control unit 20 in the control unit 2.

コントロールユニット2内に搭載された処理制御部20は、図2では、主要プログラムに基づいて内視鏡装置の各種機能を実現するための動作の制御を行なうCPU26、ROM27及びRAM28や、接続インタフェース(以下、接続I/Fと記載)29、カードインターフェイス(以下、カードI/Fと記載)22、映像信号処理回路21及び音声信
号処理回路23とを有し、これらがバス24に接続される構成となっている。
In FIG. 2, the processing control unit 20 mounted in the control unit 2 includes a CPU 26, a ROM 27 and a RAM 28 that control operations for realizing various functions of the endoscope apparatus based on a main program, a connection interface ( Hereinafter, a connection interface 29 is described, a card interface (hereinafter referred to as a card interface) 22, a video signal processing circuit 21 and an audio signal processing circuit 23, and these are connected to the bus 24. It has become.

接続I/F29は、リモートコントローラ6、内視鏡ユニット11及びCCU12等、処理制御部20外部の機器を処理制御部20の内部バス24に接続するRS−232C等の接続インタフェースである。   The connection I / F 29 is a connection interface such as RS-232C that connects devices outside the processing control unit 20 such as the remote controller 6, the endoscope unit 11, and the CCU 12 to the internal bus 24 of the processing control unit 20.

リモートコントローラ6は、内視鏡ユニット11やCCU12を動作させる際に使用者が操作指示を内視鏡装置に対して入力するものである。このリモートコントローラ6からの操作指示入力は、接続I/F29によって、CPU26へ、若しくは内視鏡ユニット11やCCU12に直接通知され、これを受けた各部は、その操作指示を実現するための動作を行なう。   The remote controller 6 is used when the user inputs an operation instruction to the endoscope apparatus when operating the endoscope unit 11 or the CCU 12. The operation instruction input from the remote controller 6 is directly notified to the CPU 26 or the endoscope unit 11 or the CCU 12 through the connection I / F 29, and each unit that receives the operation performs an operation for realizing the operation instruction. Do.

カードI/F22は、コンパクトフラッシュ(登録商標)メモリカード13やPCMC
IAメモリカード14等のICカードが着脱自由に接続されるようになっているカードスロットである。このカードI/F22にICカードが装着されるとICカードの種類を調
べ、ICカードがメモリカードであった場合、このカードI/F22を介して、CPU2
6による制御によって、記憶されている制御処理情報や映像情報等のデータを再生したり、メモリカード内に記憶されているデータをコントロールユニット2内に取り込込んだり、或いは制御処理情報や映像情報等のデータを、メモリカード内に書き込んで記録することができる。
The card I / F 22 is a compact flash (registered trademark) memory card 13 or PCMC.
This is a card slot to which an IC card such as the IA memory card 14 is detachably connected. When an IC card is inserted into the card I / F 22, the type of the IC card is checked. If the IC card is a memory card, the CPU 2 is connected via the card I / F 22.
6 is used to reproduce data such as stored control processing information and video information, to import data stored in the memory card into the control unit 2, or to control processing information and video information. Etc. can be written and recorded in the memory card.

映像信号処理回路21は、CCU12からの撮影映像と操作メニューのグラフィックとを合成した合成画像を表示する為に、CCU12からの映像信号による内視鏡映像とCPU26の処理により生成される操作メニューの画像とを合成処理し、さらにLCD3の画面上に表示するのに必要な処理を施してLCD3に出力する。これにより、LCD3には内視鏡映像と操作メニューとが合成された映像が表示される。なお、映像信号処理回路21では、単に内視鏡映像の画像、あるいは操作メニュー等の画像を単独で表示するための処理を行なうことも可能である。   The video signal processing circuit 21 displays an operation menu generated by the processing of the endoscope video and the CPU 26 based on the video signal from the CCU 12 in order to display a composite image obtained by synthesizing the captured video from the CCU 12 and the graphic of the operation menu. The image is combined with the image, and further necessary processing for displaying on the screen of the LCD 3 is performed and the image is output to the LCD 3. Thereby, an image in which the endoscope image and the operation menu are combined is displayed on the LCD 3. Note that the video signal processing circuit 21 can simply perform processing for displaying an image of an endoscope video or an image such as an operation menu alone.

音声信号処理回路23は、マイク15により集音された音声を、メモリカード等の記録媒体に記録する音声信号に変換したり、或いはメモリカード等の記録媒体の再生により得られた音声信号やCPU26によって生成された音声信号が入力され、これらの音声信号に対して増幅処理等、再生するために必要な処理を施し、スピーカ16に出力する。これにより、スピーカ16によって音声信号が再生される。   The audio signal processing circuit 23 converts the sound collected by the microphone 15 into an audio signal to be recorded on a recording medium such as a memory card, or an audio signal obtained by reproducing the recording medium such as a memory card or the CPU 26. The audio signals generated by the above are input, and processing necessary for reproduction, such as amplification processing, is performed on these audio signals and output to the speaker 16. Thereby, the audio signal is reproduced by the speaker 16.

CPU26は、ROM27に格納されているプログラムを実行し、目的に応じた処理を行なうように各種の回路部を制御してシステム全体の動作制御を行なう。またROM27は、内視鏡装置1の制御を行なうための基本プログラムやファームウエアが記憶されているメモリであり、またRAM28は、CPU26のワークメモリ等として用いられるメモリである。   The CPU 26 executes a program stored in the ROM 27 and controls various circuit units so as to perform processing according to the purpose, thereby controlling the operation of the entire system. The ROM 27 is a memory storing a basic program and firmware for controlling the endoscope apparatus 1, and the RAM 28 is a memory used as a work memory for the CPU 26.

図3は、スコープ部4を中心とした内視鏡装置の要部構成を示す斜視図である。同図は、挿入部の先端部から光学アダプタを取外した状態を示している。
スコープ部4は、少なくとも検査対象空間内に挿入される可撓性を有する細長い挿入部4aと、中間連結部4b及びユニバーサルケーブル4cを有している。またこのうち挿入部4aは、観察用の観察光学系や照明光学系などが組み込まれ、最先端位置に配置されたヘッド部4a1、及び細長い可撓管部4a3を有し、またこのヘッド部4a1と可撓管部4a3との間には、使用者の操作指示によって自由に、遠隔的に湾曲操作可能な湾曲部4a2を備える構成となっている。
FIG. 3 is a perspective view showing a main configuration of the endoscope apparatus with the scope unit 4 as the center. This figure shows a state in which the optical adapter is removed from the distal end portion of the insertion portion.
The scope portion 4 includes at least a flexible elongated insertion portion 4a that is inserted into the inspection target space, an intermediate connection portion 4b, and a universal cable 4c. Of these, the insertion portion 4a incorporates an observation optical system and illumination optical system for observation, and has a head portion 4a1 and an elongated flexible tube portion 4a3 arranged at the foremost position, and this head portion 4a1. And a flexible tube portion 4a3 are provided with a bending portion 4a2 that can be freely bent remotely by a user's operation instruction.

挿入部4aの可撓管部4a3の基端部49には中間連結部4bの先端部が連結されており、この中間連結部4bには使用者が片手で把持可能なグリップ部4b1が設けられている。またグリップ部4b1の後端部には、チャンネルポート部4b2とユニバーサルケーブル4cの先端部4c1との連結部とが並設されている。そしてこのチャンネルポート部4b2には、挿入部4aの内部に軸心方向に沿って延設された内部チャンネル47の鉗子口(基端側開口端)48が配設されている。更に、ユニバーサルケーブル4cの連結部は挿入部4aの軸心方向に対して斜めに傾斜させた状態で配置されている。   The distal end portion of the intermediate connecting portion 4b is connected to the base end portion 49 of the flexible tube portion 4a3 of the insertion portion 4a. The intermediate connecting portion 4b is provided with a grip portion 4b1 that can be grasped by one user with one hand. ing. A connecting portion between the channel port portion 4b2 and the tip end portion 4c1 of the universal cable 4c is provided in parallel at the rear end portion of the grip portion 4b1. The channel port portion 4b2 is provided with a forceps port (proximal opening end) 48 of an internal channel 47 extending along the axial direction inside the insertion portion 4a. Further, the connecting portion of the universal cable 4c is disposed in a state where it is inclined obliquely with respect to the axial direction of the insertion portion 4a.

また図3では、内視鏡装置1に対して使用者が、各種動作制御の指示入力を行なうためのリモートコントローラ6には、少なくとも内視鏡装置1の電源投入/切断を指示するパワーボタン18と、スコープ部4の湾曲部4a2の湾曲方向を上下左右方向に遠隔的に操作指示の入力を行なうためのジョイスティック19とが設けられている。
In FIG. 3, a power button 18 for instructing at least power-on / off of the endoscope apparatus 1 is provided to the remote controller 6 for a user to input various operation control instructions to the endoscope apparatus 1. And a joystick 19 for remotely inputting an operation instruction in the bending direction of the bending portion 4a2 of the scope portion 4 in the vertical and horizontal directions.

また、図3に示すようにヘッド部4a1の先端面には、観察光学系106を備えた略半円形状の突設部41が形成されている。そしてヘッド部4a1の先端面には、挿入部4aの内部に軸心方向に沿って廷設された内部チャンネル33の先端開口部101が配設されている。そしてまたこの先端関口部101の両側には、照明光学系の照明窓104がそれぞれ形成されている。   Further, as shown in FIG. 3, a substantially semicircular protruding portion 41 having an observation optical system 106 is formed on the tip surface of the head portion 4a1. The distal end face 101 of the internal channel 33 is disposed on the distal end surface of the head portion 4a1 along the axial direction inside the insertion portion 4a. Further, illumination windows 104 of an illumination optical system are formed on both sides of the distal end opening 101.

また内視鏡装置1のヘッド部4a1の先端部には、例えばバヨネット式、スクリュー式などの適宜の構成のマウント部を持つ光学アダプタ装着部44が設けられており、この光学アダプタ装着部44を用いて内視鏡装置1のヘッド部4a1の先端部に光学アダプタを取り付けることが出来る。   In addition, an optical adapter mounting portion 44 having a mount portion having an appropriate structure such as a bayonet type or a screw type is provided at the distal end portion of the head portion 4a1 of the endoscope apparatus 1, and the optical adapter mounting portion 44 is It is possible to attach an optical adapter to the distal end portion of the head portion 4a1 of the endoscope apparatus 1 by using it.

この光学アダプタには複数種類有り、用途によって付け替えて用いる。例えば図3には直視双眼アダプタ100a1と側視双眼アダプタ(双眼観察光学系)100a2が脱着自在な状態で取り付けられることを示している。本実施形態による内視鏡装置1では、複数種類ある光学アダプタの中から必要に応じて選択して、ヘッド部4a1の先端部に取り付けることが出来る。   There are a plurality of types of optical adapters, and they can be used depending on the application. For example, FIG. 3 shows that the direct-view binocular adapter 100a1 and the side-view binocular adapter (binocular observation optical system) 100a2 are attached in a detachable state. In the endoscope apparatus 1 according to the present embodiment, it is possible to select from among a plurality of types of optical adapters as necessary and attach them to the distal end portion of the head portion 4a1.

図3では、光学アダプタ100a1及び100a2は、撮影を行なうアダプタ観察光学系107、照明光を照射するアダプタ照明窓105、処置具が出入りするアダプタ関口部103がそれぞれ設けられている。そして図3に示すように、ステレオ計測用の直視双眼アダプタ100a1及び側視双眼アダプタ100a2の各アダプタ観察光学系107にはそれぞれ左右2つの観察窓(観察光学系)108L、108Rが設けられている。   In FIG. 3, the optical adapters 100a1 and 100a2 are respectively provided with an adapter observation optical system 107 that performs photographing, an adapter illumination window 105 that irradiates illumination light, and an adapter entrance 103 that allows a treatment tool to enter and exit. As shown in FIG. 3, each adapter observation optical system 107 of the direct-viewing binocular adapter 100a1 and the side-viewing binocular adapter 100a2 for stereo measurement is provided with two left and right observation windows (observation optical systems) 108L and 108R, respectively. .

図4にステレオ計測用の直視双眼アダプタ100a1がヘッド部4a1に装着された状態を示す。尚以下の説明は、光学アダプタ100a2等他の光学アダプタを装着した場合も基本的には同じである。   FIG. 4 shows a state in which the direct-viewing binocular adapter 100a1 for stereo measurement is attached to the head portion 4a1. The following description is basically the same when other optical adapters such as the optical adapter 100a2 are attached.

光学アダプタ100a1がヘッド部4a1の光学アダプタ装着部44に装着されると、ヘッド部4a1の観察光学系106と光学アダプタ100a1のアダプタ観察光学系107とが連結され、同様にヘッド部4a1の2つの照明窓104とアダプタ照明窓105、さらにヘッド部4a1の先端関口部101とアダプタ開口部103とが連結される。突設部41の観察光学系106には、光学レンズ群42と、この光学レンズ群42によって結像される観察像を撮像する固体撮像素子であるCCD43とが設けられており、アダプタ観察光学系107の2つの観察窓108L,108Rからの観察像がヘッド部4a1の観察光学系106を介して2つの光学経路にて1つのCCD43に結像されるようになっている。   When the optical adapter 100a1 is attached to the optical adapter attachment portion 44 of the head portion 4a1, the observation optical system 106 of the head portion 4a1 and the adapter observation optical system 107 of the optical adapter 100a1 are connected, and similarly, the two of the head portion 4a1 are connected. The illumination window 104 and the adapter illumination window 105 are connected to the front end opening 101 of the head portion 4a1 and the adapter opening 103. The observation optical system 106 of the projecting portion 41 is provided with an optical lens group 42 and a CCD 43 that is a solid-state imaging device that images an observation image formed by the optical lens group 42. Observation images from two observation windows 108L and 108R 107 are formed on one CCD 43 through two optical paths via the observation optical system 106 of the head portion 4a1.

尚CCD43は、アダプタ観察光学系107の2つの観察窓108L、108Rそれぞれに対応させて2つのCCD43をヘッド部4a1に設ける構成にしてもよい。
図5は内視鏡装置1のソフトウエアによって実現される機能ブロックの構成図である。
The CCD 43 may be configured such that the two CCDs 43 are provided in the head portion 4a1 so as to correspond to the two observation windows 108L and 108R of the adapter observation optical system 107, respectively.
FIG. 5 is a configuration diagram of functional blocks realized by software of the endoscope apparatus 1.

この図5に示す各機能は、図2のCPU26が、ROM27やRAM28、若しくはカードI/F22に装着されたメモリカード内のプログラムを、RAM28をワークメモリとして実行することによって実現される。尚本例では、同図中の各機能ブロックをソフトウエア的手法によって実現しているが、内視鏡装置1内に各機能ブロックの機能を実現する専用のハードウエアを実装して、ハードウエアにより実現する構成としても良い。   Each function shown in FIG. 5 is realized by the CPU 26 shown in FIG. 2 executing a program in a memory card mounted on the ROM 27, the RAM 28, or the card I / F 22 using the RAM 28 as a work memory. In this example, each functional block in the figure is realized by a software method, but dedicated hardware that implements the function of each functional block is installed in the endoscope apparatus 1 to implement the hardware. It is good also as a structure implement | achieved by.

図5中、システム制御部201は内視鏡装置1全体の制御を司るもので、接続されている他の機能ブロックとデータの預受を行なうことにより、他の機能ブロックや内視鏡装置1を構成しているハードウエアの制御を行なう。同図では、このシステム制御部201には、記録・再生指示部202、操作検知部203、グラフィック表示指示部204、画像入力部205、ステレオ計測部206、及び処置具接触位置算出制御部207の各機能ブロックが接続されている。   In FIG. 5, the system control unit 201 controls the entire endoscope apparatus 1, and by depositing data with other connected functional blocks, the other functional blocks and the endoscope apparatus 1. The hardware that constitutes the system is controlled. In this figure, the system control unit 201 includes a recording / playback instruction unit 202, an operation detection unit 203, a graphic display instruction unit 204, an image input unit 205, a stereo measurement unit 206, and a treatment instrument contact position calculation control unit 207. Each functional block is connected.

記録・再生指示部202は、カードI/F22と接続されており、システム制御部20
1からの指示に基づいて、カードI/F22に装着されているメモリカード内のデータを
読み出してシステム制御部201に送出したり、システム制御部201を介して映像信号のデータをカードI/F22に装着されているメモリカードに書き込む。操作検知部20
3は、リモートコントローラ6等の使用者によって操作指示が行なわれるユニットが接続されており、使用者がリモートコントローラ6等を操作するとその操作指示を受け付け、その内容をシステム制御部201に通知する。そして通知された指示内容が、画像の記録若しくは再生命令であったとき、システム制御部201は、記録再生指示を記録・再生指示部202に通知し、記録・再生指示部202にカードI/F22に装着されているメモ
リカードに映像データの読み出し又は書き込みを指示する。
The recording / playback instruction unit 202 is connected to the card I / F 22, and the system control unit 20
1, data in a memory card attached to the card I / F 22 is read out and sent to the system control unit 201, or video signal data is sent to the card I / F 22 via the system control unit 201. Write to the memory card attached to the. Operation detection unit 20
3 is connected to a unit to which an operation instruction is given by a user such as the remote controller 6. When the user operates the remote controller 6 or the like, the operation instruction is accepted and the content is notified to the system control unit 201. When the notified instruction content is an image recording or reproduction command, the system control unit 201 notifies the recording / reproduction instruction unit 202 of the recording / reproduction instruction unit 202 and the card I / F 22 to the recording / reproduction instruction unit 202. Is instructed to read or write video data.

グラフィック表示指示部204は、LCD3上にグラフィック表示する画像の画像データの生成を司るもので、システム制御部201の指示に基づいて操作メニュー等の内視鏡操作に必要なグラフィック画像の画像データを映像信号処理回路21を介してLCD3やFMD7に出力する。また画像入力部205は、映像信号処理回路21を介してCCU12から入力された内視鏡映像をシステム制御部201に転送する。このグラフィック表示指示部204及び画像入力部205には映像処理信号回路31が接続されている。ステレオ計測指示部206は、画像入力部205から転送された画像に対してステレオ計測を実行し、その結果をシステム制御部201に通知する。使用者がリモートコントローラ6によって操作指示を行なうとシステム制御部201は、ステレオ計測指示部206にステレオ計測の実行を指示し、その計測結果をグラフィック表示指示部204によってLCD3やFMD7上にグラフィック表示させる。   The graphic display instruction unit 204 is responsible for generating image data of an image to be displayed graphically on the LCD 3. Based on an instruction from the system control unit 201, graphic display image data necessary for an endoscope operation such as an operation menu is obtained. The image is output to the LCD 3 and the FMD 7 via the video signal processing circuit 21. The image input unit 205 transfers the endoscope video input from the CCU 12 to the system control unit 201 via the video signal processing circuit 21. A video processing signal circuit 31 is connected to the graphic display instruction unit 204 and the image input unit 205. The stereo measurement instruction unit 206 performs stereo measurement on the image transferred from the image input unit 205 and notifies the system control unit 201 of the result. When the user gives an operation instruction using the remote controller 6, the system control unit 201 instructs the stereo measurement instruction unit 206 to execute stereo measurement, and causes the graphic display instruction unit 204 to display a graphic on the LCD 3 or the FMD 7. .

次にステレオ計測指示部206によって行なわれるステレオ計測について説明する。
図6は、三角測量の原理に基づくステレオ計測による計測点の3次元座標の求め方を説明する図である。
Next, stereo measurement performed by the stereo measurement instruction unit 206 will be described.
FIG. 6 is a diagram for explaining how to obtain the three-dimensional coordinates of measurement points by stereo measurement based on the principle of triangulation.

直視双眼アダプタ100a1や側視双眼アダプタ100a2からは、左右2つのアダプタ観察窓108R、108Lを通して、視差のある画像情報を取得できる。この画像情報に基づき三角測量の原理から被写体までの距離を測定することができる。   From the binocular adapter 100a1 or the binocular adapter 100a2, the image information with parallax can be acquired through the two left and right adapter observation windows 108R and 108L. Based on this image information, the distance to the subject can be measured from the principle of triangulation.

同図において、左側(アダプタ観察窓108L)及び右側(アダプタ観察窓108R)の観察光学系で撮像された上における光学中心に対応する点をそれぞれ原点OL,ORとし、画像上の計測点52L,52Rの座標をそれぞれ(XL ,YL )、(XR ,YR )とする。また、アダブタ観察窓108L(左)の光学中心51Lを原点Oとし、原点Oとアダブタ観察窓108R(右)の光学中心51Rを通る直線をX軸、光軸に平行な方向をZ軸、X軸とZ軸に垂直な方向をY軸とした空間座標において、計測点53の3次元座標を(X,Y,Z)とする。 In the figure, points corresponding to the optical centers on the left (adapter observation window 108L) and right (adapter observation window 108R) images are taken as origins OL and OR, respectively, and measurement points 52L, The coordinates of 52R are (X L , Y L ) and (X R , Y R ), respectively. Further, the optical center 51L of the adapter pig observation window 108L (left) is set as the origin O, a straight line passing through the origin O and the optical center 51R of the adapter pig observation window 108R (right) is the X axis, a direction parallel to the optical axis is the Z axis, In the space coordinates with the direction perpendicular to the axis and the Z axis as the Y axis, the three-dimensional coordinate of the measurement point 53 is (X, Y, Z).

撮影画像が表示されているLCD3上の表示画面を見ながら、使用者がリモートコントローラ6を操作して左側の計測点52L(座標(XL ,YL ))を指定すると、ステレオ計測部206はこの点と対応する右側の計測点52Rの座標(XR ,YR )を既存のマッチング方法によって決定する。このとき、左側と右側の光学中心の距離をD、焦点距離をFとすると、値D、Fは既知なので、三角測量の方法により計測点53の3次元座標(X,Y,Z)は、
X=t × XL
Y=t × YL
Z=t × F
ただし、t=D/(XR −XL +D)
と求まる。
When the user operates the remote controller 6 and designates the left measurement point 52L (coordinates (X L , Y L )) while viewing the display screen on the LCD 3 on which the captured image is displayed, the stereo measurement unit 206 is The coordinates (X R , Y R ) of the right measurement point 52R corresponding to this point are determined by an existing matching method. At this time, if the distance between the left and right optical centers is D and the focal length is F, the values D and F are already known, so that the three-dimensional coordinates (X, Y, Z) of the measurement point 53 are obtained by the triangulation method.
X = t × X L
Y = t × Y L
Z = t × F
Where t = D / (X R −X L + D)
It is obtained.

尚マッチング方法とは、リモートコントローラ6の操作によって左側の観察光学系の画像から計測点52Rが指定されると、画像認識処理によって、その左側の画像内の指定された計測点52R周辺と類似した形状を右側の観察光学系の画像内から探索して、右側の計測点52Lを求める方法をいう。   In the matching method, when the measurement point 52R is designated from the image of the left observation optical system by the operation of the remote controller 6, it is similar to the vicinity of the designated measurement point 52R in the left image by the image recognition process. This is a method of searching for the shape from the image of the right observation optical system and obtaining the right measurement point 52L.

以下の説明では、左側の計測点52Lの座標(XL ,YL )とマッチング方法による処理で得られた右側の計測点52Rの座標(XR ,YR )から得られる計測点53の3次元座標をP((XL ,YL ))=(X,Y,Z)と表す。 In the following description, 3 of the measurement points 53 obtained from the coordinates (X L , Y L ) of the left measurement point 52L and the coordinates (X R , Y R ) of the right measurement point 52R obtained by the processing by the matching method. The dimensional coordinate is expressed as P ((X L , Y L )) = (X, Y, Z).

このように、画像上での計測点の座標が決定されると、既知のパラメータ値D及びFを用いて計測点53の3次元座標(X,Y,Z)が求まる。そして複数の計測点53の3次元座標(X,Y,Z)を求めることによって、観測点間の距離、2点を結ぶ線と1点の距離、面積、深さ、表面形状などの様々な計測が可能となる。   Thus, when the coordinates of the measurement point on the image are determined, the three-dimensional coordinates (X, Y, Z) of the measurement point 53 are obtained using the known parameter values D and F. Then, by obtaining the three-dimensional coordinates (X, Y, Z) of the plurality of measurement points 53, various distances such as the distance between the observation points, the distance between the line connecting the two points and one point, the area, the depth, the surface shape, etc. Measurement is possible.

処置具接触位置算出部207は、処置具経路とステレオ計測部206によって取得される被写体の3次元情報から処置具と被写体が接触する位置を算出し、その結果に基づいてシステム制御部201はグラフィック表示指示部213にLCD3上に処置具が接触すると予想される接触位置を表示させる。この点についての詳細は後述する。   The treatment tool contact position calculation unit 207 calculates a position where the treatment tool and the subject contact from the treatment tool path and the three-dimensional information of the subject acquired by the stereo measurement unit 206, and based on the result, the system control unit 201 performs a graphic. The display instruction unit 213 displays a contact position where the treatment tool is expected to contact on the LCD 3. Details of this point will be described later.

次に、本実施の形態の内視鏡装置1を用いた処置具による処置例について説明する。
内視鏡装置1は、使用時にはスコープ部4のヘッド部4a1に必要に応じて各種の光学アダプタが着脱可能に装着出来るが、本例では、図4に示すようにヘッド部4a1の光学アダプタ装着部44に直視双眼アダプタ100a1を取り付けた場合の処置具による処置例を示す。
Next, a treatment example using a treatment tool using the endoscope apparatus 1 of the present embodiment will be described.
In the endoscope apparatus 1, various optical adapters can be detachably attached to the head part 4 a 1 of the scope part 4 when necessary, but in this example, as shown in FIG. 4, the optical adapter of the head part 4 a 1 is attached. The treatment example by the treatment tool when the direct-viewing binocular adapter 100a1 is attached to the unit 44 is shown.

まず、ヘッド部4a1に直視双眼アダプタ100a1を取り付けた状態で、スコープ部の挿入部4aを被検体の検査対象空間内に挿入する。
図7は、挿入部4aを検査対象であるタービンブレード301の近傍位置まで挿入した状態を示している。タービンブレード301にはヒビ302が入っており、図7に示す状態では内視鏡画像からこのヒビ302が観察される。本例では、後に分解整備するときに識別しやすくするために、ヒビ302が入ったタービンブレード301に対して処置具の先端に取り付けた塗料でマーキングする作業について述べる。
First, with the direct-viewing binocular adapter 100a1 attached to the head part 4a1, the insertion part 4a of the scope part is inserted into the examination target space of the subject.
FIG. 7 shows a state in which the insertion portion 4a is inserted up to a position near the turbine blade 301 to be inspected. The turbine blade 301 has cracks 302. In the state shown in FIG. 7, the cracks 302 are observed from the endoscopic image. In this example, an operation of marking the turbine blade 301 containing cracks 302 with a paint attached to the tip of the treatment tool will be described in order to facilitate identification at the time of disassembly and maintenance.

図7は、マーキングするためにチャンネルポート部4b2の鉗子口48から鉗子114を挿入するところを示しており、この鉗子114には、細長い可撓性の鉗子挿入部114aの先端に塗料を含む鉗子先端部114bが設けられている。そして、図8に示すようにアダプタ開口部103から鉗子114の鉗子先端部114bを突出させ、観察窓108L、108Rからの映像がLCD3若しくはFMD7上に表示されるのを見ながら、鉗子114やリモートコントローラ6のジョイスティック19等を操作して鉗子先端部114bをタービンブレード301に接触させてマーキングする。   FIG. 7 shows that the forceps 114 is inserted from the forceps port 48 of the channel port portion 4b2 for marking. The forceps 114 includes a forceps including paint at the tip of an elongated flexible forceps insertion portion 114a. A tip portion 114b is provided. Then, as shown in FIG. 8, the forceps tip 114b of the forceps 114 is protruded from the adapter opening 103, and the images from the observation windows 108L and 108R are displayed on the LCD 3 or the FMD 7, and the forceps 114 and the remote The joystick 19 of the controller 6 is operated to bring the forceps tip 114b into contact with the turbine blade 301 for marking.

このとき、LCD3若しくはFMD7の表示画面上には、鉗子114を突出させて行った場合に鉗子先端部114bがタービンブレード301に接触すると予想される位置が表示されて、使用者に通知される。   At this time, on the display screen of the LCD 3 or the FMD 7, a position where the forceps tip 114 b is expected to contact the turbine blade 301 when the forceps 114 are projected is displayed and notified to the user.

この鉗子先端部114bとタービンブレード301の接触位置に関する情報の通知処理について説明する。
図9は、この通知処理時にシステム制御部201が行なう処理を示すフローチャートである。本処理は、図2に示したCPU26がRAM28をワークメモリとしてROM27、RAM28等のメモリ上のプログラムを実行することによって実現される。
Information notification processing regarding the contact position between the forceps tip 114b and the turbine blade 301 will be described.
FIG. 9 is a flowchart showing processing performed by the system control unit 201 during this notification processing. This processing is realized by the CPU 26 shown in FIG. 2 executing a program on a memory such as the ROM 27 and the RAM 28 using the RAM 28 as a work memory.

まず、ステップS01としてシステム制御部201は、ステレオ計測部206に画像入力部206から受け取った内視鏡による撮像画像を用いてステレオ計測を行なわせ、被写体の3次元情報を取得する。   First, in step S01, the system control unit 201 causes the stereo measurement unit 206 to perform stereo measurement using an image captured by the endoscope received from the image input unit 206, and acquires three-dimensional information of the subject.

次にステップS02では、システム制御部201は処置具接触位置算出制御部207に、ステップS01で得た被写体の3次元情報と、処置具経路に基づいて接触位置を算出させる。   Next, in step S02, the system control unit 201 causes the treatment instrument contact position calculation control unit 207 to calculate a contact position based on the three-dimensional information of the subject obtained in step S01 and the treatment instrument path.

そしてステップS03で、システム制御部201は、ステップS02で算出した接触位置を通知させる。ステップS04で、システム制御部201は、処置具接触位置算出制御部207に接触位置の座標から接触位置と内視鏡挿入部の間の距離L1を算出させ、ステップS05として結果を通知させる。また次にステップS06として、処置具接触位置算出制御部207に被写体3次元情報に基づいて処置具先端位置を検出させる。そして次にステップS07として、処置具接触位置算出制御部207に処置具先端位置と接触位置の間の距離L2を算出させ、ステップS08として結果を通知させる。 In step S03, the system control unit 201 notifies the contact position calculated in step S02. In step S04, the system control unit 201 causes the calculated distance L 1 between the contact position and the endoscope insertion portion from the coordinates of the contact position to the treatment instrument contact position calculation controller 207, Ru is notified of the result in step S05 . As next step S 06, Ru is detected the treatment instrument distal end position based on the object 3-dimensional information on the treatment instrument contact position calculation controller 207. As next step S 07 to its, to calculate the distance L 2 between the contact position and the treatment instrument distal end position in the treatment tool contact position calculation control unit 207, to notify the result in step S 08.

以上のようにして求められた接触位置、接触位置と内視鏡挿入部の距離L1 、処置具先端位置と接触位置の距離L2 を、システム制御部201は、グラフィック表示指示部209にLCD3やFMD7の表示画面上に表示するよう指示し、これらの内容は使用者に通知される。 Above manner the obtained contact position, the distance L 1 of the contact position and the endoscope insertion portion, the distance L 2 of the contact position between the treatment instrument distal end position, the system control unit 201, the graphic display instruction section 209 LCD 3 And instructing to display on the display screen of FMD7, and the contents thereof are notified to the user.

この表示の仕方は、例えば左右の内視鏡画像に、接触位置に対応する内視鏡映像上の点WL (QZ )及びWR (QZ )の位置に×印を表示し、使用者に通知する。また、内視鏡挿入部と接触位置との距離L1 や、内視鏡映像上で処置具が検出される場合は、処置具と接触位置までの距離L2 を数値で表示する。 For this display method, for example, in the left and right endoscopic images, x marks are displayed at the positions of the points W L (Q Z ) and W R (Q Z ) on the endoscopic image corresponding to the contact position. The person in charge. Further, the distance L 1 between the endoscope insertion portion and the contact position, and when the treatment tool is detected on the endoscope image, the distance L 2 between the treatment tool and the contact position is displayed numerically.

また本実施形態の内視鏡装置は、使用者に処置具の接触の警告を行なう機能を備えており、ステップS09では、システム制御部201は、処置具と接触位置までの距離L2 が所定の値よりも小さくなったかを判断し、小さい場合には(ステップS09、Yes)、ステップS10として、LCD3やFMD7の表示画面上にメッセージを表示したり、音声信号処理回路23を介してスピーカ16から音声によって使用者に通知したりする。以上のステップS01からS10までの処理を繰り返す(ステップS09、No)ことによって、内視鏡及び処置具の操作に応じた接触位置に関する情報を使用者に通知する。 The endoscope apparatus of the present embodiment has a function of a warning contact of the treatment instrument to the user, in step S09, the system control unit 201, a distance L 2 to the contact position with the treatment tool predetermined If it is smaller (step S09, Yes), as a step S10, a message is displayed on the display screen of the LCD 3 or FMD 7, or the speaker 16 is connected via the audio signal processing circuit 23. To notify the user by voice. By repeating the processes from step S01 to step S10 described above (step S09, No), the user is notified of information regarding the contact position according to the operation of the endoscope and the treatment tool.

次に図9のステップS2で処置具接触位置算出制御部207によって行なわれる接触位置の算出の仕方について詳細に説明する。
図10は挿入部4aを検査対象であるタービンブレード301の近傍位置まで挿入し、処置具114を突出させた状態を示す斜視図である。
It will be described in detail how to calculate the contact position performed by step S 0 2 in the treatment instrument contact position calculation controller 207 of FIG.
FIG. 10 is a perspective view showing a state in which the insertion portion 4a is inserted to a position near the turbine blade 301 to be inspected and the treatment instrument 114 is protruded.

図10では、左対物レンズの光学中心を原点Oとし、左光学中心と右光学中心を通る直線をX軸、光軸に平行な方向にZ軸、X軸とZ軸に垂直な方向にY軸とした座標系を設定している。   In FIG. 10, the optical center of the left objective lens is the origin O, the straight line passing through the left optical center and the right optical center is the X axis, the Z axis is parallel to the optical axis, and the Y axis is perpendicular to the X axis and Z axis. A coordinate system is set as an axis.

処置具を突出させた時に処置具がタービンブレード301に対して真っ直ぐ伸ばす場合は、処置具は図11中に破線311で示す経路をとる。すなわち、処置具が処置具送出口であるアダプタ関口部103(座標(b/2,a,0))から真っ直ぐ送出されるとすると、3次元処置具経路W(Z)は、   When the treatment tool extends straight with respect to the turbine blade 301 when the treatment tool is projected, the treatment tool takes a path indicated by a broken line 311 in FIG. That is, if the treatment instrument is delivered straight from the adapter entry port 103 (coordinates (b / 2, a, 0)) that is the treatment instrument delivery port, the three-dimensional treatment instrument path W (Z) is

となる。
次に、内視鏡映像内での処置具経路について考える。
図11は図10に対応する内視鏡映像上の処置対象と処置具径路と接触位置を示す図である。
It becomes.
Next, a treatment instrument path in the endoscope image will be considered.
FIG. 11 is a diagram illustrating a treatment target, a treatment instrument path, and a contact position on an endoscopic image corresponding to FIG.

内視鏡映像上においては、図11では左(観察窓108Lの光学系)及び右(観察窓108Rの光学系)の光学中心に対応する点を原点OL,ORとし、右側及び左側の内視鏡映像314L,313R上の水平方向と垂直方向にそれぞれXL 軸,YL 軸とXR 軸,YR 軸の座標系を設定している。このとき、内視鏡映像上での左側及び右側の内視鏡映像上の処置具経路WL (Z),WR (Z)はそれぞれ原点OL,ORに対して On the endoscopic image, in FIG. 11, points corresponding to the optical centers of the left (the optical system of the observation window 108L) and the right (the optical system of the observation window 108R) are the origins OL and OR, and the right and left side endoscopes are viewed. The coordinate systems of the X L axis, the Y L axis, the X R axis, and the Y R axis are set in the horizontal and vertical directions on the mirror images 314L and 313R, respectively. At this time, the treatment instrument paths W L (Z) and W R (Z) on the left and right endoscope images on the endoscope image are respectively set to the origins OL and OR.

となる。ただし、上式中fは焦点距離である。この内視鏡映像上の処置具経路WL (Z),WR (Z)を図11において点線312L,312Rで示す。
左側の内視鏡映像313L上での接触位置は、式(1)で示される3次元処置具経路W(Z)と、式(2)で示される左側の内視鏡映像上の処置具経路WL (Z)及び被写体の3次元情報に基づいて算出する。尚以下の説明は、左側の内視鏡映像上での接触位置の算出について述べるが、右側の内視鏡映像上での接触位置も式(1)と、式(3)で示される右側の内視鏡映像上の処置具経路WR (Z)及び被写体の3次元情報に基づいて同様に算出することが出来る。
It becomes. In the above formula, f is the focal length. The treatment instrument paths W L (Z) and W R (Z) on the endoscopic image are indicated by dotted lines 312L and 312R in FIG.
The contact position on the left endoscope image 313L is determined by the three-dimensional treatment instrument path W (Z) represented by Expression (1) and the treatment instrument path on the left endoscope image represented by Expression (2). Calculation is made based on W L (Z) and the three-dimensional information of the subject. In the following description, the calculation of the contact position on the left endoscopic image will be described, but the contact position on the right endoscopic image is also calculated on the right side shown by the equations (1) and (3). The same can be calculated based on the treatment instrument path W R (Z) on the endoscopic image and the three-dimensional information of the subject.

最初に、内視鏡映像上の処置具経路WL (Z)に沿ってステレオ計測を行なう。これにより、被写体のうち処置具経路上にある物体の3次元座標を求める。そして求めた3次元座標P(WL (Z))と、処置具経路W(Z)が一致する点が接触位置Q=WL (QZ )=(QX ,QY ,QZ )となる。 First, stereo measurement is performed along the treatment instrument path W L (Z) on the endoscopic image. Thereby, the three-dimensional coordinates of the object on the treatment instrument path among the subjects are obtained. A point where the obtained three-dimensional coordinate P (W L (Z)) and the treatment instrument path W (Z) coincide is a contact position Q = W L (Q Z ) = (Q X , Q Y , Q Z ). Become.

また上記説明では、処置具114が処置具送出口103(座標(b/2,a,0))からZ軸方向(光軸に平行な方向)に真っ直ぐ送出されることを前提として説明したが、処置具114を送出するケーブルは自重によってたわむ場合がある。よってこの場合には、処置具経路を補正して接触位置を算出する必要がある。   In the above description, the treatment instrument 114 has been described on the premise that the treatment instrument 114 is delivered straight from the treatment instrument delivery port 103 (coordinates (b / 2, a, 0)) in the Z-axis direction (direction parallel to the optical axis). The cable for delivering the treatment instrument 114 may bend due to its own weight. Therefore, in this case, it is necessary to correct the treatment instrument path and calculate the contact position.

ケーブルがたわむ場合の一例として、図12に処置具114の送出した長さに対する処置具114の位置のX座標とY座標を示す。
同図の場合、処置具114を送出するケーブルは、その送出した長さが大きくなると自重によって、X軸方向にもY軸方向にもたわむことを示している。
As an example of the case where the cable bends, FIG. 12 shows the X coordinate and the Y coordinate of the position of the treatment tool 114 with respect to the length sent by the treatment tool 114.
In the case of the figure, it is shown that the cable that sends out the treatment instrument 114 bends in both the X-axis direction and the Y-axis direction by its own weight when the sent length increases.

図13にケーブルがたわむ場合の、内視鏡映像上の処置具経路を示す。
左側の内視鏡映像320Lにおいても右側の内視鏡映像320Rにおいても、処置具114を送出するケーブルがたわんだ場合、処置具の経路は全くたわまない場合と異なる経路をたどることとなる。
FIG. 13 shows a treatment instrument path on the endoscope image when the cable is bent.
In the left endoscopic image 320L and the right endoscopic image 320R, when the cable for delivering the treatment instrument 114 bends, the route of the treatment instrument follows a different path from the case where it does not bend at all. .

ケーブルがたわむ場合の3次元処置具経路は、X座標とY座標はたわまない場合のように一定でなく、ケーブルを送出した長さに比するZ座標の値に依存して変化するため、3次元処置具経路をWT(Z)とすると例えば次式で表わされる。   The three-dimensional treatment instrument path when the cable bends is not constant as in the case where the X and Y coordinates do not bend, and changes depending on the value of the Z coordinate relative to the length of the cable sent. When the three-dimensional treatment instrument path is WT (Z), for example, it is expressed by the following equation.

式(4)のX,Y座標の値であるWTx (Z)とWTy (Z)にはそれぞれ2つずつの未知数p1,p2とq1,q2含まれるが、これらは、内視鏡映像上のケーブル上から2点以上を計測点として検出して3元座標を算出することによって、連立方程式を解いて求められる。これによってケーブルがたわむ場合の3次元処置具経路WT(Z)を算出し、前記のフローに従って接触位置Qを算出することができる。 WT x (Z) and WT y (Z), which are the values of the X and Y coordinates in Equation (4), include two unknowns p1, p2, q1, and q2, respectively. It is obtained by solving simultaneous equations by detecting three or more points as measurement points from the upper cable and calculating ternary coordinates. Thus, the three-dimensional treatment instrument path WT (Z) when the cable is bent can be calculated, and the contact position Q can be calculated according to the above flow.

尚式(4)では、X,Y座標の値をZの2次式で表わしているが、3次元処置具経路WT(Z)はケーブルの特性によって3次以上の式を用いて表わしても良い。この場合、式に含まれる未知数の数だけケーブル上の点を計測点として検出すれば、同様に未知数の値を導き出せ、処置具経路算出することが出来る。
In the equation (4), the values of the X and Y coordinates are expressed by a quadratic expression of Z, but the three-dimensional treatment instrument path WT (Z) may be expressed by using an expression of a third or higher order depending on the characteristics of the cable. good. In this case, by detecting the point on the cable by the number of unknowns included in the formula as a measurement point, likewise derivable values of unknowns can be calculated treatment tool path.

この様に本実施形態の内視鏡装置では、自重によって処置具がたわむ場合でも処置具経路を補正することで、正確に接触位置を算出することが出来る。
図14は処置具接触位置算出制御部207を中心とした接触位置を求める処理を行なう部分のブロック図である。
As described above, in the endoscope apparatus according to the present embodiment, the contact position can be accurately calculated by correcting the treatment tool path even when the treatment tool bends due to its own weight.
FIG. 14 is a block diagram of a portion that performs processing for obtaining a contact position centered on the treatment instrument contact position calculation control unit 207.

図14において、処置具接触位置算出制御部207は、処置具情報格納部231、処置具経路算出部232、被写体3次元情報取得部233、接触位置算出部234、接触位置−内視鏡挿入部距離算出部236、処置具先端位置検出部237及び接触位置−処置具先端距離算出部238を有している。   14, the treatment instrument contact position calculation control unit 207 includes a treatment instrument information storage unit 231, a treatment instrument path calculation unit 232, a subject three-dimensional information acquisition unit 233, a contact position calculation unit 234, and a contact position-endoscope insertion unit. A distance calculation unit 236, a treatment instrument tip position detection unit 237, and a contact position-treatment tool tip distance calculation unit 238 are provided.

処置具情報格納部231は、処置具送出口位置の3次元情報や処置具の送出方向の情報等処置具についての種々の情報を記憶するもので、処置具経路算出部232は、処置具の経路を算出する際この処置具情報格納部231からこれらの情報を読み出す。処置具経路算出部232は、3次元処置具経路W(Z)、左側及び右側の内視鏡映像上の処置具経路WL (Z),WR (Z)を算出するものである。被写体3次元情報取得部233は、処置具経路算出部232が求めた内視鏡画像上の処置具経路WL (Z)をシステム制御部201を介してステレオ計測部206に出力し、その結果ステレオ計測部206によって求められた被写体3次元情報P(WL (Z))をシステム制御部201から受け取り、接触位置算出部234及び処置具先端位置検出部237に送出する。接触位置算出部234は、処置具経路算出部232が求めた3次元処置具経路W(Z)及び被写体3次元情報取得部233からの被写体3次元情報P(WL (Z))から処置具の接触位置Qを求め、これをシステム制御部201及び接触位置−内視鏡挿入部距離算出部236に出力する。 The treatment instrument information storage unit 231 stores various information about the treatment instrument such as three-dimensional information of the treatment instrument delivery port position and information on the delivery direction of the treatment instrument. The treatment instrument path calculation unit 232 stores the information on the treatment instrument. When calculating the route, the information is read from the treatment instrument information storage unit 231. The treatment instrument path calculation unit 232 calculates the three-dimensional treatment instrument path W (Z) and the treatment instrument paths W L (Z) and W R (Z) on the left and right endoscope images. The subject three-dimensional information acquisition unit 233 outputs the treatment tool path W L (Z) on the endoscopic image obtained by the treatment tool path calculation unit 232 to the stereo measurement unit 206 via the system control unit 201, and as a result. The subject three-dimensional information P (W L (Z)) obtained by the stereo measurement unit 206 is received from the system control unit 201 and sent to the contact position calculation unit 234 and the treatment instrument tip position detection unit 237. The contact position calculation unit 234 determines the treatment tool from the three-dimensional treatment tool path W (Z) obtained by the treatment tool path calculation unit 232 and the subject three-dimensional information P (W L (Z)) from the subject three-dimensional information acquisition unit 233. The contact position Q is obtained and output to the system control unit 201 and the contact position-endoscope insertion unit distance calculation unit 236.

接触位置−内視鏡挿入部距離算出部236は、接触位置Qの座標情報から接触位置Qと内視鏡挿入部4aとの距離L1 を算出し、これをシステム制御部201に出力する。処置具先端位置検出部237は、被写体3次元情報P(WL (Z))から処置具の先端位置を求め接触位置−処置具先端距離算出部238に出力する。接触位置−処置具先端距離算出部238は、接触位置Qと処置具先端の座標情報から接触位置と処置具先端の間の距離L2 を算出し、結果をシステム制御部201に出力する。 The contact position-endoscope insertion unit distance calculation unit 236 calculates a distance L 1 between the contact position Q and the endoscope insertion unit 4 a from the coordinate information of the contact position Q, and outputs this to the system control unit 201. The treatment instrument tip position detection unit 237 obtains the tip position of the treatment tool from the subject three-dimensional information P (W L (Z)), and outputs it to the contact position-treatment tool tip distance calculation unit 238. The contact position-treatment tool tip distance calculation unit 238 calculates a distance L 2 between the contact position and the treatment tool tip from the coordinate information of the contact position Q and the treatment tool tip, and outputs the result to the system control unit 201.

この様な構成において、図15のフローチャートを用いて処置具接触位置算出制御部207による接触位置の算出処理の詳細を説明する。同図に示す処理は図9のフローチャートのステップS02でシステム制御部201が処置具接触位置算出制御部に行なわせる処理に該当する。   Details of the contact position calculation processing by the treatment instrument contact position calculation control unit 207 will be described using the flowchart of FIG. 15 in such a configuration. The process shown in the figure corresponds to the process that the system control unit 201 causes the treatment instrument contact position calculation control unit to perform in step S02 of the flowchart of FIG.

尚以下の説明では説明簡略化のため左側の内視鏡画像に対する処理のみを記載しているが、右側の内視鏡画像に対しても処置具経路算出部232が右側の内視鏡画像上の処置具経路WR (Z)を算出し、この値を用いて下記と同様の処理を行なう。 In the following description, only the process for the left endoscopic image is described for the sake of simplification, but the treatment instrument path calculation unit 232 also applies the right endoscopic image to the right endoscopic image. The treatment instrument path W R (Z) is calculated, and the same processing as described below is performed using this value.

まずステップS101で、処置具経路算出部232は、処置具情報格納部231に格納されている処置具送出口位置(b/2,a,0)と処置具送出方向を読み出し、これらの情報から3次元処置具経路W(Z)と内視鏡映像上の処置具経路WL (Z)を算出する。 First, in step S101, the treatment instrument path calculation unit 232 reads the treatment instrument delivery position (b / 2, a, 0) and the treatment instrument delivery direction stored in the treatment instrument information storage unit 231, and from these information, The three-dimensional treatment instrument path W (Z) and the treatment instrument path W L (Z) on the endoscope image are calculated.

次にステップS102では、Z軸方向の値を設定する変数Zの初期化処理として、所定の初期値Z0を設定する。
そして次にステップS103として、被写体3次元情報取得部233は、処置具経路算出部232が求めた左の内視鏡画像上の処置具経路WL (Z)に変数Z値を代入して求めた点をシステム制御部201に通知し、この点の3次元座標P(WL (Z))をステレオ計測部206によってステレオ計測により求めさせる。
In step S102, a predetermined initial value Z0 is set as an initialization process for the variable Z for setting a value in the Z-axis direction.
Then, in step S103, the subject three-dimensional information acquisition unit 233 obtains the variable Z value by substituting the variable Z value into the treatment tool path W L (Z) on the left endoscopic image obtained by the treatment tool path calculation unit 232. This point is notified to the system control unit 201, and the three-dimensional coordinate P (W L (Z)) of this point is obtained by stereo measurement by the stereo measurement unit 206.

これを受けて、システム制御部201は、ステレオ計測部206に被写体3次元情報取得部233から通知された点の3次元座標を求めさせ、結果を被写体3次元情報取得部233に返す。尚このステレオ計測を行なう際にステレオ計測部206に入力される内視鏡映像は、システム制御部201を介して画像入力部214から入力される。ステレオ計測部206は入力された内視鏡映像に対して、被写体3次元情報取得部233からシステム制御部から通知されるWL (Z)でステレオ計測を実行し、3次元座標P(WL (Z))を求める。 In response to this, the system control unit 201 causes the stereo measurement unit 206 to obtain the three-dimensional coordinates of the point notified from the subject three-dimensional information acquisition unit 233 and returns the result to the subject three-dimensional information acquisition unit 233. Note that an endoscopic image input to the stereo measurement unit 206 when performing this stereo measurement is input from the image input unit 214 via the system control unit 201. The stereo measurement unit 206 performs stereo measurement on the input endoscopic image with W L (Z) notified from the system control unit from the subject three-dimensional information acquisition unit 233, and performs three-dimensional coordinates P (W L (Z)) is obtained.

3次元座標P(WL (Z))が求まると、ステップS104として、接触位置算出部234が、求まったP(WL (Z))と処置具経路算出部232が求めた3次元処置具経路W(Z)を比較する。その結果、P(WL (Z))とW(Z)の距離(例えばユークリッド距離)が所定のしきい値e以上ならば(ステップS104、No)、2つの点は一致しないものとしてステップS105の処理に進み、距離がしきい値eよりも小さければ(ステップS104、Yes)、2つの点は一致したものと見なし、ステップS107として接触位置算出部234は、W(Z)を接触位置Q=(QX ,QY ,QZ )とし、この3次元座標Qを処置具が被写体に接触する接触位置としてシステム制御部201に出力し、図15の処理を終了する。 When the three-dimensional coordinate P (W L (Z)) is obtained, the contact position calculation unit 234 obtains the obtained P (W L (Z)) and the treatment tool path calculation unit 232 in step S104. The paths W (Z) are compared. As a result, if the distance between P (W L (Z)) and W (Z) (for example, Euclidean distance) is equal to or greater than a predetermined threshold value e (No in step S104), it is assumed that the two points do not coincide with each other in step S105. If the distance is smaller than the threshold value e (step S104, Yes), it is considered that the two points coincide with each other, and in step S107, the contact position calculation unit 234 determines W (Z) as the contact position Q. = (Q X , Q Y , Q Z ), this three-dimensional coordinate Q is output to the system control unit 201 as a contact position where the treatment tool contacts the subject, and the processing of FIG. 15 is terminated.

ステップS105では、変数Zの値をZ軸方向の分解能となる所定の数値Z1だけ増加させて更新し、ステップS106として、変数Zの値が所定の算出限界距離Z2を超えているか判断する。その結果、変数Zの値が算出限界距離Z2を超えていれば(ステップS106、Yes)、ステップS108としてシステム制御部201に接触位置が不明で有ることを通知後、図15の処理を終了する。   In step S105, the value of the variable Z is updated by being increased by a predetermined numerical value Z1 that is the resolution in the Z-axis direction, and in step S106, it is determined whether the value of the variable Z exceeds a predetermined calculation limit distance Z2. As a result, if the value of the variable Z exceeds the calculation limit distance Z2 (step S106, Yes), after notifying the system control unit 201 that the contact position is unknown as step S108, the process of FIG. .

またステップS106において、変数Zの値が算出限界距離Z2を超えていなければ(ステップS106、No)、処理をステップS103に戻し、更新された変数Zの値でステップS103〜S106の処理を繰り返す。以降、ステップS104で、点P(WL (Z))と点W(Z)の距離がしきい値e以下になり接触点Qが見つかるか、ステップS106で変数Zの値が算出限界距離Z2を越えるまでステップS103〜S106の処理を繰り返して、接触点Qを求める。 If the value of the variable Z does not exceed the calculation limit distance Z2 in step S106 (No in step S106), the process returns to step S103, and the processes of steps S103 to S106 are repeated with the updated variable Z value. Thereafter, in step S104, the distance between the point P (W L (Z)) and the point W (Z) is less than or equal to the threshold value e, and the contact point Q is found, or in step S106, the value of the variable Z is calculated as the calculation limit distance Z2. Steps S103 to S106 are repeated until the contact point Q is obtained.

接触点Qが求まると、次に、接触位置−内視鏡挿入部距離算出部236が、算出した接触点Qの座標から接触点Qと内視鏡挿入部の距離L1 を算出し、システム制御部201に出力する。 When the contact point Q is obtained, the contact position-endoscope insertion unit distance calculation unit 236 then calculates the distance L 1 between the contact point Q and the endoscope insertion unit from the calculated coordinates of the contact point Q, and the system Output to the control unit 201.

そして処置具先端位置検出部237は、被写体3次元情報P(WL (Z))に基づいて処置具先端位置を検出し、接触位置−処置具先端距離算出部238は、この処置具先端位置と接触位置の距離L2 を算出し、システム制御部201に出力する。 The treatment instrument tip position detection unit 237 detects the treatment tool tip position based on the subject three-dimensional information P (W L (Z)), and the contact position-treatment tool tip distance calculation unit 238 detects the treatment tool tip position. The distance L 2 of the contact position is calculated and output to the system control unit 201.

以上のようにシステム制御部201に出力された情報である接触位置、接触位置と内視鏡挿入部の距離L1 、処置具先端位置と接触位置の距離L2 を、システム制御部201は、グラフィック表示指示部213を用いてグラフィック表示用の表示データに変換してLD3やFMD7の表示画面上に表示し、使用者に通知する。 As described above, the contact position, which is the information output to the system control unit 201, the distance L 1 between the contact position and the endoscope insertion unit, the distance L 2 between the treatment tool distal end position and the contact position, It is converted into display data for graphic display using the graphic display instruction unit 213 and displayed on the display screen of the LD 3 or FMD 7 to notify the user.

その表示例を図16に示す。
同図では左右の光学系の内視鏡映像330L,330R上に、処置具の接触位置に対応するの点WL (QZ )とWR (QZ )に×印331L,331Rを表示し、使用者に通知している。また、内視鏡挿入部と接触位置との距離L1 を表示部部分332にmm単位で表示している。更には内視鏡映像上で処置具が検出される場合は、処置具と接触位置までの距離L2 もmm単位で表示される。
An example of the display is shown in FIG.
In the figure, X marks 331L and 331R are displayed on the points W L (Q Z ) and W R (Q Z ) corresponding to the contact position of the treatment tool on the endoscope images 330L and 330R of the left and right optical systems. , Notify the user. Further, the distance L 1 between the endoscope insertion portion and the contact position is displayed on the display portion 332 in mm units. Furthermore, when the treatment tool is detected on the endoscopic image, the distance L 2 between the treatment tool and the contact position is also displayed in mm.

このように、接触位置が内視鏡映像上に合成して表示されるので、接触位置を内視鏡の映像上で容易に把握することが出来る。また、接触位置と内視鏡挿入部の距離及び接触位置と処置具先端の距離も通知されるので、この距離から処置具を挿入する長さが分かり、正確な操作を行なうことが出来る。   Thus, since the contact position is synthesized and displayed on the endoscope image, it is possible to easily grasp the contact position on the endoscope image. Further, since the distance between the contact position and the endoscope insertion portion and the distance between the contact position and the treatment instrument tip are also notified, the length for inserting the treatment instrument can be known from this distance, and an accurate operation can be performed.

尚内視鏡先端または処置具は挿入部の操作中においてブレてしまうことがある。このとき、算出される接触位置Qは安定せず、接触位置の表示が明確でなくなってしまう。このような場合は、本実施形態の内視鏡装置では、ブレによって求まった複数の接触位置Qの値から振動の中心を算出して表示することで、接触位置の表示を明確にする。   Note that the endoscope tip or the treatment tool may be shaken during operation of the insertion portion. At this time, the calculated contact position Q is not stable, and the display of the contact position becomes unclear. In such a case, in the endoscope apparatus of the present embodiment, the display of the contact position is clarified by calculating and displaying the center of vibration from the values of the plurality of contact positions Q obtained by the shake.

これにより処置具または内視鏡挿入部がブレて接触位置に振動が生じてしまう場合でも、振動の中心を算出することで正確に接触位置を通知することが可能となる。
また接触位置通知方法として、接触位置を含む映像の所定の領域についてステレオ計測によって被写体の3次元形状を構成し、被写体の3次元形状上に接触位置を合成して表示しても良い。この場合の表示例を図17に示す。
Accordingly, even when the treatment instrument or the endoscope insertion portion is shaken and vibration occurs at the contact position, it is possible to accurately notify the contact position by calculating the center of vibration.
As a contact position notification method, a three-dimensional shape of a subject may be configured by stereo measurement for a predetermined region of an image including the contact position, and the contact position may be synthesized and displayed on the three-dimensional shape of the subject. A display example in this case is shown in FIG.

同図の場合、ステレオ計測によって得られた3次元情報に基づいて、被写体をワイヤーフレームモデルによる3次元表示340を行ない、接触位置をそのワイヤーフレーム上に×印によって使用者に通知している。   In the case of the figure, based on the three-dimensional information obtained by stereo measurement, the subject is displayed in a three-dimensional display 340 using a wire frame model, and the contact position is notified to the user by an X mark on the wire frame.

この様に被写体を3次元表示してその表示中に接触位置を合成して表示することで、処置対象物の3次元形状を把握しながら処置具による処置を行なうことができる。
この様に本実施形態における内視鏡装置では、使用者は内視鏡装置の挿入部や処置具と被写体との3次元関係が容易に把握することが出来るので、例えばひびの入ったタービンフレードに対するマーキングする場合、マーキングされる箇所が容易に分かり、マーキングしたい場所に対して処置具を適切に近づけ、確実に作業を行なうことが可能となる。
In this way, by displaying the subject three-dimensionally and combining and displaying the contact position during the display, it is possible to perform the treatment with the treatment tool while grasping the three-dimensional shape of the treatment object.
As described above, in the endoscope apparatus according to the present embodiment, the user can easily grasp the three-dimensional relationship between the insertion portion of the endoscope apparatus, the treatment tool, and the subject. For example, the cracked turbine frame When marking a card, it is possible to easily identify the part to be marked, appropriately approach the treatment tool to the place to be marked, and perform the work reliably.

また本実施形態の内視鏡装置は、マーキングだけでなく、図18に示すように、内視鏡装置で使用される処置具を鉗子にすることも可能である。
この図18の場合、鉗子114bで検査対象空間内の物品351などを掴み、回収する作業を行なうことが可能である。このような作業では、処置具と物品との接触位置がわからないとうまく行なえないが、本実施形態の内視鏡装置では、接触位置が通知されるので、鉗子で掴まれる位置が明確となり、物品を掴む作業が簡単になる。
Moreover, the endoscope apparatus of this embodiment can use not only markings but also forceps as a treatment tool used in the endoscope apparatus as shown in FIG.
In the case of FIG. 18, it is possible to perform an operation of grasping and collecting the article 351 or the like in the inspection target space with the forceps 114b. Such an operation cannot be performed well unless the contact position between the treatment tool and the article is known. However, in the endoscope apparatus of the present embodiment, the contact position is notified, so that the position to be grasped by the forceps becomes clear. The work of grabbing becomes easier.

更に本実施形態の内視鏡装置は、塗料によるマーキングや鉗子による回収作業に限定されるものではなく、鉗子以外の他の処置具を用いて様々な処置を行なうことが出来る。
また上記説明では、工業用内視鏡装置として構成した場合を例として挙げたが、本実施形態の内視鏡装置は、工業用のみに限定されるものではなく、医療用等他の分野の内視鏡装置として構成しても、同様の作用、効果を得ることが出来る。
Furthermore, the endoscope apparatus according to the present embodiment is not limited to marking with paint or collection work with forceps, and various treatments can be performed using treatment tools other than forceps.
In the above description, the case where the endoscope apparatus is configured as an industrial endoscope apparatus has been described as an example. However, the endoscope apparatus according to the present embodiment is not limited to an industrial apparatus, and may be used in other fields such as medical applications. Even when configured as an endoscope apparatus, similar actions and effects can be obtained.

更に、上記説明では求めた接触位置を使用者に通知して、使用者が処置を行なう構成であったが、求めた接触位置の情報から内視鏡装置が自動的に処置を施す構成としても良い。   Furthermore, in the above description, the user is notified of the obtained contact position, and the user performs the treatment. However, the endoscope apparatus may automatically perform the treatment from the obtained contact position information. good.

本実施形態の内視鏡装置の外部構成を示す図である。It is a figure which shows the external structure of the endoscope apparatus of this embodiment. 内視鏡装置の制御処理を司る部分を中心に記載した回路ブロック図である。It is the circuit block diagram described centering on the part which manages the control processing of an endoscope apparatus. スコープ部を中心とした内視鏡装置の要部構成を示す斜視図である。It is a perspective view which shows the principal part structure of the endoscope apparatus centering on a scope part. ステレオ計測用の直視双眼アダプタがヘッド部に装着された状態を示す図である。It is a figure which shows the state with which the direct vision binocular adapter for stereo measurement was mounted | worn with the head part. 内視鏡装置のソフトウエアによって実現される機能ブロックの構成図である。It is a block diagram of the functional block implement | achieved by the software of an endoscope apparatus. 三角測量の原理に基づくステレオ計測による計測点の3次元座標の求め方の説明図である。It is explanatory drawing of how to obtain | require the three-dimensional coordinate of the measurement point by the stereo measurement based on the principle of a triangulation. 挿入部を検査対象の近傍位置まで挿入した状態を示す図(その1)である。It is a figure (the 1) which shows the state which inserted the insertion part to the vicinity position of the test object. 挿入部を検査対象の近傍位置まで挿入した状態を示す図(その2)である。It is a figure (the 2) which shows the state which inserted the insertion part to the vicinity position of the test object. 通知処理時にシステム制御部が行なう処理を示すフローチャートである。It is a flowchart which shows the process which a system control part performs at the time of a notification process. 接触位置の算出の仕方についての説明のための図で、挿入部を検査対象の近傍位置まで挿入して処置具を突出させた状態を示す斜視図である。It is a figure for demonstrating the method of calculation of a contact position, and is a perspective view which shows the state which inserted the insertion part to the vicinity position of the test object, and protruded the treatment tool. 図10に対応する内視鏡映像上の処置対象と処置具径路と接触位置を示す図である。It is a figure which shows the treatment target, treatment tool path, and contact position on the endoscopic image corresponding to FIG. 処置具の送出した長さに対するケーブルのたわみ方の例を示す図である。It is a figure which shows the example of the bending method of the cable with respect to the length which the treatment tool sent out. ケーブルがたわむ場合の内視鏡映像上の処置具経路を示す図である。It is a figure which shows the treatment tool path | route on an endoscope image when a cable bends. 処置具接触位置算出制御部を中心とした接触位置を求める処理を行なう部分のブロック図である。It is a block diagram of the part which performs the process which calculates | requires the contact position centering on a treatment tool contact position calculation control part. 処置具接触位置算出制御部による接触位置の算出処理を示すフローチャートである。It is a flowchart which shows the calculation process of the contact position by a treatment tool contact position calculation control part. 接触位置の通知を行なう表示画面の例を示す図である。It is a figure which shows the example of the display screen which performs notification of a contact position. 被写体の3次元形状上に接触位置を合成して表示して接触位置の通知を行なう表示画面の例を示す図である。It is a figure which shows the example of the display screen which synthesize | combines and displays a contact position on the three-dimensional shape of a to-be-photographed object, and notifies a contact position. 内視鏡装置で処置具を鉗子として使用した場合の例を示す図である。It is a figure which shows the example at the time of using a treatment tool as forceps with an endoscope apparatus. 従来の内視鏡装置における処置具を挿通可能な内視鏡による処置の様子を示す図である。It is a figure which shows the mode of the treatment by the endoscope which can insert the treatment tool in the conventional endoscope apparatus. 従来の内視鏡装置における処置具を挿通可能な内視鏡による処置字に表示される内視鏡映像を示す図である。It is a figure which shows the endoscopic image | video displayed on the treatment character by the endoscope which can insert the treatment tool in the conventional endoscope apparatus.

符号の説明Explanation of symbols

1 内視鏡装置
2 コントロールユニット
3 液晶モニタ
4 スコープ部
6 リモートコントローラ
7 フェイスマウントディスプレイ
8 FMDアダプタ
11 内視鏡ユニット
12 カメラコントロールユニット
13 コンパクトフラッシュ(登録商標)メモリカード
14 PCMCIAメモリカード
15 マイク
16 スピーカ
20 処理制御部
21 映像信号処理回路
22 カードインターフェイス
23 音声信号処理回路
24 バス
26 CPU
27 ROM
28 RAM
29 接続インタフェース
41 突設部
42 光学レンズ群
43 固体撮像素子
44 光学アダプタ装着部
47 内部チャンネル
48 鉗子口
100a1 直視双眼アダプタ
100a2 側視双眼アダプタ
201 システム制御部
202 記録・再生指示部
203 操作検知部
204 グラフィック表示指示部
205 画像入力部
206 ステレオ計測部
207 処置具接触位置算出制御部

DESCRIPTION OF SYMBOLS 1 Endoscope apparatus 2 Control unit 3 Liquid crystal monitor 4 Scope part 6 Remote controller 7 Face mount display 8 FMD adapter 11 Endoscope unit 12 Camera control unit 13 Compact flash (registered trademark) memory card 14 PCMCIA memory card 15 Microphone 16 Speaker 20 Processing Control Unit 21 Video Signal Processing Circuit 22 Card Interface 23 Audio Signal Processing Circuit 24 Bus 26 CPU
27 ROM
28 RAM
DESCRIPTION OF SYMBOLS 29 Connection interface 41 Projection part 42 Optical lens group 43 Solid-state image sensor 44 Optical adapter mounting part 47 Internal channel 48 Forceps opening 100a1 Direct-sighted binocular adapter 100a2 Side-viewing binocular adapter 201 System control part 202 Recording / reproduction | regeneration instruction | indication part 203 Operation detection part 204 Graphic display instruction unit 205 Image input unit 206 Stereo measurement unit 207 Treatment instrument contact position calculation control unit

Claims (6)

処置具による処置を行う内視鏡装置において、
視差のある被写体の内視鏡映像を撮像する撮像部と、
前記撮像部によって撮像される前記内視鏡映像を用いてステレオ計測を行い、前記被写体の3次元情報を取得する3次元情報取得部と、
前記処置具の経路を、処置具送出口の位置と前記処置具の移動方向とに基づいて算出する処置具経路算出部と、
前記処置具が被写体と接触すると予想される接触位置を、前記処置具経路算出部によって得られた前記処置具の経路と、前記3次元情報取得部によって得られた前記3次元情報とから算出する接触位置算出部と、
を備えることを特徴とする内視鏡装置。
In an endoscope apparatus that performs treatment with a treatment tool,
An imaging unit that captures an endoscopic image of a subject with parallax;
A three-dimensional information acquisition unit that performs stereo measurement using the endoscope video imaged by the imaging unit and acquires the three-dimensional information of the subject;
The path of the treatment tool, a treatment instrument route calculating unit for calculating, based on the moving direction of the treatment tool and the position of the treatment instrument outlet,
The contact position where the treatment tool is expected to come into contact with the subject is calculated from the path of the treatment tool obtained by the treatment tool path calculation unit and the three-dimensional information obtained by the three-dimensional information acquisition unit. A contact position calculator,
An endoscope apparatus comprising:
前記接触位置は、前記処置具の経路に基づいて算出された前記被写体の前記3次元情報と、前記処置具の経路とが一致する位置であることを特徴とする請求項1に記載の内視鏡装置。 The internal contact according to claim 1, wherein the contact position is a position where the three-dimensional information of the subject calculated based on the path of the treatment tool matches the path of the treatment tool. Mirror device. 前記接触位置を通知する接触位置通知部を備え、
この接触位置通知部は、前記接触位置に関する情報を前記内視鏡映像上に合成して表示することにより通知することを特徴とする請求項1または2に記載の内視鏡装置。
A contact position notifying unit for notifying the contact position;
The endoscope apparatus according to claim 1, wherein the contact position notifying unit notifies the contact position by combining and displaying information on the contact position on the endoscopic image.
前記接触位置の3次元座標情報と、前記3次元情報に基づいて得られた前記処置具の先端位置の3次元座標情報とから、該接触位置と該処置具の先端位置との距離を算出する接触位置−処置具先端位置距離算出部を備え、
前記接触位置通知部は、前記接触位置と前記処置具の先端位置との距離を通知することを特徴とする請求項3に記載の内視鏡装置。
A distance between the contact position and the distal end position of the treatment instrument is calculated from the three-dimensional coordinate information of the contact position and the three-dimensional coordinate information of the distal end position of the treatment instrument obtained based on the three-dimensional information. A contact position-treatment instrument tip position distance calculation unit;
The endoscope apparatus according to claim 3, wherein the contact position notifying unit notifies a distance between the contact position and a distal end position of the treatment instrument.
前記接触位置と前記処置具の先端位置との距離が所定の値より小さくなった場合に、使用者に通知する通知部を備えることを特徴とする請求項4に記載の内視鏡装置。   The endoscope apparatus according to claim 4, further comprising a notification unit that notifies a user when a distance between the contact position and the distal end position of the treatment instrument becomes smaller than a predetermined value. 前記処置具経路算出部は、前記処置具の移動方向が該処置具を送出するケーブルの送出した長さにより変化する場合には、該処置具の移動方向を補正して、前記処置具の経路を算出し、
前記接触位置算出部は、前記補正された処置具の移動方向を用いて算出された前記処置具の経路を用いて、前記接触位置を算出する
ことを特徴とする請求項1に記載の内視鏡装置。
The treatment instrument path calculation unit corrects the movement direction of the treatment instrument when the movement direction of the treatment instrument changes depending on the length of the cable that sends out the treatment instrument, and the path of the treatment instrument To calculate
The internal contact according to claim 1, wherein the contact position calculation unit calculates the contact position using a path of the treatment tool calculated using the corrected movement direction of the treatment tool. Mirror device.
JP2005000183A 2005-01-04 2005-01-04 Endoscope device Expired - Fee Related JP4916114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005000183A JP4916114B2 (en) 2005-01-04 2005-01-04 Endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005000183A JP4916114B2 (en) 2005-01-04 2005-01-04 Endoscope device

Publications (3)

Publication Number Publication Date
JP2006187385A JP2006187385A (en) 2006-07-20
JP2006187385A5 JP2006187385A5 (en) 2008-02-14
JP4916114B2 true JP4916114B2 (en) 2012-04-11

Family

ID=36795111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005000183A Expired - Fee Related JP4916114B2 (en) 2005-01-04 2005-01-04 Endoscope device

Country Status (1)

Country Link
JP (1) JP4916114B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965103B2 (en) 2009-07-16 2015-02-24 Olympus Corporation Image processing apparatus and image processing method
US8791998B2 (en) 2009-07-31 2014-07-29 Olympus Corporation Image processing apparatus and method for displaying images
US8675950B2 (en) 2009-07-31 2014-03-18 Olympus Corporation Image processing apparatus and image processing method
JP5372675B2 (en) * 2009-09-04 2013-12-18 オリンパス株式会社 Image processing apparatus and program
JP5551957B2 (en) * 2010-03-31 2014-07-16 富士フイルム株式会社 Projection image generation apparatus, operation method thereof, and projection image generation program
EP2412290A1 (en) 2010-07-30 2012-02-01 Stephan Flegler Endoscope and endoscope system
GB2505926A (en) * 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
KR102087595B1 (en) 2013-02-28 2020-03-12 삼성전자주식회사 Endoscope system and control method thereof
JP6120762B2 (en) * 2013-12-13 2017-04-26 オリンパス株式会社 Image processing device
JP6485694B2 (en) * 2015-03-26 2019-03-20 ソニー株式会社 Information processing apparatus and method
JP6860378B2 (en) * 2017-02-24 2021-04-14 ソニー・オリンパスメディカルソリューションズ株式会社 Endoscope device
WO2018198255A1 (en) * 2017-04-26 2018-11-01 オリンパス株式会社 Image processing device, operation method for image processing device, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3717552B2 (en) * 1995-09-01 2005-11-16 オリンパス株式会社 Medical manipulator system
JPH10337272A (en) * 1997-06-09 1998-12-22 Fuji Photo Film Co Ltd In vivo distance measuring device
JP4472085B2 (en) * 2000-01-26 2010-06-02 オリンパス株式会社 Surgical navigation system
JP2002253480A (en) * 2001-03-02 2002-09-10 Olympus Optical Co Ltd Device for assisting medical treatment

Also Published As

Publication number Publication date
JP2006187385A (en) 2006-07-20

Similar Documents

Publication Publication Date Title
US7443488B2 (en) Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method
JP4885479B2 (en) Endoscope device for measurement and program for endoscope
US6832985B2 (en) Endoscopic system with instrument position and orientation display
JP5974188B2 (en) Endoscope system
JP6103827B2 (en) Image processing apparatus and stereoscopic image observation system
JP5113990B2 (en) Endoscope device for measurement
JP4916114B2 (en) Endoscope device
JPWO2008093517A1 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
WO2017159335A1 (en) Medical image processing device, medical image processing method, and program
JP2017508529A (en) Endoscope measurement system and method
JP2001500772A (en) Image guided surgery system
JPWO2010140441A1 (en) MEDICAL DEVICE SYSTEM AND MEDICAL DEVICE CALIBRATION METHOD
JPWO2011062035A1 (en) Biopsy support system
JPWO2009084345A1 (en) Medical equipment system
JP2005338551A (en) Industrial endoscope
US20190090728A1 (en) Visualization system comprising an observation apparatus and an endoscope
JP5026769B2 (en) Endoscope device for measurement, program, and recording medium
JP5186286B2 (en) Endoscope device for measurement and program
JP2006223850A (en) Electronic endoscope system
JP4022068B2 (en) Endoscope system
JP2004187711A (en) Endoscopic equipment
JP5153381B2 (en) Endoscope device
JP2005077832A (en) Industrial endoscope system
US20100004507A1 (en) Endoscope device and endoscopic image distortion correction method
JP4975417B2 (en) Endoscope apparatus and endoscope image distortion correction method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4916114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees