JP2012078710A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2012078710A
JP2012078710A JP2010225791A JP2010225791A JP2012078710A JP 2012078710 A JP2012078710 A JP 2012078710A JP 2010225791 A JP2010225791 A JP 2010225791A JP 2010225791 A JP2010225791 A JP 2010225791A JP 2012078710 A JP2012078710 A JP 2012078710A
Authority
JP
Japan
Prior art keywords
image
unit
irradiated
light
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010225791A
Other languages
Japanese (ja)
Other versions
JP2012078710A5 (en
JP5608503B2 (en
Inventor
Hidekazu Kobayashi
英一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010225791A priority Critical patent/JP5608503B2/en
Publication of JP2012078710A publication Critical patent/JP2012078710A/en
Publication of JP2012078710A5 publication Critical patent/JP2012078710A5/ja
Application granted granted Critical
Publication of JP5608503B2 publication Critical patent/JP5608503B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device for acquiring the wide-range image of a measurement object.SOLUTION: This image pickup device includes: an image pickup element for detecting a visible light beam to acquire an image; a measurement part having a light emission part for irradiating the irradiation object area of a measurement object with a visible light beam, and for making, identifiably different according to the image, the hue of the visible light beam reflected by the irradiation object area to the adjacent section of the irradiation object area in the measurement object and a reception part for detecting the visible light beam from the irradiation object area, which measures a distance from the light emission part in the irradiation object area; and an image connection part for, when the prescribed range of the image is defined as an extraction image, connecting two extraction images P1 and P2, one of which including the image of an irradiation object area W1 which is irradiated with the visible light beam by the light emission part, and the other of which including a corresponding area W3 corresponding to the irradiation object area which is not irradiated with the visible light beam by the light emission part such that the measurement object W can be continued to create a connection image Q1. The image connection part uses the image of the corresponding area in the other extraction image.

Description

本発明は、狭い空間内に挿入されて画像を取得する撮像装置に関する。   The present invention relates to an imaging device that is inserted into a narrow space and acquires an image.

従来、たとえば、管路などの比較的狭い空間内で測定対象物の状態や物性などを測定することが行われている。
その一例として特許文献1に示す光ファイバを備える内視鏡(撮像装置)が知られている。この光ファイバでは、断面が略円形のライトガイド用光ファイバの中心に観察用光ファイバが、ライトガイド用光ファイバ内の観察用光ファイバから離間した位置に実写用ガラス筒が、それぞれ埋め込まれている。ライトガイド用光ファイバによって誘導された照明用の光は、ライトガイド用光ファイバの先端部から放射されて患部の照射面(測定対象物)で反射され、反射された光は観察用光ファイバで集光されて基端部に案内され観察される。
一方で、実写用ガラス筒によってレーザー光が先端部に誘導され、先端部から照射されたレーザー光は、レーザー光が照射された被照射領域を照射面に形成する。実写用ガラス筒は観察用光ファイバから所定の距離だけ離間して配置されているので、光ファイバの先端部と照射面との距離の大小によって、観察視野内における被照射領域の観測位置が変化する。
Conventionally, for example, the state and physical properties of a measurement object are measured in a relatively narrow space such as a pipeline.
As an example, an endoscope (imaging device) including an optical fiber disclosed in Patent Document 1 is known. In this optical fiber, the optical fiber for observation is embedded in the center of the optical fiber for light guide having a substantially circular cross section, and the glass tube for actual shooting is embedded in a position away from the optical fiber for observation in the optical fiber for light guide. Yes. The illumination light guided by the light guide optical fiber is emitted from the tip of the light guide optical fiber and reflected by the irradiation surface (measurement object) of the affected part, and the reflected light is observed by the observation optical fiber. The light is condensed and guided to the base end portion and observed.
On the other hand, the laser light is guided to the tip by the glass tube for actual shooting, and the laser light irradiated from the tip forms an irradiated area irradiated with the laser light on the irradiation surface. Since the live-action glass tube is arranged at a predetermined distance from the observation optical fiber, the observation position of the irradiated area in the observation field changes depending on the distance between the tip of the optical fiber and the irradiation surface. To do.

この内視鏡は、上記光ファイバ以外に、光をライトガイド用光ファイバに導くハロゲン光源と、レーザー光を実写用ガラス筒に導くレーザー光源と、観察用光ファイバによって得られた画像を取得する撮像装置と、取得された画像を表示するモニタとを備えている。
内視鏡を使用することで、モニタによる観察視野内の中心から被照射領域までの距離と、光ファイバの先端から照射面までの距離との関係に基づいて、光ファイバの先端部から測定対象物の被照射領域までの距離を検出することができる。このとき、観察視野内で距離が測定された測定位置(被照射領域)を認識しながら、内視鏡による観察を行うことができる。
In addition to the above optical fiber, this endoscope acquires an image obtained by a halogen light source for guiding light to a light guide optical fiber, a laser light source for guiding laser light to a glass tube for actual shooting, and an observation optical fiber. An imaging apparatus and a monitor that displays the acquired image are provided.
By using an endoscope, based on the relationship between the distance from the center of the observation field of view to the irradiated area by the monitor and the distance from the tip of the optical fiber to the irradiated surface, the object to be measured is measured from the tip of the optical fiber. The distance to the irradiated area of the object can be detected. At this time, observation with an endoscope can be performed while recognizing the measurement position (irradiation region) where the distance is measured in the observation visual field.

特開平8−285541号公報JP-A-8-285541

しかしながら、特許文献1に示された内視鏡では、光ファイバの先端は、一般的に小径の挿入部に配置されるので、光ファイバの先端において測定対象物に対する充分な観察視野を確保することができない。このため、測定対象物の局所的な画像しか取得することができないという問題がある。
また、この画像にはレーザー光を照射された測定位置の像が含まれているので、画像中における測定位置の状態を測定位置の近傍の状態と比較しにくくなっている。
However, in the endoscope disclosed in Patent Document 1, since the tip of the optical fiber is generally disposed in a small-diameter insertion portion, a sufficient observation field of view for the measurement object is ensured at the tip of the optical fiber. I can't. For this reason, there is a problem that only a local image of the measurement object can be acquired.
Further, since this image includes an image of the measurement position irradiated with the laser beam, it is difficult to compare the state of the measurement position in the image with the state in the vicinity of the measurement position.

本発明は、このような問題点に鑑みてなされたものであって、狭い空間内に挿入された状態で周囲を観察可能であるとともに、測定対象物上の被照射領域を確認しながら測定対象物の状態を測定し、測定対象物の広範囲にわたる画像を取得することができる撮像装置を提供することを目的とする。   The present invention has been made in view of such a problem, and can be observed while being inserted in a narrow space, and can be measured while confirming an irradiated region on the measurement target. An object of the present invention is to provide an imaging apparatus that can measure the state of an object and acquire an image of a measurement object over a wide range.

上記課題を解決するために、この発明は以下の手段を提案している。
本発明の撮像装置は、可視光線を検出し、検出した前記可視光線から画像を取得する撮像素子と、測定対象物の被照射領域に可視光線を照射し前記測定対象物における前記被照射領域に隣接する部分に対して前記被照射領域が反射する可視光線の明るさ及び色彩の少なくとも一つを前記画像により識別可能に異ならせる発光部、および、前記被照射領域からの赤外線、可視光線および音波の少なくとも一つを検出する受信部を有し、前記被照射領域における前記発光部からの距離、温度、および振動状態の少なくとも一つを測定する測定部と、前記撮像素子、前記発光部および前記受信部が配置された小径で長尺の挿入部と、前記被照射領域を含む前記測定対象物の一部で反射された可視光線による前記画像のうちの所定範囲を抽出画像としたとき、互いに異なる2つの前記抽出画像であって、一方の前記抽出画像中に前記発光部により可視光線を照射されている前記被照射領域の像が含まれているとともに、他方の前記抽出画像中における一方の前記抽出画像中の前記被照射領域に対応する対応領域が前記発光部により可視光線を照射されていないものを、前記測定対象物の形状が連続するようにつなぎ合わせて結合画像を作成する画像結合部と、を備え、前記画像結合部は、前記結合画像を作成するときに他方の前記抽出画像中の前記対応領域の像を用いることを特徴としている。
In order to solve the above problems, the present invention proposes the following means.
The imaging apparatus of the present invention detects visible light, acquires an image from the detected visible light, and irradiates the irradiated region of the measurement object with the visible light, and then irradiates the irradiated region on the measurement object. A light emitting unit that distinguishes at least one of brightness and color of visible light reflected by the irradiated region with respect to adjacent portions so as to be distinguishable by the image, and infrared rays, visible light, and sound waves from the irradiated region A receiving unit that detects at least one of: a measuring unit that measures at least one of a distance, a temperature, and a vibration state from the light emitting unit in the irradiated region; the imaging element; the light emitting unit; A predetermined range of the image by the visible light reflected by a part of the measurement object including the irradiated area and a small-diameter and long insertion portion where the receiving unit is arranged is used as an extraction image. When the two extracted images are different from each other, and one of the extracted images includes an image of the irradiated region irradiated with visible light by the light emitting unit, and the other extracted image A corresponding image corresponding to the irradiated region in one of the extracted images is connected so that the shape of the object to be measured is continuous, and a combined image is created. And the image combining unit uses the image of the corresponding region in the other extracted image when the combined image is created.

また、本発明の他の撮像装置は、可視光線および赤外線を検出し、検出した前記可視光線および赤外線から画像を取得する撮像素子と、測定対象物の被照射領域に赤外線を照射し前記測定対象物における前記被照射領域に隣接する部分に対して前記被照射領域が反射する赤外線の強度を前記画像により識別可能に異ならせる発光部、および、前記被照射領域からの赤外線、可視光線および音波の少なくとも一つを検出する受信部を有し、前記被照射領域における前記発光部からの距離、温度、および振動状態の少なくとも一つを測定する測定部と、前記撮像素子、前記発光部および前記受信部が配置された小径で長尺の挿入部と、前記被照射領域を含む前記測定対象物の一部で反射された可視光線および赤外線による前記画像のうちの所定範囲を抽出画像としたとき、互いに異なる2つの前記抽出画像であって、一方の前記抽出画像中に前記発光部により赤外線を照射されている前記被照射領域の像が含まれているとともに、他方の前記抽出画像中における一方の前記抽出画像中の前記被照射領域に対応する対応領域が前記発光部により赤外線を照射されていないものを、前記測定対象物の形状が連続するようにつなぎ合わせて結合画像を作成する画像結合部と、を備え、前記画像結合部は、前記結合画像を作成するときに他方の前記抽出画像中の前記対応領域の像を用いることを特徴としている。   In addition, another imaging device of the present invention detects visible light and infrared light, acquires an image from the detected visible light and infrared light, and irradiates the irradiated area of the measurement object with infrared light to measure the measurement object. A light emitting unit for distinguishing the intensity of infrared rays reflected by the irradiated region with respect to a portion of the object adjacent to the irradiated region, and infrared rays, visible rays, and sound waves from the irradiated region; A receiving unit that detects at least one; a measuring unit that measures at least one of a distance, a temperature, and a vibration state from the light emitting unit in the irradiated region; the imaging element; the light emitting unit; A predetermined range of the image by the visible light and infrared rays reflected by a part of the measurement object including the irradiated region and a small-diameter and long insertion portion where the portion is disposed. Are extracted images that are different from each other, and one of the extracted images includes an image of the irradiated region that is irradiated with infrared rays by the light emitting unit, and the other of the extracted images. In the extracted image, the corresponding area corresponding to the irradiated area in one of the extracted images is connected by combining the objects to be measured so that the shape of the object to be measured is continuous. An image combining unit that generates an image, and the image combining unit uses an image of the corresponding region in the other extracted image when generating the combined image.

また、上記の撮像装置において、前記結合画像における前記被照射領域の位置情報を、前記測定部による測定値に対応付けて記憶する記憶部を備えることがより好ましい。   The imaging apparatus preferably further includes a storage unit that stores the position information of the irradiated region in the combined image in association with the measurement value obtained by the measurement unit.

また、上記の撮像装置において、前記撮像素子が有する検出面に前記可視光線または前記赤外線を結像させる少なくとも一つのレンズを備え、前記所定範囲は、少なくとも一つの前記レンズによる歪曲収差の小さい前記画像の中央部分であることがより好ましい。   In the imaging apparatus, the imaging device may include at least one lens that forms an image of the visible ray or the infrared ray on a detection surface of the imaging element, and the predetermined range includes the image having a small distortion due to the at least one lens. It is more preferable that it is a central part.

本発明の撮像装置によれば、狭い空間内に挿入された状態で周囲を観察可能であるとともに、測定対象物上の被照射領域を確認しながら測定対象物の状態を測定し、測定対象物の広範囲にわたる画像を取得することができる。   According to the imaging apparatus of the present invention, the surroundings can be observed in a state of being inserted in a narrow space, and the state of the measurement object is measured while checking the irradiated region on the measurement object. A wide range of images can be acquired.

本発明の1実施形態の内視鏡装置の全体図である。1 is an overall view of an endoscope apparatus according to an embodiment of the present invention. 同内視鏡装置のブロック図である。It is a block diagram of the endoscope apparatus. 同内視鏡装置で測定対象物を撮像するときの状態を説明する図である。It is a figure explaining a state when a measuring object is imaged with the endoscope apparatus. 同内視鏡装置のLCDに表示される画像を説明する図である。It is a figure explaining the image displayed on LCD of the same endoscope apparatus. 同内視鏡装置の画像結合部が抽出画像をつなぎ合わせる処理を説明する図である。It is a figure explaining the process which the image connection part of the same endoscope apparatus joins an extraction image. 同内視鏡装置の主メモリに記憶されている位置情報と距離を説明する図である。It is a figure explaining the positional information and distance memorize | stored in the main memory of the same endoscope apparatus. 同内視鏡装置で取得した測定対象物の画像の配置を説明する図である。It is a figure explaining arrangement | positioning of the image of the measuring object acquired with the same endoscope apparatus. 同内視鏡装置の画像結合部が作成した結合画像の図である。It is a figure of the combined image which the image combining part of the same endoscope apparatus produced. 同結合画像における距離を測定した被照射領域の位置を表す図である。It is a figure showing the position of the to-be-irradiated area | region which measured the distance in the same combined image. 本発明の1実施形態の変形例の内視鏡装置における要部の斜視図である。It is a perspective view of the principal part in the endoscope apparatus of the modification of one Embodiment of this invention. 本発明の2実施形態のパイプカメラの先端部の斜視図である。It is a perspective view of the front-end | tip part of the pipe camera of 2 embodiment of this invention. 図11におけるA方向矢視図である。It is an A direction arrow directional view in FIG.

(第1実施形態)
以下、本発明に係る撮像装置の第1実施形態を、撮像装置が内視鏡装置である場合について、図1から図10を参照しながら説明する。内視鏡装置は、管路内などに挿入され、管路内を観察するとともに測定対象物までの距離を測定する装置である。
図1に示すように、本内視鏡装置1は、前方を観察するとともに前方の画像を取得可能な小径で長尺の挿入部10と、挿入部10の基端に接続され挿入部10などを操作する操作部30と、操作部30に接続された内視鏡本体40と、挿入部10で取得された画像などを表示する表示部60とを備えている。
(First embodiment)
Hereinafter, a first embodiment of an imaging apparatus according to the present invention will be described with reference to FIGS. 1 to 10 in the case where the imaging apparatus is an endoscope apparatus. An endoscope apparatus is an apparatus that is inserted into a pipeline or the like, observes the inside of the pipeline, and measures the distance to a measurement object.
As shown in FIG. 1, the endoscope apparatus 1 includes a small-diameter and long insertion portion 10 that is capable of observing the front and acquiring a front image, and the insertion portion 10 that is connected to the proximal end of the insertion portion 10. Are provided with an operation unit 30, an endoscope main body 40 connected to the operation unit 30, and a display unit 60 that displays an image acquired by the insertion unit 10.

図1および図2に示すように、挿入部10は、先端に配置された先端硬質部11と、先端硬質部11の基端に接続され湾曲可能な湾曲部12と、湾曲部12の基端に接続され可撓性を有する可撓管部13(図1参照)と、を有している。
一般的に、挿入部の外径として5mm以上15mm以下のものが用いられ、挿入部の長さとして2m以上20m以下のものが用いられる。
先端硬質部11の先端面には、白色の可視光線を前方に照射する発光ダイオードを有する照明ユニット16および可視光線を集光する観察レンズ(レンズ)17が配置され、先端硬質部11には、可視光線から画像を取得するCCD(撮像素子)18、内視鏡本体40の後述する通信制御部42との間で信号の送受信を行う通信制御部19、および、測定対象物Wまでの距離を測定する距離測定部(測定部)20が内蔵されている。
As shown in FIGS. 1 and 2, the insertion portion 10 includes a distal end hard portion 11 disposed at the distal end, a bending portion 12 that can be bent by being connected to the proximal end of the distal end hard portion 11, and a proximal end of the bending portion 12. And a flexible tube portion 13 (see FIG. 1) having flexibility.
In general, the outer diameter of the insertion part is 5 mm or more and 15 mm or less, and the length of the insertion part is 2 m or more and 20 m or less.
An illumination unit 16 having a light emitting diode that irradiates white visible light forward and an observation lens (lens) 17 that collects visible light are disposed on the distal end surface of the distal hard portion 11. The distance from the CCD (imaging device) 18 that acquires an image from visible light, the communication control unit 19 that transmits and receives signals to and from the communication control unit 42 (to be described later) of the endoscope main body 40, and the measurement object W A distance measuring unit (measuring unit) 20 for measuring is incorporated.

観察レンズ17は、挿入部10の前方における所定の視野角θ1内の可視光線による像を集光し、CCD18の検出面18a上に結像させる。CCD18は、検出面18aに結像された可視光線を検出して画像を取得する。視野角θ1に対応して画像が取得される測定対象物W上の範囲が、表示部60で表示される観察視野となる。
通信制御部19は、通信制御部19に先端が接続され挿入部10内を通る電線23の本数を、たとえば3本にするために、複数の信号を1つの信号に重畳したり分離したりする処理を行う。
The observation lens 17 condenses an image of visible light within a predetermined viewing angle θ1 in front of the insertion unit 10 and forms an image on the detection surface 18a of the CCD 18. The CCD 18 detects visible light imaged on the detection surface 18a and acquires an image. A range on the measurement object W from which an image is acquired corresponding to the viewing angle θ1 is an observation field of view displayed on the display unit 60.
The communication control unit 19 superimposes or separates a plurality of signals on one signal so that the number of the electric wires 23 connected to the communication control unit 19 and passing through the insertion unit 10 is, for example, three. Process.

本実施形態では、距離測定部20として、レーザー光が照射されてから測定対象物で反射されて検出されるまでの時間に基づいて測定対象物までの距離を測定するTOF(Time Of Flight)型の距離センサが用いられている。
距離測定部20は、赤色のレーザー光L1を前方に照射する発光部24と、通信制御部19からの信号に基づいて発光部24を制御する光制御部25と、赤色の可視光線を検出する受光部(受信部)26と、受光部26で検出したレーザー光L1の信号を増幅する戻光検出部27と、発光部24から測定対象物Wまでの距離を算出する距離算出部28とを有している。
発光部24および受光部26は、先端硬質部11の先端面に配置されている。
光制御部25は、通信制御部19と電気的に接続されていて、通信制御部19から受信した信号に基づいて、発光部24への電力の供給状態を切替える。
使用者は、発光部24が測定対象物Wの表面の一部である被照射領域W1にレーザー光L1を照射したときに、被照射領域W1が、観察ユニット12の視野角θ1内であって、さらに、観察視野内における観察レンズ17による歪曲収差の小さい歪曲低減角θ2内に位置するように、挿入部10の先端から被照射領域W1までの距離を調節して使用する。
測定対象物Wの表面において、被照射領域W1、および被照射領域W1に隣接する隣接領域W2は、照明ユニット16により白色の可視光線で照明される。発光部24は、赤色のレーザー光L1を被照射領域W1に照射することで、隣接領域W2に対して被照射領域W1が反射する可視光線の色彩を、CCD18が取得する画像により後述する画像結合部45が識別可能となるように異ならせることができる。
In the present embodiment, the distance measuring unit 20 is a TOF (Time Of Flight) type that measures the distance to the measurement object based on the time from when the laser beam is irradiated until it is reflected and detected by the measurement object. Distance sensors are used.
The distance measuring unit 20 detects the red visible light, the light emitting unit 24 that irradiates the red laser light L1 forward, the light control unit 25 that controls the light emitting unit 24 based on the signal from the communication control unit 19, and the like. A light receiving unit (receiving unit) 26, a return light detecting unit 27 that amplifies the signal of the laser light L1 detected by the light receiving unit 26, and a distance calculating unit 28 that calculates the distance from the light emitting unit 24 to the measurement object W. Have.
The light emitting unit 24 and the light receiving unit 26 are disposed on the distal end surface of the distal end rigid portion 11.
The light control unit 25 is electrically connected to the communication control unit 19, and switches the power supply state to the light emitting unit 24 based on a signal received from the communication control unit 19.
When the user irradiates the irradiated region W1 that is a part of the surface of the measurement target W with the laser light L1, the irradiated region W1 is within the viewing angle θ1 of the observation unit 12. Further, the distance from the distal end of the insertion portion 10 to the irradiated region W1 is adjusted so that the distance is within the distortion reduction angle θ2 where the distortion due to the observation lens 17 is small in the observation field.
On the surface of the measurement object W, the illuminated area W1 and the adjacent area W2 adjacent to the illuminated area W1 are illuminated with white visible light by the illumination unit 16. The light emitting unit 24 irradiates the irradiated region W1 with the red laser light L1, and the image combination described later with the image acquired by the CCD 18 reflects the color of the visible light reflected by the irradiated region W1 with respect to the adjacent region W2. The portions 45 can be made different so that they can be identified.

被照射領域W1と隣接領域W2とが画像により識別可能となるように色彩を異ならせるために、レーザー光L1の色彩は測定対象物Wの表面の色彩と異なるものを用いることが好ましい。また、たとえば、外界の光を遮断して被照射領域W1および隣接領域W2を白色光で100lx(ルクス)の照度で照明したときに、被照射領域W1を照射する赤色のレーザー光L1の単独の照度を150lx以上とすることが好ましい。   In order to make the colors different so that the irradiated area W1 and the adjacent area W2 can be distinguished from each other by image, it is preferable to use a color of the laser light L1 that is different from the color of the surface of the measuring object W. Further, for example, when the irradiated region W1 and the adjacent region W2 are illuminated with white light at an illuminance of 100 lx (lux) while blocking light from the outside world, the red laser light L1 that irradiates the irradiated region W1 alone The illuminance is preferably 150 lx or more.

受光部26には、PSD(Position Sensitive Detector)やCCDなどの、指向性が高く、前方から受光部26に向かう受信方向Dからの赤色の可視光線を検出する素子を適宜選択して用いることができる。
一般的に、発光部24から測定対象物Wまでの距離は、発光部24と受光部26との間の距離に比べて充分大きくなっている。さらに本実施形態では、発光部24と受光部26との相対位置が変わらないように構成されているので、湾曲部12を湾曲したときに、発光部24がレーザー光L1を照射する被照射領域W1から受光部26に向かう方向が受信方向Dとなる。
距離算出部28は、発光部24でレーザー光L1が照射された時から、被照射領域W1で反射されたレーザー光L1が受光部26で受光される時までの時間差に基づいて、発光部24から測定対象物Wの被照射領域W1までの距離を算出し、その結果を信号として通信制御部19に送信する。
For the light receiving unit 26, an element that detects red visible light from the reception direction D from the front toward the light receiving unit 26 with high directivity, such as PSD (Position Sensitive Detector) or CCD, may be appropriately selected and used. it can.
In general, the distance from the light emitting unit 24 to the measurement target W is sufficiently larger than the distance between the light emitting unit 24 and the light receiving unit 26. Further, in the present embodiment, since the relative position between the light emitting unit 24 and the light receiving unit 26 is not changed, the irradiated region where the light emitting unit 24 emits the laser light L1 when the bending unit 12 is bent. The direction from W1 toward the light receiving unit 26 is the reception direction D.
The distance calculation unit 28 is based on the time difference from when the laser beam L1 is irradiated by the light emitting unit 24 to when the laser beam L1 reflected by the irradiated region W1 is received by the light receiving unit 26. The distance from the measurement object W to the irradiated area W1 is calculated, and the result is transmitted to the communication control unit 19 as a signal.

図1に示すように、操作部30には、湾曲部12を湾曲操作するための湾曲操作ボタン31と、内視鏡本体40、および表示部60などを操作するための主操作ボタン32とが設けられている。   As shown in FIG. 1, the operation unit 30 includes a bending operation button 31 for operating the bending unit 12 and a main operation button 32 for operating the endoscope main body 40, the display unit 60, and the like. Is provided.

内視鏡本体40は、図1および図2に示すように、ケーシング41と、ケーシング41に内蔵された、前述の通信制御部19との間で信号の送受信を行う通信制御部42、照明ユニット16を制御する照明制御部43、CCD18が取得した画像などを処理して一時的に保存する画像処理部44、複数の画像をつなぎ合わせて結合画像を作成する画像結合部45、内視鏡本体40全体としての制御処理を行う処理部46、距離測定部20による測定結果を記憶する主メモリ(記憶部)47、および挿入部10や表示部60などに電力を供給する電源部48とを有している。   As shown in FIGS. 1 and 2, the endoscope main body 40 includes a casing 41 and a communication control unit 42 that is incorporated in the casing 41 and that transmits and receives signals between the communication control unit 19 and the illumination unit. 16, an illumination control unit 43 that controls 16, an image processing unit 44 that processes and temporarily stores images acquired by the CCD 18, an image combining unit 45 that joins a plurality of images to create a combined image, and an endoscope body 40 includes a processing unit 46 that performs control processing as a whole, a main memory (storage unit) 47 that stores measurement results from the distance measurement unit 20, and a power supply unit 48 that supplies power to the insertion unit 10 and the display unit 60. is doing.

前述の電線23は、中間部が操作部30に接続されているとともに、基端が通信制御部42に接続されている。
通信制御部42、画像処理部44、および画像結合部45は、この順で直列となるように接続されている。
通信制御部42は、通信制御部19と同様に信号の重畳、分離処理を行う。
画像処理部44は、不図示のメモリを有していて、CCD18が取得した画像などを保存することができる。
画像結合部45は、画像処理部44に保存された画像から、観察レンズ17による歪曲収差の小さい画像の中央部分である抽出画像を抽出するとともに、互いに異なる2つの抽出画像を、測定対象物Wの形状が連続するようにつなぎ合わせて結合画像を作成する。また、主メモリ47は、結合画像における被照射領域W1の位置情報を、測定部20によって測定された距離に対応付けて記憶している。画像結合部45が行う処理、および主メモリ47が記憶している具体的な内容については、後で詳しく説明する。
処理部46は、照明制御部43、画像結合部45および主メモリ47と電気的に接続されている。
The electric wire 23 has an intermediate portion connected to the operation unit 30 and a proximal end connected to the communication control unit 42.
The communication control unit 42, the image processing unit 44, and the image combining unit 45 are connected in series in this order.
The communication control unit 42 performs signal superposition and separation processing in the same manner as the communication control unit 19.
The image processing unit 44 has a memory (not shown) and can store an image acquired by the CCD 18.
The image combining unit 45 extracts an extracted image that is a central portion of an image with a small distortion by the observation lens 17 from the image stored in the image processing unit 44, and extracts two different extracted images from the measurement object W. The combined images are created by connecting them so that their shapes are continuous. Further, the main memory 47 stores the position information of the irradiated area W1 in the combined image in association with the distance measured by the measurement unit 20. The processing performed by the image combining unit 45 and the specific contents stored in the main memory 47 will be described in detail later.
The processing unit 46 is electrically connected to the illumination control unit 43, the image combining unit 45, and the main memory 47.

ケーシング41の外面には、処理部46および電源部48に電気的に接続されたコネクタ49が取付けられている。   A connector 49 that is electrically connected to the processing unit 46 and the power supply unit 48 is attached to the outer surface of the casing 41.

表示部60は、ケーシング41に着脱自在に配設されている。表示部60は、画像などを表示するLCD61と、コネクタ49に着脱可能な配線62とを有している。
配線62をコネクタ49に接続することで、表示部60は電源部48から所定の電力を供給されるとともに、処理部46から送信された画像などをLCD61に表示することができる。
The display unit 60 is detachably disposed on the casing 41. The display unit 60 includes an LCD 61 that displays an image and the like, and wiring 62 that can be attached to and detached from the connector 49.
By connecting the wiring 62 to the connector 49, the display unit 60 is supplied with predetermined power from the power supply unit 48 and can display the image transmitted from the processing unit 46 on the LCD 61.

次に、画像結合部45が行う処理について説明する。
図3に示すように、測定対象物Wに対して挿入部10の可撓管部13を固定した状態で操作部30を操作することで、照明ユニット16により測定対象物Wの一定の範囲を照明しながら、発光部24により測定対象物Wの被照射領域W1にレーザー光L1を照射する。
このとき、図4に示すように表示部60のLCD61には、前述の観察レンズ17による歪曲収差の小さい適正範囲R(図2における歪曲低減角θ2に対応する観察視野)内に被照射領域W1が表示される。LCD61に表示される画像のうち適正範囲R内の部分が、前述の抽出画像となる。
Next, processing performed by the image combining unit 45 will be described.
As shown in FIG. 3, by operating the operation unit 30 in a state where the flexible tube portion 13 of the insertion unit 10 is fixed with respect to the measurement target W, the illumination unit 16 sets a certain range of the measurement target W. While illuminating, the light emitting unit 24 irradiates the irradiated region W1 of the measurement target W with the laser light L1.
At this time, as shown in FIG. 4, the LCD 61 of the display unit 60 has an irradiation region W1 within an appropriate range R (observation field of view corresponding to the distortion reduction angle θ2 in FIG. 2) with a small distortion due to the observation lens 17 described above. Is displayed. Of the image displayed on the LCD 61, the portion within the appropriate range R is the above-described extracted image.

画像結合部45は、図5に示すように、互いに異なる2つの抽出画像P1、P2であって、抽出画像P1中に発光部24により赤色のレーザー光L1を照射されている被照射領域W1の像が含まれているとともに、抽出画像P2中における抽出画像P1中の被照射領域W1に対応する対応領域W3が発光部24によりレーザー光L1を照射されていないものをつなぎ合わせて結合画像Q1を作成する。
被照射領域W1および対応領域W3は、測定対象物Wの表面上の同一の範囲である。ただし、可撓管部13を固定した状態で湾曲部12を湾曲させて観察レンズ17による観察視野を移動させることで、この同一の範囲が、抽出画像P1中ではレーザー光L1を照射された被照射領域W1となり、抽出画像P2中ではレーザー光L1が照射されない対応領域W3となる。
画像結合部45は、2つの抽出画像P1、P2をつなぎ合わせるときに、抽出画像P1に含まれる特徴領域R1、抽出画像P2に含まれる特徴領域R2であって、特徴領域R1と特徴領域R2とが互いに同一のものをそれぞれ検出し、特徴領域R1、R2を互いに重ねるように抽出画像P1、P2をつなぎ合わせるという公知の方法を用いる。
As shown in FIG. 5, the image combining unit 45 includes two extracted images P1 and P2 which are different from each other, and the irradiated region W1 irradiated with the red laser light L1 from the light emitting unit 24 in the extracted image P1. The combined image Q1 is formed by connecting the corresponding regions W3 corresponding to the irradiated region W1 in the extracted image P1 in the extracted image P2 that are not irradiated with the laser light L1 by the light emitting unit 24. create.
The irradiated region W1 and the corresponding region W3 are the same range on the surface of the measurement object W. However, by bending the bending portion 12 and moving the observation field of view by the observation lens 17 in a state where the flexible tube portion 13 is fixed, this same range can be obtained in the extracted image P1 to which the laser beam L1 is irradiated. It becomes the irradiation region W1 and becomes the corresponding region W3 where the laser beam L1 is not irradiated in the extracted image P2.
When connecting the two extracted images P1 and P2, the image combining unit 45 includes the feature region R1 included in the extracted image P1 and the feature region R2 included in the extracted image P2, and includes the feature region R1 and the feature region R2. Are detected, and the extracted images P1 and P2 are connected so that the feature regions R1 and R2 overlap each other.

特徴領域とは、たとえば、画像における各画素の輝度を所定の閾値で2値化して、測定対象物全体の輪郭形状や、測定対象物を構成する面の輪郭形状などを求め、この形状の種類と形状を表す数値を特定したものである。特徴領域の形状の種類としては、直線、曲線、円、折れ線、および分岐形状などが挙げられる。また、特徴領域が直線である場合の形状を表す数値としては、直線の長さや傾きなどが挙げられる。
図5の例では、画像結合部45は、抽出画像P1における直線である特徴領域R1と、抽出画像P2における直線である特徴領域R2との長さおよび傾きを同一と認定したので、特徴領域R1、R2を重ねるように2つの抽出画像P1、P2をつなぎ合わせる。
The characteristic region is, for example, binarizing the luminance of each pixel in the image with a predetermined threshold value to obtain the contour shape of the entire measurement target, the contour shape of the surface constituting the measurement target, and the like. And a numerical value representing the shape. Examples of the shape type of the feature region include a straight line, a curved line, a circle, a broken line, and a branched shape. In addition, examples of the numerical value representing the shape when the characteristic region is a straight line include the length and inclination of the straight line.
In the example of FIG. 5, the image combining unit 45 recognizes that the feature region R1 that is a straight line in the extracted image P1 and the feature region R2 that is a straight line in the extracted image P2 have the same length and inclination, and thus the feature region R1. , R2 are overlapped so that the two extracted images P1 and P2 are connected.

画像結合部45は、抽出画像P1において、隣接する画素の色彩を比較し、たとえば、隣合う画素における赤色の輝度の差が所定の閾値以上である場合に、この隣合う画素が測定対象物Wにおける隣接領域W2と赤色のレーザー光L1を照射された被照射領域W1との境界であるとして、測定対象物W上にレーザー光L1を照射された被照射領域W1の位置と大きさを特定することで隣接領域W2から被照射領域W1を識別する。そして、抽出画像P1において特徴領域R1から被照射領域W1までの方向ベクトルE1を求め、抽出画像P2において特徴領域R2から方向ベクトルE1移動した対応領域W3の周辺の画素における赤色の輝度分布を求める。この周辺の画素における隣合う画素の赤色の輝度の差が所定の閾値より小さい場合には、抽出画像P2中の対応領域W3にはレーザー光L1は照射されていないと認定する。
画像結合部45は、上記のように隣接領域W2から被照射領域W1を識別し、対応領域W3にレーザー光L1は照射されていないと認定したときに結合画像Q1を作成する。この結合画像Q1を作成するときに、抽出画像P1の被照射領域W1の像に代えて、抽出画像P2の対応領域W3の像を用いる。
The image combining unit 45 compares the colors of adjacent pixels in the extracted image P1. For example, when the difference in red luminance between adjacent pixels is equal to or greater than a predetermined threshold, the adjacent pixels are detected by the measurement object W. The position and size of the irradiated region W1 irradiated with the laser beam L1 on the measurement target W are specified as the boundary between the adjacent region W2 and the irradiated region W1 irradiated with the red laser beam L1. Thus, the irradiated area W1 is identified from the adjacent area W2. Then, a direction vector E1 from the feature region R1 to the irradiated region W1 is obtained in the extracted image P1, and a red luminance distribution is obtained in pixels around the corresponding region W3 moved from the feature region R2 in the extracted image P2. When the difference in red luminance between adjacent pixels in the peripheral pixels is smaller than a predetermined threshold value, it is determined that the corresponding region W3 in the extracted image P2 is not irradiated with the laser light L1.
As described above, the image combining unit 45 identifies the irradiated region W1 from the adjacent region W2, and creates the combined image Q1 when it is determined that the corresponding region W3 is not irradiated with the laser light L1. When creating this combined image Q1, an image of the corresponding area W3 of the extracted image P2 is used instead of the image of the irradiated area W1 of the extracted image P1.

さらに、画像結合部45は、結合画像Q1における角部Oを原点として互いに直交するX軸およびY軸を設定し、結合画像Q1における被照射領域W1のX座標およびY座標(位置情報)を求めて信号に変換し、主メモリ47に送信する。なお、抽出画像P1、P2のうちX軸の座標値が最も小さい位置にある画素の位置を角部OのX座標とし、抽出画像P1、P2のうちY軸の座標値が最も小さい位置にある画素の位置を角部OのY座標とする。
主メモリ47は、図6に示すように、送信された被照射領域W1のX座標およびY座標を、抽出画像P1のもととなる画像を取得したときに測定した発光部24から被照射領域W1までの距離Kに対応付けて記憶する。
Further, the image combining unit 45 sets the X and Y axes orthogonal to each other with the corner O in the combined image Q1 as the origin, and obtains the X coordinate and Y coordinate (position information) of the irradiated area W1 in the combined image Q1. Are converted into signals and transmitted to the main memory 47. In addition, the position of the pixel at the position where the X-axis coordinate value is the smallest among the extracted images P1 and P2 is the X-coordinate of the corner portion O, and the Y-axis coordinate value is the smallest position among the extracted images P1 and P2. Let the pixel position be the Y coordinate of the corner O.
As shown in FIG. 6, the main memory 47 measures the X and Y coordinates of the transmitted irradiated area W1 from the light emitting unit 24 measured when the image that is the basis of the extracted image P1 is acquired. The information is stored in association with the distance K to W1.

次に、以上のように構成された内視鏡装置1を管路内に挿入して測定対象物Wを撮像するときの動作について説明する。
まず、使用者は、操作部30の主操作ボタン32を操作して内視鏡本体40の処理部46を起動する。
Next, an operation when the endoscope apparatus 1 configured as described above is inserted into a pipeline and the measurement object W is imaged will be described.
First, the user operates the main operation button 32 of the operation unit 30 to activate the processing unit 46 of the endoscope body 40.

続いて、照明ユニット16から白色の照明光を照射して挿入部10の前方を照明するとともに、発光部24から赤色のレーザー光L1をガイド光として照射して距離測定部20で受信方向Dからの赤色の可視光線を検出し距離を測定しながら、不図示の管路内に挿入部10を挿入していく。
このとき、表示部60のLCD61には、CCD18で取得された反射された赤色のレーザー光L1も含む可視光線による映像、および、発光部24からレーザー光L1が反射された位置までの距離が表示される。この距離は、所定の時間間隔ごとに測定値が更新される。
使用者は、LCD61に表示される映像および距離を見て挿入部10の前方の状況を確認しながら、挿入部10を管路内に挿入していく。
Subsequently, the illumination unit 16 emits white illumination light to illuminate the front of the insertion unit 10, and the light emitting unit 24 emits red laser light L1 as guide light, and the distance measurement unit 20 from the reception direction D. The insertion portion 10 is inserted into a pipe line (not shown) while detecting the red visible light and measuring the distance.
At this time, the LCD 61 of the display unit 60 displays a visible image including the reflected red laser beam L1 acquired by the CCD 18 and a distance from the light emitting unit 24 to the position where the laser beam L1 is reflected. Is done. The measured value of this distance is updated every predetermined time interval.
The user inserts the insertion unit 10 into the pipe line while checking the situation in front of the insertion unit 10 while viewing the image displayed on the LCD 61 and the distance.

図3に示すように、挿入部10の先端が測定対象物Wの近傍に達すると、測定対象物Wの一定の範囲が照明ユニット16により照明され、測定対象物Wの被照射領域W1にガイド光であるレーザー光L1が照射される。このとき、LCD61には、図4に示すように、測定対象物W、およびガイド光であるレーザー光L1が照射された被照射領域W1の映像、および発光部24から被照射領域W1までの距離Vが表示される。
ここで、図3に示すように、測定対象物Wに対して挿入部10の可撓管部13を固定した状態で、CCD18により測定対象物Wの一部の画像を取得すると同時に、距離測定部20により発光部24から被照射領域W1までの距離を測定する。同時に取得された画像および距離は、互いに対応付けられた状態で通信制御部19、42を通して、画像処理部44に送信され、画像処理部44のメモリに記憶される。
使用者は、操作部30の湾曲操作ボタン31を操作して湾曲部12を一定量湾曲させ、測定対象物Wの画像を取得すると同時に被照射領域W1までの距離を測定することを繰り返し、測定対象物Wのほぼ全体にわたる画像を取得する。このとき、図7に示すように、隣合う画像から抽出した2つの抽出画像P1、P2において、抽出画像P1中にレーザー光L1を照射されている被照射領域W1の像が含まれているとともに、抽出画像P2中における抽出画像P1に対応する対応領域W3がレーザー光L1を照射されていないように画像を取得する。
As shown in FIG. 3, when the distal end of the insertion portion 10 reaches the vicinity of the measurement object W, a certain range of the measurement object W is illuminated by the illumination unit 16 and guided to the irradiated area W1 of the measurement object W. Laser light L1, which is light, is irradiated. At this time, as shown in FIG. 4, the LCD 61 has an image of the measurement target W and the irradiated region W1 irradiated with the laser light L1 as the guide light, and the distance from the light emitting unit 24 to the irradiated region W1. V is displayed.
Here, as shown in FIG. 3, while the flexible tube portion 13 of the insertion portion 10 is fixed to the measurement target W, a partial image of the measurement target W is acquired by the CCD 18 and at the same time the distance measurement is performed. The distance from the light emitting unit 24 to the irradiated region W1 is measured by the unit 20. The images and distances acquired at the same time are transmitted to the image processing unit 44 through the communication control units 19 and 42 while being associated with each other, and stored in the memory of the image processing unit 44.
The user repeatedly operates the bending operation button 31 of the operation unit 30 to bend the bending unit 12 by a certain amount, obtains an image of the measurement object W, and simultaneously measures the distance to the irradiated region W1 to perform measurement. An image over almost the entire object W is acquired. At this time, as shown in FIG. 7, in the two extracted images P1 and P2 extracted from the adjacent images, the extracted image P1 includes an image of the irradiated region W1 irradiated with the laser light L1. The image is acquired so that the corresponding region W3 corresponding to the extracted image P1 in the extracted image P2 is not irradiated with the laser light L1.

画像結合部45は、画像処理部44のメモリに保存された複数の画像から抽出画像を抽出するとともに複数の抽出画像をつなぎ合わせ、図8に示すように、測定対象物Wのほぼ全体の像が含まれる結合画像Q2を作成する。この結合画像Q2では、レーザー光L1が照射された被照射領域W1の像に代えてレーザー光L1が照射されていない対応領域W3の像が用いられている。このため、隣接領域W2に対して対応領域W3だけ赤色のレーザー光L1で照射されていることがなく、測定対象物Wの表面の色彩を比較しやすくなっている。
また、主メモリ47は、結合画像Q2において、角部O、X軸およびY軸を設定する。続いて、図9に示すように、角部Oに対するそれぞれの抽出画像中の被照射領域W1のX座標およびY座標を求める。そして、図6に示すように、求めた被照射領域W1のX座標およびY座標を、抽出画像のもととなる画像に対応付けて画像処理部44のメモリに記憶された距離Kに対応付けて記憶する。
本実施形態では、表示部60のLCD61に、測定対象物Wの結合画像Q2に多数の被照射領域W1を重ね合わせて表示することができる。この状態において、被照射領域W1を指定すると、主メモリ47に記憶された位置情報と距離Kとの対応付けから、指定された位置に対応する距離Kが主メモリ47から読み出され距離Kの値がLCD61に表示される。
The image combining unit 45 extracts the extracted images from the plurality of images stored in the memory of the image processing unit 44 and connects the plurality of extracted images. As shown in FIG. Is created. In this combined image Q2, an image of the corresponding region W3 not irradiated with the laser light L1 is used instead of the image of the irradiated region W1 irradiated with the laser light L1. For this reason, only the corresponding region W3 is not irradiated with the red laser light L1 with respect to the adjacent region W2, and the surface color of the measurement object W can be easily compared.
Further, the main memory 47 sets the corner portion O, the X axis, and the Y axis in the combined image Q2. Subsequently, as shown in FIG. 9, the X coordinate and the Y coordinate of the irradiated area W1 in each extracted image with respect to the corner O are obtained. Then, as shown in FIG. 6, the obtained X coordinate and Y coordinate of the irradiated area W1 are associated with the distance K stored in the memory of the image processing unit 44 in association with the image that is the basis of the extracted image. Remember.
In the present embodiment, on the LCD 61 of the display unit 60, a large number of irradiated areas W1 can be displayed superimposed on the combined image Q2 of the measurement object W. In this state, when the irradiated area W1 is designated, the distance K corresponding to the designated position is read from the main memory 47 based on the correspondence between the position information stored in the main memory 47 and the distance K. The value is displayed on the LCD 61.

このように、測定対象物Wに対して挿入部10の可撓管部13を固定した状態で測定対象物Wの撮像を終えた後で、必要に応じて他の測定対象物の撮像を同様に繰り返して行う。   Thus, after finishing imaging of the measuring object W in a state where the flexible tube portion 13 of the insertion portion 10 is fixed to the measuring object W, imaging of other measuring objects is similarly performed as necessary. Repeatedly.

以上説明したように、本実施形態の内視鏡装置1によれば、使用者は、たとえば、CCD18で取得した映像をLCD61で確認しながら管路内に挿入部10を挿入していく。そして、測定対象物Wの近傍に挿入部10の先端を配置し、発光部24から赤色のレーザー光L1を測定対象物Wの被照射領域W1に照射し、受光部26で被照射領域W1からの可視光線を検出することで距離測定部20により発光部24から被照射領域W1までの距離を測定する。
使用者は、挿入部の湾曲部12を湾曲させつつCCD18により可視光線による画像を取得することで、互いに異なる2つの画像の中央部分である抽出画像P1、P2であって、抽出画像P1中に発光部24によりレーザー光L1を照射されている被照射領域W1の像が含まれているとともに、抽出画像P2中に発光部24により可視光線を照射されていない対応領域W3の像が含まれているものを取得する。
画像結合部45は、この2つの抽出画像P1、P2を測定対象物Wの形状が連続するようにつなぎ合せて結合画像Q2を作成する。その際に、結合画像Q2に、抽出画像P1の被照射領域W1の像に代えて抽出画像P2の対応領域W3の像を用いる。
As described above, according to the endoscope apparatus 1 of the present embodiment, the user inserts the insertion unit 10 into the duct while confirming the image acquired by the CCD 18 on the LCD 61, for example. Then, the distal end of the insertion portion 10 is disposed in the vicinity of the measurement target W, the red laser light L1 is emitted from the light emitting unit 24 to the irradiated region W1 of the measurement target W, and the light receiving unit 26 starts from the irradiated region W1. The distance measurement unit 20 measures the distance from the light emitting unit 24 to the irradiated region W1 by detecting visible light.
The user obtains an image by visible light by the CCD 18 while curving the bending portion 12 of the insertion portion, so that the extracted images P1 and P2 which are the central portions of two different images are included in the extracted image P1. The image of the irradiated region W1 irradiated with the laser light L1 from the light emitting unit 24 is included, and the image of the corresponding region W3 that is not irradiated with visible light by the light emitting unit 24 is included in the extracted image P2. Get what you have.
The image combining unit 45 connects the two extracted images P1 and P2 so that the shape of the measurement object W is continuous, thereby creating a combined image Q2. At that time, the image of the corresponding region W3 of the extracted image P2 is used for the combined image Q2 instead of the image of the irradiated region W1 of the extracted image P1.

このように、CCD18が配置されている挿入部10が小径かつ長尺であって、CCD18を測定対象物Wの広範囲の画像を一度に取得する仕様にできない場合であっても、画像結合部45により取得した画像をつなぎ合わせることで、測定対象物Wのより広範囲の画像であって発光部24によりレーザー光L1を照射された領域のない結合画像Q2を作成することができる。
また、測定対象物Wの画像を取得するときに、発光部24により隣接領域W2に対して被照射領域W1が識別可能となっているので、使用者が被照射領域W1の像の位置を容易に認識して、つなぎ合わせるための画像を容易に取得することができる。
As described above, even when the insertion portion 10 in which the CCD 18 is arranged is small in diameter and long and the CCD 18 cannot be configured to acquire a wide range image of the measurement object W at a time, the image combining portion 45. By joining the images acquired by the above, it is possible to create a combined image Q2 that is a wider range image of the measurement object W and does not have a region irradiated with the laser light L1 from the light emitting unit 24.
Further, when the image of the measurement object W is acquired, the irradiated region W1 can be identified with respect to the adjacent region W2 by the light emitting unit 24, so that the user can easily position the image of the irradiated region W1. It is possible to easily acquire an image for recognizing and joining together.

内視鏡装置1は主メモリ47を備えるため、結合画像Q2中における被照射領域W1のX座標およびY座標を指定することで、発光部24から被照射領域W1までの距離Kを主メモリ47から読み出すことができる。
CCD18で得られた画像から抽出画像を抽出しているため、観察レンズ17に歪曲収差がある場合であっても、抽出画像の歪みを抑えることができる。
Since the endoscope apparatus 1 includes the main memory 47, the distance K from the light emitting unit 24 to the irradiated region W1 is set to the main memory 47 by designating the X coordinate and the Y coordinate of the irradiated region W1 in the combined image Q2. Can be read from.
Since the extracted image is extracted from the image obtained by the CCD 18, the distortion of the extracted image can be suppressed even when the observation lens 17 has distortion.

なお、前記第1実施形態では、撮像装置は内視鏡装置1であり、発光部24および受光部26を有する距離測定部20は内視鏡装置1の先端硬質部11に配置されているとした。しかし、図10に示すように、撮像装置が、内視鏡装置1に対して距離測定部20を備えない構成とした内視鏡装置71と、内視鏡装置71の挿入部72の先端硬質部11の外周面に取付けられる距離測定ユニット(距離測定部)73とを備える内視鏡システム2であるとしてもよい。距離測定ユニット73を挿入部72の先端硬質部11に、不図示のバンド部材などで取付けるようにしてもよい。
内視鏡システム2をこのように構成しても、湾曲部12を一定量湾曲させ、測定対象物Wの画像を取得すると同時に距離測定ユニット73からレーザー光L1を照射して被照射領域W1までの距離を測定することを繰り返すことで、前記第1実施形態と同様に、測定対象物Wのほぼ全体にわたる画像を取得することができる。
また、撮像装置が、前述の内視鏡装置71と、内視鏡装置71の挿入部72を挿通可能なチャンネルが形成され先端に距離測定部が配置されたガイドチューブ装置とを備えるとしてもよい。
In the first embodiment, the imaging device is the endoscope device 1, and the distance measuring unit 20 having the light emitting unit 24 and the light receiving unit 26 is disposed at the distal end hard portion 11 of the endoscope device 1. did. However, as shown in FIG. 10, the imaging device has a configuration in which the distance measuring unit 20 is not provided with respect to the endoscope device 1 and the distal end of the insertion portion 72 of the endoscope device 71 is hard. The endoscope system 2 may include a distance measurement unit (distance measurement unit) 73 attached to the outer peripheral surface of the unit 11. You may make it attach the distance measurement unit 73 to the front-end | tip hard part 11 of the insertion part 72 with a band member not shown.
Even if the endoscope system 2 is configured in this way, the bending portion 12 is bent by a certain amount, an image of the measurement object W is acquired, and at the same time, the laser beam L1 is irradiated from the distance measurement unit 73 to the irradiated region W1. By repeating the measurement of the distance, it is possible to acquire an image over almost the entire measurement object W as in the first embodiment.
The imaging device may include the above-described endoscope device 71 and a guide tube device in which a channel through which the insertion portion 72 of the endoscope device 71 can be inserted is formed and a distance measuring portion is arranged at the tip. .

(第2実施形態)
次に、本発明の第2実施形態について図11および図12を参照しながら説明するが、前記実施形態と同一の部位には同一の符号を付してその説明は省略し、異なる点についてのみ説明する。本実施形態では、撮像装置がパイプカメラである場合について説明する。
図11および図12に示すように、パイプカメラ3は、前記内視鏡装置1の挿入部10に代えて挿入部80を備えた構成となっている。
挿入部80は、先端に配置された観察ユニット81と、先端が観察ユニット81に接続され、観察ユニット81を自身の軸線C1回りに回動可能に支持する棒状の支持体82とを有している。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. 11 and FIG. explain. In the present embodiment, a case where the imaging device is a pipe camera will be described.
As shown in FIGS. 11 and 12, the pipe camera 3 is configured to include an insertion portion 80 instead of the insertion portion 10 of the endoscope apparatus 1.
The insertion portion 80 includes an observation unit 81 disposed at the tip, and a rod-like support 82 that is connected to the observation unit 81 and supports the observation unit 81 so as to be rotatable around its own axis C1. Yes.

観察ユニット81は、支持体82に接続されたベース部材85と、ベース部材85に回転可能に接続されたユニット本体86と、支持体82の先端部に取付けられ、ベース部材85およびユニット本体86を覆うカバー87とを有している。
ベース部材85の基端は、支持体82により軸線C1回りに回動可能に支持されている。ベース部材85は、自身の先端側に、互いに離間した状態で軸線C1に平行に延びる一対の腕部85aを有している。
ユニット本体86は、一対の腕部85aの間に配置されるとともに、一対の腕部85aの先端部の間に架け渡された軸部材88に接続されることで、軸部材88の軸線C2回りに回動可能に支持されている。
本実施形態では、カバー87は、樹脂などの透明な材料で球殻状に形成されている。
The observation unit 81 is attached to the base member 85 connected to the support 82, the unit main body 86 rotatably connected to the base member 85, and the tip of the support 82, and the base member 85 and the unit main body 86 are connected to each other. And a cover 87 for covering.
The base end of the base member 85 is supported by the support 82 so as to be rotatable around the axis C1. The base member 85 has a pair of arms 85a extending in parallel to the axis C1 in a state of being separated from each other on the distal end side thereof.
The unit main body 86 is disposed between the pair of arm portions 85a and connected to the shaft member 88 spanned between the distal end portions of the pair of arm portions 85a, whereby the unit body 86 is rotated around the axis C2 of the shaft member 88. Is rotatably supported.
In this embodiment, the cover 87 is formed in a spherical shell shape with a transparent material such as resin.

ユニット本体86は、箱状のケーシング91と、ケーシング91の先端面において、中央部に配置された観察レンズ17、観察レンズ17を囲うようにリング状に配置された複数の発光ダイオード92、および複数の発光ダイオード92を挟むように配置された発光部24および受光部26と、を有している。
ケーシング91には、不図示のCCD18、光制御部25、戻光検出部27、および距離算出部28が内蔵されている。
一般的に、パイプカメラ3において、カバー87の外径として15mm以上20mm以下のものが用いられ、挿入部80の長さとして10m以上30m以下のものが用いられる。
支持体82は、通常の使用においては湾曲しない程度に剛性の高い材料で形成されている。
The unit main body 86 includes a box-shaped casing 91, an observation lens 17 disposed in the center portion on the front end surface of the casing 91, a plurality of light emitting diodes 92 disposed in a ring shape so as to surround the observation lens 17, and a plurality of light emitting diodes 92. The light emitting unit 24 and the light receiving unit 26 are disposed so as to sandwich the light emitting diode 92 therebetween.
The casing 91 includes a CCD 18, a light control unit 25, a return light detection unit 27, and a distance calculation unit 28 (not shown).
In general, in the pipe camera 3, the cover 87 has an outer diameter of 15 mm or more and 20 mm or less, and the insertion portion 80 has a length of 10 m or more and 30 m or less.
The support 82 is made of a material that is so rigid that it does not bend in normal use.

パイプカメラ3は、図示はしないが、ベース部材85を軸線C1回りに回動させる機構、および、ユニット本体86を軸線C2回り回動させる機構を備えていて、ベース部材85を軸線C1回りに360°、ユニット本体86を軸線C2回りに180°それぞれ回動させることができる。   Although not shown, the pipe camera 3 includes a mechanism for rotating the base member 85 about the axis C1 and a mechanism for rotating the unit main body 86 about the axis C2. The pipe camera 3 is rotated 360 about the axis C1. The unit body 86 can be rotated by 180 ° around the axis C2.

このように構成されたパイプカメラ3によれば、狭い空間内に挿入された状態で周囲を観察可能であるとともに、測定対象物W上の被照射領域W1を確認しながら測定対象物Wの状態を測定し、測定対象物Wの広範囲にわたる画像を取得することができる。   According to the pipe camera 3 configured in this way, the surroundings can be observed while being inserted in a narrow space, and the state of the measurement object W is confirmed while confirming the irradiated area W1 on the measurement object W. And an image over a wide range of the measurement object W can be acquired.

以上、本発明の第1実施形態および第2実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の構成の変更なども含まれる。さらに、各実施形態で示した構成のそれぞれを適宜組み合わせて利用できることは、言うまでもない。
たとえば、前記第1実施形態および第2実施形態では、発光部24が赤色のレーザー光L1を照射し、被照射領域W1と隣接領域W2との色彩を異ならせることで、画像結合部45が被照射領域W1と隣接領域W2とを識別可能となるように構成した。しかし、発光部が所定の照度以上の白色の可視光線を照射して隣接領域W2より被照射領域W1の明るさを異ならせることで、画像結合部45が被照射領域W1と隣接領域W2とを識別可能となるように構成してもよい。
このとき、たとえば、照明ユニット16が被照射領域W1および隣接領域W2を白色光で100lxの照度で照明したときに、発光部24が被照射領域W1を照射する白色光単独の照度を150lx以上とすることが好ましい。
As mentioned above, although 1st Embodiment and 2nd Embodiment of this invention were explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The structure of the range which does not deviate from the summary of this invention Changes are also included. Furthermore, it goes without saying that the configurations shown in the embodiments can be used in appropriate combinations.
For example, in the first embodiment and the second embodiment, the light emitting unit 24 emits red laser light L1, and the irradiated region W1 and the adjacent region W2 are made different in color so that the image combining unit 45 is covered. The irradiation region W1 and the adjacent region W2 are configured to be distinguishable. However, when the light emitting unit emits white visible light with a predetermined illuminance or higher and the brightness of the irradiated region W1 is different from that of the adjacent region W2, the image combining unit 45 changes the irradiated region W1 and the adjacent region W2. You may comprise so that identification is possible.
At this time, for example, when the illumination unit 16 illuminates the irradiated region W1 and the adjacent region W2 with white light at an illuminance of 100 lx, the illuminance of the white light alone that the light emitting unit 24 irradiates the irradiated region W1 is 150 lx or more. It is preferable to do.

また、前記第1実施形態および第2実施形態では、受信部である受光部26が検出した被照射領域W1で反射された赤色の可視光線の検出結果に基づいて、測定部である距離測定部20が発光部24から被照射領域W1までの距離を測定するとした。しかし、たとえば、受信部が被照射領域W1からの赤外線を検出し、その検出結果に基づいて測定部が被照射領域W1における温度を測定するように構成してもよいし、受信部が被照射領域W1からの音波を検出し、その検出結果に基づいて測定部が被照射領域W1における振動状態を測定するように構成してもよい。   In the first embodiment and the second embodiment, the distance measuring unit that is a measuring unit based on the detection result of the red visible light reflected by the irradiated region W1 that is detected by the light receiving unit 26 that is the receiving unit. Suppose that 20 measures the distance from the light emission part 24 to the to-be-irradiated area W1. However, for example, the receiving unit may detect infrared rays from the irradiated region W1, and based on the detection result, the measuring unit may measure the temperature in the irradiated region W1, or the receiving unit may be irradiated. A sound wave from the region W1 may be detected, and the measurement unit may measure the vibration state in the irradiated region W1 based on the detection result.

また、前記第1実施形態および第2実施形態では、発光部24が赤色のレーザー光L1を照射し、CCD18が可視光線を検出するものとし、発光部24は、照射するレーザー光L1により被照射領域W1と隣接領域W2とを画像結合部45が識別可能となるように色彩を異ならせるとした。
しかし、発光部が赤外線を照射し、挿入部10のCCDが可視光線および赤外線を検出可能なものであり、発光部は、自身が照射する赤外線により被照射領域W1と隣接領域W2とを画像結合部45が識別可能となるように赤外線の強度を異ならせるように構成してもよい。また、CCDが可視光線および赤外線を検出可能なものであってもよい。
同様に、発光部が紫外線を照射し、CCDが可視光線および紫外線を検出可能なものであり、発光部は、自身が照射する紫外線により被照射領域W1と隣接領域W2とを画像結合部45が識別可能となるように紫外線の強度を異ならせるように構成してもよい。
In the first and second embodiments, the light emitting unit 24 emits red laser light L1 and the CCD 18 detects visible light. The light emitting unit 24 is irradiated with the irradiated laser light L1. The region W1 and the adjacent region W2 are made different in color so that the image combining unit 45 can identify them.
However, the light emitting unit emits infrared rays, and the CCD of the insertion unit 10 can detect visible light and infrared rays. The light emitting unit combines the irradiated region W1 and the adjacent region W2 with the infrared rays irradiated by itself. You may comprise so that the intensity | strength of infrared rays may be varied so that the part 45 may be identified. The CCD may be capable of detecting visible light and infrared light.
Similarly, the light emitting unit emits ultraviolet rays, and the CCD can detect visible light and ultraviolet rays. The light emitting unit is configured such that the image combining unit 45 divides the irradiated region W1 and the adjacent region W2 by the ultraviolet rays irradiated by itself. You may comprise so that the intensity | strength of an ultraviolet-ray may differ so that it can identify.

発光部24から照射される光がレーザー光などの平行光の場合、発光部24から被照射領域W1までの距離Kが長くなるのに伴って、観察視野内での被照射領域W1の大きさが小さくなる。このため、前記第1実施形態および第2実施形態では、予め、距離Kに対する画像上での被照射領域W1の大きさの関係を求めておくことで、画像結合部45が被照射領域W1を識別するのに要する時間を短縮ことができる。
前記第1実施形態および第2実施形態では、前記第1実施形態では、CCD18が取得した画像のうち観察レンズ17による歪曲収差の小さい部分である抽出画像から結合画像を作成した。しかし、観察レンズ17による歪曲収差が問題ないほど小さいと考えられる場合などには、抽出画像は画像と同じものであるとしてよく、CCD18が取得した画像全体から結合画像を作成してもよい。
When the light emitted from the light emitting unit 24 is parallel light such as laser light, the size of the irradiated region W1 in the observation field increases as the distance K from the light emitting unit 24 to the irradiated region W1 increases. Becomes smaller. For this reason, in the first embodiment and the second embodiment, the image combining unit 45 determines the irradiation area W1 by obtaining the relationship of the size of the irradiation area W1 on the image with respect to the distance K in advance. The time required for identification can be shortened.
In the first embodiment and the second embodiment, in the first embodiment, a combined image is created from an extracted image that is a portion with a small distortion due to the observation lens 17 in the image acquired by the CCD 18. However, when the distortion due to the observation lens 17 is considered to be so small as to cause no problem, the extracted image may be the same as the image, and a combined image may be created from the entire image acquired by the CCD 18.

前記第1実施形態および第2実施形態では、後に距離測定部20で測定した距離を必要としない場合などには、内視鏡装置またはパイプカメラに主メモリ47は備えられなくてもよい。
前記第1実施形態および第2実施形態では、距離測定部20としてTOF型の距離センサを用いた。しかし、これに限ることなく、三角測量方式や位相差検出方式などの距離センサを用いてもよい。
In the first embodiment and the second embodiment, when the distance measured by the distance measurement unit 20 is not required later, the main memory 47 may not be provided in the endoscope apparatus or the pipe camera.
In the first embodiment and the second embodiment, a TOF type distance sensor is used as the distance measuring unit 20. However, the present invention is not limited to this, and a distance sensor such as a triangulation method or a phase difference detection method may be used.

1 内視鏡装置(撮像装置)
2 内視鏡システム(撮像装置)
3 パイプカメラ(撮像装置)
10、72、80 挿入部
17 観察レンズ(レンズ)
18 CCD(撮像素子)
20 距離測定部(測定部)
24 発光部
26 受光部(受信部)
45 画像結合部
47 主メモリ(記憶部)
73 距離測定ユニット(距離測定部)
P1、P2 抽出画像
Q1 結合画像
W 測定対象物
W1 被照射領域
W3 対応領域
1 Endoscopic device (imaging device)
2 Endoscope system (imaging device)
3 Pipe camera (imaging device)
10, 72, 80 Insertion section 17 Observation lens (lens)
18 CCD (imaging device)
20 Distance measurement unit (measurement unit)
24 light emitting unit 26 light receiving unit (receiving unit)
45 Image combiner 47 Main memory (storage unit)
73 Distance measuring unit (distance measuring unit)
P1, P2 Extracted image Q1 Combined image W Measurement object W1 Irradiated area W3 Corresponding area

Claims (4)

可視光線を検出し、検出した前記可視光線から画像を取得する撮像素子と、
測定対象物の被照射領域に可視光線を照射し前記測定対象物における前記被照射領域に隣接する部分に対して前記被照射領域が反射する可視光線の明るさ及び色彩の少なくとも一つを前記画像により識別可能に異ならせる発光部、および、前記被照射領域からの赤外線、可視光線および音波の少なくとも一つを検出する受信部を有し、前記被照射領域における前記発光部からの距離、温度、および振動状態の少なくとも一つを測定する測定部と、
前記撮像素子、前記発光部および前記受信部が配置された小径で長尺の挿入部と、
前記被照射領域を含む前記測定対象物の一部で反射された可視光線による前記画像のうちの所定範囲を抽出画像としたとき、互いに異なる2つの前記抽出画像であって、一方の前記抽出画像中に前記発光部により可視光線を照射されている前記被照射領域の像が含まれているとともに、他方の前記抽出画像中における一方の前記抽出画像中の前記被照射領域に対応する対応領域が前記発光部により可視光線を照射されていないものを、前記測定対象物の形状が連続するようにつなぎ合わせて結合画像を作成する画像結合部と、
を備え、
前記画像結合部は、前記結合画像を作成するときに他方の前記抽出画像中の前記対応領域の像を用いることを特徴とする撮像装置。
An image sensor that detects visible light and acquires an image from the detected visible light;
Irradiate the irradiated area of the measurement object with visible light and reflect at least one of the brightness and color of the visible light reflected by the irradiated area with respect to a portion of the measurement object adjacent to the irradiated area. A light emitting unit that can be discriminated differently, and a receiving unit that detects at least one of infrared rays, visible light, and sound waves from the irradiated region, a distance from the light emitting unit in the irradiated region, a temperature, And a measuring unit for measuring at least one of vibration states;
A small-diameter and long insertion portion in which the imaging element, the light-emitting unit, and the receiving unit are arranged;
When the predetermined range of the image by the visible light reflected by a part of the measurement object including the irradiated region is an extracted image, the two extracted images are different from each other, and one of the extracted images An image of the irradiated region irradiated with visible light by the light emitting unit is included, and a corresponding region corresponding to the irradiated region in one of the extracted images in the other extracted image is included An image combining unit that forms a combined image by connecting the objects that are not irradiated with visible light by the light emitting unit so that the shape of the measurement object is continuous;
With
The image combining unit uses the image of the corresponding area in the other extracted image when the combined image is created.
可視光線および赤外線を検出し、検出した前記可視光線および赤外線から画像を取得する撮像素子と、
測定対象物の被照射領域に赤外線を照射し前記測定対象物における前記被照射領域に隣接する部分に対して前記被照射領域が反射する赤外線の強度を前記画像により識別可能に異ならせる発光部、および、前記被照射領域からの赤外線、可視光線および音波の少なくとも一つを検出する受信部を有し、前記被照射領域における前記発光部からの距離、温度、および振動状態の少なくとも一つを測定する測定部と、
前記撮像素子、前記発光部および前記受信部が配置された小径で長尺の挿入部と、
前記被照射領域を含む前記測定対象物の一部で反射された可視光線および赤外線による前記画像のうちの所定範囲を抽出画像としたとき、互いに異なる2つの前記抽出画像であって、一方の前記抽出画像中に前記発光部により赤外線を照射されている前記被照射領域の像が含まれているとともに、他方の前記抽出画像中における一方の前記抽出画像中の前記被照射領域に対応する対応領域が前記発光部により赤外線を照射されていないものを、前記測定対象物の形状が連続するようにつなぎ合わせて結合画像を作成する画像結合部と、
を備え、
前記画像結合部は、前記結合画像を作成するときに他方の前記抽出画像中の前記対応領域の像を用いることを特徴とする撮像装置。
An image sensor that detects visible light and infrared light, and acquires an image from the detected visible light and infrared light,
A light-emitting unit that irradiates the irradiated region of the measurement object with infrared rays and distinguishes the intensity of infrared rays reflected by the irradiated region with respect to a portion adjacent to the irradiated region in the measurement object; And a receiving unit that detects at least one of infrared rays, visible rays, and sound waves from the irradiated region, and measures at least one of a distance, a temperature, and a vibration state from the light emitting unit in the irradiated region. A measuring unit to perform,
A small-diameter and long insertion portion in which the imaging element, the light-emitting unit, and the receiving unit are arranged;
When the predetermined range of the image by visible light and infrared rays reflected by a part of the measurement object including the irradiated region is an extracted image, the two extracted images are different from each other. The extracted image includes an image of the irradiated region irradiated with infrared rays by the light emitting unit, and a corresponding region corresponding to the irradiated region in one of the extracted images in the other extracted image An image combining unit that connects the objects that are not irradiated with infrared rays by the light emitting unit so that the shape of the measurement object is continuous, and creates a combined image;
With
The image combining unit uses the image of the corresponding area in the other extracted image when the combined image is created.
前記結合画像における前記被照射領域の位置情報を、前記測定部による測定値に対応付けて記憶する記憶部を備えることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a storage unit that stores position information of the irradiated region in the combined image in association with a measurement value obtained by the measurement unit. 前記撮像素子が有する検出面に前記可視光線または前記赤外線を結像させる少なくとも一つのレンズを備え、
前記所定範囲は、少なくとも一つの前記レンズによる歪曲収差の小さい前記画像の中央部分であることを特徴とする請求項1または2に記載の撮像装置。
Comprising at least one lens for imaging the visible light or the infrared light on a detection surface of the image sensor;
The imaging apparatus according to claim 1, wherein the predetermined range is a central portion of the image with a small distortion due to at least one of the lenses.
JP2010225791A 2010-10-05 2010-10-05 Imaging device Expired - Fee Related JP5608503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010225791A JP5608503B2 (en) 2010-10-05 2010-10-05 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010225791A JP5608503B2 (en) 2010-10-05 2010-10-05 Imaging device

Publications (3)

Publication Number Publication Date
JP2012078710A true JP2012078710A (en) 2012-04-19
JP2012078710A5 JP2012078710A5 (en) 2013-11-07
JP5608503B2 JP5608503B2 (en) 2014-10-15

Family

ID=46239008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010225791A Expired - Fee Related JP5608503B2 (en) 2010-10-05 2010-10-05 Imaging device

Country Status (1)

Country Link
JP (1) JP5608503B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232340A (en) * 2010-04-23 2011-11-17 Helmut Fischer Gmbh Inst Fuer Elektronik & Messtechnik Measurement probe
KR101775830B1 (en) * 2016-05-18 2017-09-07 한국광기술원 Apparatus and method for correcting image distortion using distance measurement
JP2017176811A (en) * 2016-03-28 2017-10-05 ソニー株式会社 Imaging device, imaging method, and medical observation instrument
JP2018508246A (en) * 2015-01-22 2018-03-29 マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング Support device and method for providing imaging assistance to a surgeon during a surgical procedure involving at least one medical device
JP7192057B1 (en) 2021-07-20 2022-12-19 足立建設工業株式会社 Diagnosis equipment for wall surface investigation in suspended water such as sewage pipes

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60262001A (en) * 1984-06-09 1985-12-25 Olympus Optical Co Ltd Endoscope used in measurement
JPH08285541A (en) * 1995-04-17 1996-11-01 Shadan Kento Kai Method and device for distance measurement and method and device for medical support
JP2003050210A (en) * 2001-08-07 2003-02-21 Nippon Steel Corp Device and method for diagnosing inner surface of pipe

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60262001A (en) * 1984-06-09 1985-12-25 Olympus Optical Co Ltd Endoscope used in measurement
JPH08285541A (en) * 1995-04-17 1996-11-01 Shadan Kento Kai Method and device for distance measurement and method and device for medical support
JP2003050210A (en) * 2001-08-07 2003-02-21 Nippon Steel Corp Device and method for diagnosing inner surface of pipe

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232340A (en) * 2010-04-23 2011-11-17 Helmut Fischer Gmbh Inst Fuer Elektronik & Messtechnik Measurement probe
JP2018508246A (en) * 2015-01-22 2018-03-29 マッケ・ゲゼルシャフトミットベシュレンクターハフトゥング Support device and method for providing imaging assistance to a surgeon during a surgical procedure involving at least one medical device
JP2017176811A (en) * 2016-03-28 2017-10-05 ソニー株式会社 Imaging device, imaging method, and medical observation instrument
KR101775830B1 (en) * 2016-05-18 2017-09-07 한국광기술원 Apparatus and method for correcting image distortion using distance measurement
JP7192057B1 (en) 2021-07-20 2022-12-19 足立建設工業株式会社 Diagnosis equipment for wall surface investigation in suspended water such as sewage pipes
JP2023015918A (en) * 2021-07-20 2023-02-01 足立建設工業株式会社 Wall face inspection and diagnosis device in suspension water of sewage pipe

Also Published As

Publication number Publication date
JP5608503B2 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
US11517200B2 (en) Processing images from annular receptor arrays
US11529197B2 (en) Device and method for tracking the position of an endoscope within a patient's body
US9326660B2 (en) Endoscope system with insertion support apparatus
EP3076892B1 (en) A medical optical tracking system
US20190204069A1 (en) Endoscope system
JP5687811B1 (en) Endoscope system
JP5608503B2 (en) Imaging device
US20100272318A1 (en) Endoscopic measurement techniques
JP5974188B2 (en) Endoscope system
CN105188503B (en) Particularly for the endoscope of Minimally Invasive Surgery
CN107072498B (en) Image processing apparatus, capsule-type endoscope system and endoscopic system
US20170041537A1 (en) Endoscope system and endoscope video processor
US20170039707A1 (en) Image processing apparatus
WO2015122355A1 (en) Endoscope system
JP5601179B2 (en) Gaze detection apparatus and gaze detection method
US9345394B2 (en) Medical apparatus
US20160007831A1 (en) Insertion apparatus
JP5513343B2 (en) Imaging device
CN111511282A (en) Endoscope non-contact measuring device
JP5576758B2 (en) Guide tube device and endoscope system
JP5424388B2 (en) Imaging device
KR102415953B1 (en) Medical endoscope
EP4144284A1 (en) Endoscope system
JP2011050498A (en) Endoscope

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140901

R151 Written notification of patent or utility model registration

Ref document number: 5608503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371