JP4624802B2 - Endoscope apparatus and program thereof - Google Patents

Endoscope apparatus and program thereof Download PDF

Info

Publication number
JP4624802B2
JP4624802B2 JP2005000186A JP2005000186A JP4624802B2 JP 4624802 B2 JP4624802 B2 JP 4624802B2 JP 2005000186 A JP2005000186 A JP 2005000186A JP 2005000186 A JP2005000186 A JP 2005000186A JP 4624802 B2 JP4624802 B2 JP 4624802B2
Authority
JP
Japan
Prior art keywords
image
reference image
moving object
tip
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005000186A
Other languages
Japanese (ja)
Other versions
JP2006187386A (en
JP2006187386A5 (en
Inventor
史生 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005000186A priority Critical patent/JP4624802B2/en
Publication of JP2006187386A publication Critical patent/JP2006187386A/en
Publication of JP2006187386A5 publication Critical patent/JP2006187386A5/ja
Application granted granted Critical
Publication of JP4624802B2 publication Critical patent/JP4624802B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像素子を挿入部の先端部内に備えると共に、その先端部が湾曲し撮像方向を制御することが可能な内視鏡装置に関する。   The present invention relates to an endoscope apparatus in which an imaging element is provided in a distal end portion of an insertion portion, and the distal end portion is curved to control an imaging direction.

従来、撮像素子を挿入部の先端部内に備えた内視鏡装置がある。
例えば特許文献1には、複数の撮像素子を挿入部先端部内に備え、広視野で連続性のあるパノラマ画像を得ることのできる内視鏡装置が記載されている。
2. Description of the Related Art Conventionally, there is an endoscope apparatus that includes an imaging element in a distal end portion of an insertion portion.
For example, Patent Document 1 describes an endoscope apparatus that includes a plurality of imaging elements in a distal end portion of an insertion portion and can obtain a continuous panoramic image with a wide field of view.

また、撮像素子を挿入部の先端部内に備えると共に、その先端部が湾曲し撮像方向を制御することが可能な内視鏡装置がある。このような内視鏡装置の中には、背景差分方式により撮像中に撮像範囲に入った動体を検出できるようにしたものもある。尚、背景差分方式による動体検出は、予め撮像範囲の背景画像を登録しておき、その背景画像と撮像中に撮像範囲に入った動体の画像との差分を取り、その差分を動体として検出する方式である。例えば特許文献2には、この背景差分方式により動体を検出する画像処理装置が記載されている。また、特許文献3には、背景差分方式により、撮像した画像の中の移動体を自動検出し、さらにその移動体を自動追尾する移動体追尾装置が記載されている。
特開2000−325306号広報 特開2004−23373号広報 特開2001−285695号広報
In addition, there is an endoscope apparatus that includes an imaging element in a distal end portion of an insertion portion, and that the distal end portion is curved to control an imaging direction. Some of such endoscope apparatuses can detect a moving object that has entered an imaging range during imaging by a background difference method. In addition, the moving object detection by the background difference method registers a background image in the imaging range in advance, takes the difference between the background image and the moving object image that has entered the imaging range during imaging, and detects the difference as a moving object. It is a method. For example, Patent Document 2 describes an image processing apparatus that detects a moving object using this background difference method. Patent Document 3 describes a moving body tracking device that automatically detects a moving body in a captured image and automatically tracks the moving body using a background difference method.
JP 2000-325306 PR JP 2004-23373 PR JP 2001-285695 A

ところで、上述の、動体を検出可能な内視鏡装置では、挿入部先端部の湾曲位置が固定された状態で使用されることが前提になっているため、挿入部先端部を湾曲させたい場合、例えば動体の動きに合わせてその先端部を追尾させたい場合などには、適用が困難である。また、背景差分方式により動体検出を行う場合、挿入部先端部が湾曲すると背景画像を登録し直す必要があるが、その先端部が湾曲するたびに背景画像を登録するのは極めて効率が悪く、また動体検出中は動体が撮像範囲の中に入ってしまうため、背景のみを取り出すことは技術的に困難である。   By the way, in the above-described endoscope apparatus capable of detecting a moving body, it is assumed that the bending position of the distal end portion of the insertion portion is used in a fixed state. For example, when it is desired to track the tip of the moving body in accordance with the movement of the moving body, the application is difficult. In addition, when moving object detection is performed by the background difference method, it is necessary to re-register the background image when the distal end portion of the insertion portion is curved, but it is extremely inefficient to register the background image every time the distal end portion is curved, Further, since the moving object enters the imaging range during the moving object detection, it is technically difficult to extract only the background.

本発明は、上記実情に鑑み、挿入部先端部を湾曲させた場合でも、背景画像を再度撮像、登録することなく動体検出を行うことができる、装置及びプログラムを提供することを目的とする。
In view of the above circumstances, an object of the present invention is to provide an apparatus and a program capable of detecting a moving object without re-capturing and registering a background image even when the distal end portion of the insertion portion is curved.

上記目的を達成するため、本発明の第1の態様に係る内視鏡装置は、撮像画像を取得する撮像手段と、内視鏡挿入部の先端部を湾曲させる湾曲制御手段と、前記先端部が湾曲された状態の前記先端部の位置を取得する湾曲位置取得手段と、前記撮像手段により取得された複数の前記撮像画像を貼り合わせてパノラマ画像を作成するパノラマ画像作成手段と、前記湾曲位置取得手段により取得された前記先端部の位置に対応して前記パノラマ画像作成手段により作成された前記パノラマ画像内の複数の前記撮像画像の撮像中心点を線形補間した点を中心とする所定領域を参照画像として抽出する参照画像抽出手段と、前記参照画像抽出手段により抽出された参照画像と、この参照画像が抽出されたときの前記先端部の位置で前記撮像手段により取得された撮像画像との差分を動体として検出する動体検出手段とを備える。
In order to achieve the above object, an endoscope apparatus according to a first aspect of the present invention includes an imaging unit that acquires a captured image, a bending control unit that curves a distal end portion of an endoscope insertion portion , and the distal end portion. A curved position acquisition unit that acquires the position of the tip in a curved state, a panoramic image generation unit that combines the plurality of captured images acquired by the imaging unit to create a panoramic image, and the curved position A predetermined region centered on a point obtained by linearly interpolating imaging center points of the plurality of captured images in the panoramic image created by the panoramic image creation unit corresponding to the position of the tip acquired by the obtaining unit ; a reference image extracting unit for extracting as a reference image, the reference image extracted by the reference image extracting unit, by the imaging means at a position of the tip portion when the reference image is extracted The difference between the obtained captured image and a moving object detection means for detecting a moving object.

尚、本発明は、これらの装置に限らず、その他、動体を検出する方法及びプログラムとして構成することも可能である。   The present invention is not limited to these apparatuses, and can be configured as a method and program for detecting moving objects.

本発明によれば、例えば撮像範囲に入った動体の動きに合わせて挿入部先端部を追尾させるなど、挿入部先端部を湾曲させた場合でも、背景画像を再度撮像、登録することなく動体検出を行うことができる。   According to the present invention, even when the distal end of the insertion section is curved, for example, when the distal end of the insertion section is tracked in accordance with the movement of a moving body that has entered the imaging range, the moving body detection is performed without capturing and registering a background image again. It can be performed.

以下、本発明の実施の形態を図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施例1に係る内視鏡装置を含む内視鏡システムの構成図である。
同図において、本システムは、主要構成として、対象物を撮像するための撮像素子を先端部内に備えるスコープ(内視鏡挿入部)1を取り付けた内視鏡ユニット2と、内視鏡ユニット2からの信号を映像信号に変換するカメラコントロールユニット(以下「CCU」という)3と、複数のスイッチを備えスイッチ操作に応じた制御(例えばスコープ先端部の湾曲制御等)を可能にするリモコン4と、本システム全体の動作を制御する内視鏡装置5と、内視鏡装置5からの映像信号に従った映像(スコープ1により撮像された画像など)や後述の動作により検出された動体の情報などを出力(表示)する映像出力装置6などを有する。
FIG. 1 is a configuration diagram of an endoscope system including an endoscope apparatus according to Embodiment 1 of the present invention.
In this figure, this system has, as main components, an endoscope unit 2 to which a scope (endoscope insertion portion) 1 provided with an image sensor for imaging a target object in a distal end portion is attached, and an endoscope unit 2. A camera control unit (hereinafter referred to as “CCU”) 3 that converts a signal from the video signal into a video signal, and a remote controller 4 that includes a plurality of switches and enables control according to switch operation (for example, bending control of the scope tip). The endoscope apparatus 5 that controls the operation of the entire system, the video according to the video signal from the endoscope apparatus 5 (such as an image captured by the scope 1), and the information on the moving object detected by the operation described later And a video output device 6 that outputs (displays) and the like.

上記内視鏡装置5は、システム制御部7、映像信号処理回路8、及びRS−232Cインターフェース9などを備えている。
システム制御部7は、内部に、本装置5を含む本システム全体の動作を制御するための制御プログラムが記録されたROM10と、その制御プログラムを読み出し実行することにより本装置5を含む本システム全体の動作を制御するCPU11と、CPU11により実行される制御プログラムが一時的に格納されたりCPU11の作業領域が確保されたりするRAM12などを備えている。尚、スコープ先端部の湾曲制御は、リモコン4のスイッチ操作に応じて、或いは、CPU11により実行される制御プログラムによって、行われるようになっている。すなわち、手動或いは自動によりスコープ先端部の湾曲制御が可能になっている。
The endoscope apparatus 5 includes a system control unit 7, a video signal processing circuit 8, and an RS-232C interface 9.
The system control unit 7 includes a ROM 10 in which a control program for controlling the operation of the entire system including the apparatus 5 is recorded, and the entire system including the apparatus 5 by reading and executing the control program. CPU 11 for controlling the operation of the CPU 11, and a RAM 12 for temporarily storing a control program executed by the CPU 11 and securing a work area for the CPU 11. The bending control of the scope tip is performed according to the switch operation of the remote controller 4 or by a control program executed by the CPU 11. That is, the bending control of the scope tip can be performed manually or automatically.

映像信号処理回路8は、CCU3からの映像信号に所定の信号処理を行って映像出力装置7へ出力するインターフェース機能を有する。RS−232Cインターフェース9は、本装置5と外部機器(本実施例では内視鏡ユニット2,CCU3,リモコン4)との間で信号の送受を可能にするためのインターフェースである。ここで、リモコン4とRS−232Cインターフェース9は、例えばケーブルにより接続される。   The video signal processing circuit 8 has an interface function of performing predetermined signal processing on the video signal from the CCU 3 and outputting it to the video output device 7. The RS-232C interface 9 is an interface for enabling transmission / reception of signals between the apparatus 5 and an external device (in the present embodiment, the endoscope unit 2, the CCU 3, and the remote controller 4). Here, the remote controller 4 and the RS-232C interface 9 are connected by, for example, a cable.

この内視鏡装置5において、ROM10、CPU11、RAM12、映像信号処理回路8、及びRS―232Cインターフェース9は、それぞれバス13に接続されており、相互に信号(データ)の送受が可能になっている。   In this endoscope apparatus 5, the ROM 10, CPU 11, RAM 12, video signal processing circuit 8, and RS-232C interface 9 are each connected to the bus 13, so that signals (data) can be transmitted / received to / from each other. Yes.

次に、図2乃至12を用いて、本システムの内視鏡装置5によって行われる動体検出動作について説明する。
図2は、本実施例に係る動体検出動作に係る内視鏡装置5の機能ブロック図である。図3乃至5は、背景を複数枚撮像する処理を説明するための図である。図6は、平面射影変換の概要を説明するための図である。図7乃至10は、保存された複数の背景画像を貼り合わせて1枚の広視野のパノラマ画像を作成する処理を説明するための図である。図11乃至12は、パノラマ画像から参照画像を抽出して動体検出を行うまでの処理を説明するための図である。
Next, the moving body detection operation performed by the endoscope apparatus 5 of the present system will be described with reference to FIGS.
FIG. 2 is a functional block diagram of the endoscope apparatus 5 according to the moving object detection operation according to the present embodiment. 3 to 5 are diagrams for explaining a process of imaging a plurality of backgrounds. FIG. 6 is a diagram for explaining the outline of the planar projective transformation. FIGS. 7 to 10 are diagrams for explaining processing for creating a single wide-field panoramic image by pasting together a plurality of stored background images. FIGS. 11 to 12 are diagrams for explaining processing from extracting a reference image from a panoramic image to performing moving object detection.

はじめに図2に示したように、本動作では、まず、スコープ先端部の湾曲範囲をカバーするパノラマ画像の作成に必要な複数の背景画像BKを得るため、ブロックBL01は、スコープ1の撮像素子により背景を複数枚撮像する処理を行う。詳しくは、図3に示したように、まず、スコープ先端部をスコープ湾曲位置(スコープ先端部の湾曲位置)SP1に湾曲させ、背景16を撮像範囲R1の範囲で撮像して得た背景画像BK1を保存する。続いて、スコープ先端部をスコープ湾曲位置SP2に湾曲させ、背景16を撮像範囲R2の範囲で撮像して得た背景画像BK2を保存する。このとき、撮像範囲R1とR2との間に所定の範囲で重なり部(同図の着色された部分14)を持たせるようにしておく。続いて、スコープ先端部をスコープ範囲SP3に湾曲させ、背景16を撮像範囲R3の範囲で撮像して得た背景画像BK3を保存する。このときも、撮像範囲R2とR3との間に所定の範囲で重なり部(同図の着色された部分15)を持たせるようにしておく。以下同様に、図4に示したように、スコープ先端部を順次湾曲させ、隣り合う撮像範囲の間に所定の範囲で重なり部を持たせるようにしながら、スコープ先端部の湾曲範囲がカバーする背景16の全ての範囲について撮像を行う。   First, as shown in FIG. 2, in this operation, first, in order to obtain a plurality of background images BK necessary for creating a panoramic image that covers the curved range of the scope tip, the block BL01 is obtained by the imaging device of the scope 1. A process of imaging a plurality of backgrounds is performed. Specifically, as shown in FIG. 3, first, the scope distal end is curved to the scope curved position (curved position of the scope distal end) SP1, and the background image BK1 obtained by imaging the background 16 within the imaging range R1. Save. Subsequently, the scope distal end is bent to the scope bending position SP2, and the background image BK2 obtained by imaging the background 16 in the imaging range R2 is stored. At this time, an overlapping portion (colored portion 14 in the figure) is provided in a predetermined range between the imaging ranges R1 and R2. Subsequently, the scope distal end is curved to the scope range SP3, and the background image BK3 obtained by imaging the background 16 in the imaging range R3 is stored. Also at this time, an overlapping portion (colored portion 15 in the figure) is provided in a predetermined range between the imaging ranges R2 and R3. Similarly, as shown in FIG. 4, the scope tip end portion is sequentially curved so that an overlapping portion is provided in a predetermined range between adjacent imaging ranges, and the background covered by the scope tip end curvature range is covered. Imaging is performed for all 16 ranges.

図5は、このようなブロックBL01が行う処理、すなわち、背景を複数枚撮像する処理に係るフローチャートを示す図である。同図に示したように、本処理では、まず、n=1とし(ステップ(以下単に「S」という)1)、続いて、スコープ湾曲位置SPnにスコープ先端部を湾曲させ(S2)、背景16を撮像範囲Rnの範囲で撮像し(S3)、得られた背景画像BKnを保存する(S4)。但し、S3において、n≧2である場合には、隣り合う撮像範囲の間に所定の範囲で重なり部を持たせるように背景16を撮像範囲Rnの範囲で撮像する。続いて、必要な全てのスコープ湾曲位置で背景画像を保存したか否かを判定し(S5)、その判定結果がYesの場合には本フローを終了し、Noの場合にはnをインクリメントしてS2へ戻り、次のスコープ湾曲位置SPnについて、上述の処理を繰り返す。   FIG. 5 is a diagram showing a flowchart relating to processing performed by such a block BL01, that is, processing for imaging a plurality of backgrounds. As shown in the figure, in this process, first, n = 1 is set (step (hereinafter simply referred to as “S”) 1), and then the scope distal end is bent to the scope bending position SPn (S2). 16 is imaged within the imaging range Rn (S3), and the obtained background image BKn is stored (S4). However, in S3, when n ≧ 2, the background 16 is imaged in the imaging range Rn so that the adjacent imaging ranges have an overlapping portion in a predetermined range. Subsequently, it is determined whether or not the background image has been saved at all necessary scope bending positions (S5). If the determination result is Yes, this flow is terminated, and if it is No, n is incremented. Then, the process returns to S2, and the above-described processing is repeated for the next scope bending position SPn.

このようにして、必要な全てのスコープ湾曲位置で得た背景画像を保存すると、図2に示したブロックBL02は、保存された複数の背景画像を貼り合わせ、ブロックBL03は、その貼り合わせた背景画像から1枚の広視野のパノラマ画像を作成する。   When the background images obtained at all necessary scope bending positions are stored in this way, the block BL02 shown in FIG. 2 combines the plurality of stored background images, and the block BL03 displays the combined background image. One wide-field panoramic image is created from the image.

ここで、複数の画像を貼り合わせて1枚の広視野のパノラマ画像を作成する手法の一例を説明する。一般に、画像の貼り合わせには画像間の幾何変換が用いられる。幾何変換には様々なものがあるが、ここでは平面射影変換を用いた場合を例に説明する。対象とする背景が遠景の場合や近景の場合であっても平面的な対象物しか写っていない場合には、それぞれの背景画像の間には平面射影変換が成り立つ。この平面射影変換の概要を、図6を用いて説明する。同図に示したように、平面P上の点Mを2つの異なる視点VP1、VP2から観察したとき、これらの画像面S1、S2上の点IP1、IP2の間の座標変換は線形であり、平面射影変換と呼ばれる。画像面S1上の点IP1(x1,y1,1)と、画像面S2上の点IP2(x2,y2,1)との間の平面射影変換式は、次の式(1)で定義される。   Here, an example of a technique for creating a single wide-field panoramic image by pasting a plurality of images will be described. In general, geometric transformation between images is used for combining images. There are various geometric transformations. Here, a case where planar projection transformation is used will be described as an example. Even if the target background is a distant view or a close view, when only a planar object is shown, planar projective transformation is established between the respective background images. An outline of the planar projective transformation will be described with reference to FIG. As shown in the figure, when the point M on the plane P is observed from two different viewpoints VP1, VP2, the coordinate transformation between the points IP1, IP2 on these image planes S1, S2 is linear, This is called planar projective transformation. A plane projective transformation formula between the point IP1 (x1, y1, 1) on the image plane S1 and the point IP2 (x2, y2, 1) on the image plane S2 is defined by the following formula (1). .

但し、kは0でない数である。
一旦、この変換行列が求まると、視点VP1から撮像された画像を、その画像座標を変換して、あたかも別の視点VP2から観察しているような画像を作成することができる。
However, k is a non-zero number.
Once this conversion matrix is obtained, the image taken from the viewpoint VP1 can be converted in image coordinates to create an image as if viewed from another viewpoint VP2.

画像の貼り合わせを行うには、この変換行列をどのように算出するのかが問題となるが、画像間の重なり部に関して、それぞれ対応付けることのできる特徴点(対応点)を所定数以上見つけることによって、この変換行列を算出することができる。   How to calculate this transformation matrix is a problem for image pasting, but by finding a predetermined number or more of feature points (corresponding points) that can be associated with each other with respect to overlapping portions between images. This conversion matrix can be calculated.

本実施例では、この変換行列を次のようにして算出する。まず、図7に示したように、保存した複数の背景画像の中から、スコープ先端部が湾曲していない状態で撮像した画像を基準画像として選択し、これを第1画像17とする。尚、画像の貼り合わせは、全てこの基準画像の視点から観察した観察画像として行われる。続いて、図8に示したように、保存された背景画像の中から、第1画像17と重なり部を持つ背景画像を選択し、これを第2画像18とする。そして、図9に示したように、第1画像17及び第2画像18の間でマッチングを取り、重なり部19において所定数以上の特徴点(同図の黒点)を抽出し、その特徴点の対応付けを行うことにより、式(1)の平面射影変換のパラメータm1〜m9が求まり変換行列を算出することができる。この変換行列を用いて、基準画像の視点から観察した観察画像として、第1画像17及び第2画像18を貼り合わせる。この貼り合わせが完了したら、その貼り合せた画像20を新たな第1画像とする。以下、残りの背景画像についても同様にして貼り合わせを行うことにより、基準画像の視点から観察した1枚の広視野のパノラマ画像を作成することができる。   In this embodiment, this conversion matrix is calculated as follows. First, as shown in FIG. 7, an image captured in a state where the scope tip is not curved is selected as a reference image from a plurality of stored background images, and this is used as a first image 17. Note that all the images are combined as an observation image observed from the viewpoint of the reference image. Subsequently, as illustrated in FIG. 8, a background image that overlaps with the first image 17 is selected from the stored background images, and this is set as the second image 18. Then, as shown in FIG. 9, matching is performed between the first image 17 and the second image 18, and a predetermined number or more of feature points (black dots in the figure) are extracted in the overlapping portion 19, and the feature points By performing the association, the parameters m1 to m9 of the planar projective transformation of Expression (1) are obtained, and the transformation matrix can be calculated. Using this transformation matrix, the first image 17 and the second image 18 are pasted as observation images observed from the viewpoint of the reference image. When the pasting is completed, the pasted image 20 is set as a new first image. Hereinafter, by pasting the remaining background images in the same manner, one wide-view panoramic image observed from the viewpoint of the reference image can be created.

図10は、このような図2に示したブロックBL02及びBL03が行う処理、すなわち、保存された複数の背景画像を貼り合わせて1枚の広視野のパノラマ画像を作成する処理に係るフローチャートを示す図である。同図に示したように、本処理では、まず、保存した複数の背景画像の中から、スコープ先端部が湾曲していない状態で撮像した画像を基準画像として選択し(S11)、その基準画像を第1画像とする(S12)。続いて、保存した背景画像の中から、第1画像と重なり部を持つ画像を選択し、それを第2画像とする(S13)。続いて、第1画像及び第2画像との間でマッチングを取り(S14)、その間での重なり部において所定数以上の特徴点を抽出し(S15)、第1画像及び第2画像それぞれの特徴点の位置から変換行列を算出する(S16)。すなわち、その重なり部における特徴点の対応付けを行うことにより、式(1)の平面射影変換のパラメータm1〜m9を求めて変換行列を算出する。続いて、その変換行列を用いて、基準画像の視点から観察した観察画像として、第1画像及び第2画像を貼り合わせる(S17)。この貼り合わせが完了したら、続いて、保存された全ての背景画像の貼り合わせが完了したか否かを判定し(S18)、その判定結果がYesの場合には、パノラマ画像の作成が完了し(S19)、本フローを終了する。一方、S18がNoの場合には、S17で貼り合わせた画像を新たな第1画像として、S13へ進み、残りの背景画像について、上述の処理を繰り返す。   FIG. 10 is a flowchart relating to processing performed by the blocks BL02 and BL03 shown in FIG. 2, that is, processing for creating a single wide-field panoramic image by pasting a plurality of stored background images. FIG. As shown in the figure, in this process, first, an image captured in a state where the scope tip is not curved is selected as a reference image from a plurality of stored background images (S11). Is the first image (S12). Subsequently, an image having an overlapping portion with the first image is selected from the stored background images, and is set as the second image (S13). Subsequently, matching is performed between the first image and the second image (S14), and a predetermined number or more of feature points are extracted in the overlapping portion between them (S15), and the features of the first image and the second image, respectively. A transformation matrix is calculated from the position of the point (S16). That is, by associating the feature points in the overlapping portion, the parameters m1 to m9 of the planar projective transformation of Expression (1) are obtained to calculate the transformation matrix. Subsequently, using the transformation matrix, the first image and the second image are pasted as an observation image observed from the viewpoint of the reference image (S17). When the pasting is completed, it is then determined whether or not the pasting of all the saved background images has been completed (S18). If the result of the determination is Yes, the creation of the panoramic image is completed. (S19), this flow ends. On the other hand, when S18 is No, the image pasted in S17 is set as a new first image, the process proceeds to S13, and the above-described processing is repeated for the remaining background images.

このようにして、パノラマ画像の作成が完了すると、動体検出が可能な状態となる。そして、この動体検出が開始されると、図2に示したブロックBL06は、現在のスコープ湾曲位置(仮にSPcとする)を取得し、ブロックBL04は、そのスコープ湾曲位置SPcを基に、パノラマ画像から参照画像を抽出する。   In this way, when the creation of the panoramic image is completed, the moving object can be detected. When the moving object detection is started, the block BL06 shown in FIG. 2 acquires the current scope curved position (assumed to be SPc), and the block BL04 is a panoramic image based on the scope curved position SPc. A reference image is extracted from.

ここで、このパノラマ画像から参照画像を抽出する手法の一例を、図11を用いて説明する。同図に示したように、複数の背景画像を貼り合わせたパノラマ画像PIにおいて、その各背景画像における撮像中心点をそれぞれC1乃至C9(同図の黒丸)とし、そのうちの2点C4、C5に対応するスコープ湾曲位置をSP4、SP5とする。この場合において、例えば、現在のスコープ湾曲位置SPcがSP4及びSP5のちょうど中間にあったときには、C4及びC5の中心点CM(同図の白丸)を中心とする所定領域21を参照画像として抽出する。すなわち、スコープ湾曲位置に対応してパノラマ画像内の撮像中心点を線形補間した点を中心とする所定領域を参照画像として抽出する。尚、このときに抽出される参照画像は、スコープ1の撮像範囲よりも少し大きめにしておくことが望ましい。   Here, an example of a technique for extracting a reference image from the panoramic image will be described with reference to FIG. As shown in the figure, in the panoramic image PI obtained by pasting a plurality of background images, the imaging center points in the respective background images are designated as C1 to C9 (black circles in the figure), and two points C4 and C5 are included. The corresponding scope bending positions are SP4 and SP5. In this case, for example, when the current scope bending position SPc is exactly in the middle of SP4 and SP5, a predetermined region 21 centering on the center point CM (white circle in the figure) of C4 and C5 is extracted as a reference image. That is, a predetermined area centered on a point obtained by linear interpolation of the imaging center point in the panoramic image corresponding to the scope bending position is extracted as a reference image. It is desirable that the reference image extracted at this time be slightly larger than the imaging range of the scope 1.

このようにして、スコープ湾曲位置SPcに基づいてパノラマ画像から参照画像を抽出すると、図2に示したブロックBL05は、その参照画像を平面射影変換により補正する。詳しくは、抽出した参照画像が、スコープ湾曲位置SPcの視点から観察した画像となるように平面射影変換を行う。これが終わると、ブロックBL07は、そのスコープ湾曲位置SPcで撮像して撮像画像を取得し、ブロックBL08は、ブロックBL05により補正(平面射影変換)された参照画像が、ブロックBL07により得られた撮像画像(但し、動体が写っていないと仮にしたときの撮像画像)と一致するように、マッチングにより参照画像のサイズ,位置,及び歪みを補正する。より詳しくは、このブロックBL08で行われるマッチングによる補正は、例えば、補正対象とする画像(本実施例ではブロックBL05で補正された参照画像)においてマッチングを行うための領域(格子状に並ぶ9つの領域など)を予め定めておき、それぞれの領域において比較対象とする画像(本実施例ではブロックBL07で得られた撮像画像)と比較し、その結果導出されたマッチング結果(領域の一致度、ズレ量など)を平均化し、それをマッチングデータとして用いて補正対象とする画像の補正(歪み、拡大/縮小など)を行うものである。すなわち、撮像画像に動体が含まれていないと仮にしたときの、補正対象とする画像と比較対照とする画像とが一致するように補正するものである。   When the reference image is extracted from the panoramic image based on the scope bending position SPc in this way, the block BL05 shown in FIG. 2 corrects the reference image by plane projective transformation. Specifically, planar projective transformation is performed so that the extracted reference image is an image observed from the viewpoint of the scope bending position SPc. When this is finished, the block BL07 captures an image at the scope curved position SPc to obtain a captured image, and the block BL08 captures the reference image corrected (planar projective transformation) by the block BL05 obtained by the block BL07. However, the size, position, and distortion of the reference image are corrected by matching so as to match the (captured image when the moving object is not captured). More specifically, the correction by matching performed in the block BL08 is, for example, nine regions (in a grid pattern) for matching in an image to be corrected (a reference image corrected in the block BL05 in this embodiment). Regions) are determined in advance and compared with images to be compared in each region (captured images obtained in the block BL07 in this embodiment), and the matching results derived as a result (region matching degree, deviation) The image is corrected (distortion, enlargement / reduction, etc.) using the averaged data as matching data. That is, correction is performed so that the image to be corrected matches the image to be compared when it is assumed that the moving image is not included in the captured image.

但し、このようなマッチングによる補正を行い動体検出を行っていることから、動体検出は、マッチングによる補正を適正に行う程度の背景が撮像画像に写っている場合、すなわち、基本的に撮像画像に対して写っている動体が相対的に小さい場合にのみ行うものとし、撮像画像全体を覆うような動体が写っていた場合には、背景自体がほとんど写っていないことになるのでマッチングによる補正を行わず動体検出を行わないようにする。或いは、この場合には、撮像画像全体を動体とみなすようにしても良い。   However, since correction by matching is performed and moving object detection is performed, moving object detection is performed when the background of the image to which correction by matching is appropriately performed is shown in the captured image, that is, basically in the captured image. This should be done only when the moving object is relatively small. If there is a moving object that covers the entire captured image, the background itself will hardly appear, so correction by matching is performed. Avoid moving object detection. Alternatively, in this case, the entire captured image may be regarded as a moving object.

このようにして、ブロックBL08でのマッチングによる補正が終わると、ブロックBL09は、ブロックBL08により補正された参照画像と、ブロックBL07により得られた撮像画像との差分を取り、ブロックBL10は、その差分を動体として検出する。   When correction by matching in block BL08 is completed in this way, block BL09 takes the difference between the reference image corrected by block BL08 and the captured image obtained by block BL07, and block BL10 Is detected as a moving object.

図12は、このような図2に示したブロックBL04乃至BL10が行う処理、すなわち、実際に動体を検出する処理に係るフローチャートを示す図である。同図に示したように、本処理では、まず、現在のスコープ湾曲位置SPcを読み込み(S31)、そのスコープ湾曲位置SPcを基にパノラマ画像から参照画像を抽出し(S32)、その参照画像を平面射影変換により補正する(S33)。続いて、そのスコープ湾曲位置SPcで撮像して撮像画像を取得し(S34)、S33で補正された参照画像をS34で取得された撮像画像とのマッチングにより補正し(S35)、S34で取得された撮像画像と、S35で補正された参照画像との差分を取り(S36)、その差分を動体として検出する(S37)。続いて、動体検出動作を終了するか否かを判定し(S38)、その判定結果がYesの場合には本フローを終了し、Noの場合にはS31へ戻って上述の処理を繰り返す。   FIG. 12 is a diagram showing a flowchart relating to processing performed by the blocks BL04 to BL10 shown in FIG. 2, that is, processing for actually detecting a moving object. As shown in the figure, in this process, first, the current scope curved position SPc is read (S31), a reference image is extracted from the panoramic image based on the scope curved position SPc (S32), and the reference image is extracted. Correction is performed by plane projective transformation (S33). Subsequently, a captured image is acquired by imaging at the scope bending position SPc (S34), the reference image corrected in S33 is corrected by matching with the captured image acquired in S34 (S35), and acquired in S34. The difference between the captured image and the reference image corrected in S35 is taken (S36), and the difference is detected as a moving object (S37). Subsequently, it is determined whether or not the moving object detection operation is to be ended (S38). If the determination result is Yes, the present flow is ended. If the determination result is No, the process returns to S31 and the above-described processing is repeated.

以上、本実施例によれば、背景を撮像して得た複数の背景画像から作成したパノラマ画像は、平面射影変換により視点の変更、拡大・緒小、及び回転が可能であることから、動体検出中のスコープ状態(湾曲位置、回転角度、ズーム状態など)が背景撮像時と異なる場合であっても、スコープ状態に応じて適当な参照画像を抽出することができる。従って、このように動体検出前に予めパノラマ画像を作成しておくことで、スコープ先端部を湾曲させた場合でも背景画像を再度撮像、登録することなく動体検出を行うことができ、スコープ状態に左右されない柔軟性のある動体検出が可能になる。   As described above, according to the present embodiment, a panoramic image created from a plurality of background images obtained by imaging a background can be changed in viewpoint, enlarged / small, and rotated by plane projective transformation. Even if the scope state (curved position, rotation angle, zoom state, etc.) being detected is different from that during background imaging, an appropriate reference image can be extracted according to the scope state. Therefore, by creating a panoramic image in advance before moving object detection in this way, even when the scope tip is curved, it is possible to detect a moving object without capturing and registering a background image again. A flexible moving object detection that is not affected is possible.

上述の実施例1は、動体検出の際に、参照画像が撮像画像の視点から観察した画像となるよう平面射影変換し、その変換後の参照画像を撮像画像とのマッチングにより補正し、その補正後の参照画像と撮像画像との差分を取って動体を検出するものであったが、本実施例は、その動体検出の際に、撮像画像が参照画像の視点から観察した画像となるよう平面射影変換し、その変換後の撮像画像を参照画像とのマッチングにより補正し、その補正後の撮像画像と参照画像との差分を取って動体を検出するようにしたものである。   In the above-described first embodiment, the planar projection conversion is performed so that the reference image becomes an image observed from the viewpoint of the captured image, and the converted reference image is corrected by matching with the captured image, and the correction is performed. The moving object is detected by taking the difference between the later reference image and the captured image. However, in this embodiment, the moving image is detected so that the captured image becomes an image observed from the viewpoint of the reference image. Projective conversion is performed, the captured image after the conversion is corrected by matching with a reference image, and a moving object is detected by taking a difference between the corrected captured image and the reference image.

図13は、本実施例に係る動体検出動作に係る内視鏡装置5の機能ブロック図である。同図において、ブロックBL01乃至BL04、ブロックBL06乃至BL07、及びブロックBL10は、図2に示したものと同じである。   FIG. 13 is a functional block diagram of the endoscope apparatus 5 according to the moving object detection operation according to the present embodiment. In the figure, blocks BL01 to BL04, blocks BL06 to BL07, and block BL10 are the same as those shown in FIG.

ブロックBL11は、ブロックBL07で取得された撮像画像を平面射影変換により補正する。すなわち、その撮像画像が、ブロックBL04で抽出された参照画像の視点から観察した画像となるように、その参照画像の視点に対応するスコープ湾曲位置を基に撮像画像の平面射影変換を行う。ブロックBL12は、ブロックBL11で補正された撮像画像(但し、動体が写っていないと仮にしたときの撮像画像)が、その参照画像と一致するように、その撮像画像のサイズ,位置,及び歪みをマッチングにより補正する。ブロックBL13は、ブロックBL12により補正された撮像画像と、ブロックBL04で抽出された参照画像との差分を取り、ブロックBL10は、その差分を動体として検出する。   The block BL11 corrects the captured image acquired in the block BL07 by plane projective transformation. That is, planar projection conversion of the captured image is performed based on the scope curved position corresponding to the viewpoint of the reference image so that the captured image becomes an image observed from the viewpoint of the reference image extracted in the block BL04. In the block BL12, the size, position, and distortion of the captured image are corrected so that the captured image corrected in the block BL11 (provided that the moving object is not captured) matches the reference image. Correct by matching. The block BL13 takes a difference between the captured image corrected by the block BL12 and the reference image extracted by the block BL04, and the block BL10 detects the difference as a moving object.

図14は、このような図13に示したブロックBL04、BL06乃至BL07、BL11乃至BL13、及びブロックBL10が行う処理、すなわち、実際に動体を検出する処理に係るフローチャートを示す図である。同図において、S41乃至42では、図12のS31乃至32の処理と同様の処理が行われる。続いて、上記スコープ湾曲位置SPcで撮像して撮像画像を取得し(S43)、その撮像画像を平面射影変換により補正し(S44)、このS44で補正された撮像画像をS42で抽出された参照画像とのマッチングにより補正し(S45)、その補正された撮像画像と、S42で抽出された参照画像との差分を取る(S46)。以降のS47乃至48では、図12のS37乃至38と同様の処理が行われる。   FIG. 14 is a diagram showing a flowchart related to the processing performed by the blocks BL04, BL06 to BL07, BL11 to BL13, and the block BL10 shown in FIG. 13, that is, the processing for actually detecting a moving object. In the figure, in S41 to S42, the same processing as S31 to S32 in FIG. 12 is performed. Subsequently, a captured image is obtained by imaging at the scope bending position SPc (S43), the captured image is corrected by plane projective transformation (S44), and the captured image corrected in S44 is extracted in S42. Correction is performed by matching with the image (S45), and the difference between the corrected captured image and the reference image extracted in S42 is calculated (S46). In subsequent S47 to 48, the same processing as S37 to 38 in FIG. 12 is performed.

以上、本実施例によっても、実施例1と同様の効果を得ることができる。   As described above, this embodiment can provide the same effects as those of the first embodiment.

本実施例は、実施例1における動体検出を行った後に、更に、検出した動体の位置を取得し、その位置がスコープ1の撮像中心となるようにスコープ先端部を湾曲させることにより、動体の動きに合わせてスコープ先端部を湾曲追尾させるようにしたものである。   In the present embodiment, after the moving object detection in the first embodiment is performed, the position of the detected moving object is further acquired, and the distal end of the scope is bent so that the position becomes the imaging center of the scope 1. The scope tip is curved and tracked according to the movement.

図15は、本実施例に係る動体検出動作に係る内視鏡装置5の機能ブロック図である。同図に示したように、図2に示した構成に加え、更にブロックBL14及びBL15が追加されている。ブロックBL14は、ブロックBL03で作成されたパノラマ画像内における、ブロックBL10で検出された動体の位置を取得する。ブロックBL15は、スコープ1の撮像中心が、ブロックBL14で取得されたパノラマ画像内の動体の位置となるように、スコープ先端部を湾曲させる。これにより、スコープ先端部を動体に追尾させることができる。   FIG. 15 is a functional block diagram of the endoscope apparatus 5 according to the moving object detection operation according to the present embodiment. As shown in the figure, blocks BL14 and BL15 are further added to the configuration shown in FIG. The block BL14 acquires the position of the moving object detected in the block BL10 in the panoramic image created in the block BL03. The block BL15 curves the scope tip so that the imaging center of the scope 1 is the position of the moving object in the panoramic image acquired in the block BL14. Thereby, the scope tip can be tracked by the moving object.

図16、図17、及び図18は、スコープ先端部を動体に追尾させる手法の一例を説明する図である。まず、図16に示したように、ブロックBL07で得られた撮像画像22と、ブロックBL08で補正された参照画像との差分を取ることによって動体23を検出し、そのブロックBL08で補正された参照画像の元となる、ブロックBL04でパノラマ画像PIから抽出された参照画像24における、その動体23の位置MP1を取得する。そして、その動体位置MP1に対応する、パノラマ画像PIにおける動体位置MP2を取得する。尚、この動体位置MP2は、パノラマ画像PIの何れの領域を参照画像として抽出したかを記憶しておくことによって、算出することができる。続いて、図17に示したように、パノラマ画像PIにおける動体位置MP2の近傍にある、背景撮像時(背景画像取得時)の撮像中心点C2、C3、C5、C6に対応するスコープ湾曲位置をSP2、SP3、SP5、SP6とする。そして、図18に示したように、撮像中心点C2、C3、C5、C6に対する動体位置MP2の相対的な位置関係を線形補間によって求め、動体位置MP2に対応するスコープ湾曲位置SPMを、スコープ湾曲位置SP2、SP3、SP5、SP6を線形補間することによって算出し、そのスコープ湾曲位置SPMにスコープ先端部を湾曲させる。これにより、スコープ1の撮像中心を動体位置MP2へ移動させ、スコープ先端部を動体23に追尾させることが可能になる。   FIGS. 16, 17, and 18 are diagrams for explaining an example of a technique for tracking the distal end portion of the scope to the moving object. First, as shown in FIG. 16, the moving object 23 is detected by taking the difference between the captured image 22 obtained in the block BL07 and the reference image corrected in the block BL08, and the reference corrected in the block BL08. The position MP1 of the moving object 23 in the reference image 24 extracted from the panoramic image PI in the block BL04, which is the source of the image, is acquired. And the moving body position MP2 in the panoramic image PI corresponding to the moving body position MP1 is acquired. The moving object position MP2 can be calculated by storing which region of the panoramic image PI is extracted as a reference image. Subsequently, as shown in FIG. 17, the scope curve positions corresponding to the imaging center points C2, C3, C5, and C6 at the time of background imaging (when acquiring the background image) are in the vicinity of the moving object position MP2 in the panoramic image PI. Let SP2, SP3, SP5, and SP6. Then, as shown in FIG. 18, the relative positional relationship of the moving object position MP2 with respect to the imaging center points C2, C3, C5, and C6 is obtained by linear interpolation, and the scope bending position SPM corresponding to the moving object position MP2 is determined as the scope bending. The positions SP2, SP3, SP5, and SP6 are calculated by linear interpolation, and the scope tip is bent to the scope bending position SPM. Thereby, the imaging center of the scope 1 can be moved to the moving object position MP2, and the distal end of the scope can be tracked by the moving object 23.

図19は、このようなスコープ先端部を動体に追尾させる処理に係るフローチャートを示す図である。本処理では、まず、実施例1で説明したようにして動体を検出すると(S51)、その動体を検出する際に使用したブロックBL04でパノラマ画像から抽出された参照画像内における動体の位置を取得する(S52)。続いて、そのパノラマ画像内における動体の位置を取得し(S53)、そのパノラマ画像内における動体位置から、対応するスコープ湾曲位置を算出し(S54)、その算出したスコープ湾曲位置にスコープ先端部を湾曲させる。(S55)。続いて、動体検出動作が終了したか否かを判定し(S56)、その判定結果がYesの場合には本フローが終了し、Noの場合にはS51へ戻り、上述の処理を繰り返す。   FIG. 19 is a diagram illustrating a flowchart relating to a process of tracking such a distal end portion of the scope with a moving object. In this process, first, when a moving object is detected as described in the first embodiment (S51), the position of the moving object in the reference image extracted from the panoramic image is acquired in the block BL04 used for detecting the moving object. (S52). Subsequently, the position of the moving object in the panoramic image is acquired (S53), the corresponding scope bending position is calculated from the moving object position in the panoramic image (S54), and the scope tip is placed at the calculated scope bending position. Curve. (S55). Subsequently, it is determined whether or not the moving object detection operation has ended (S56). If the determination result is Yes, this flow ends. If the determination result is No, the flow returns to S51 to repeat the above-described processing.

以上、本実施例によれば、更に、動体の動きに合わせてスコープ先端部を動体に追尾させることが可能なる   As described above, according to the present embodiment, it is possible to further track the distal end portion of the scope to the moving body in accordance with the movement of the moving body.

本実施例は、実施例2における動体検出を行った後に、更に、検出した動体の位置を取得し、その位置がスコープ1の撮像中心となるようにスコープ先端部を湾曲させることにより、動体の動きに合わせてスコープ先端部を湾曲追尾させるようにしたものである。   In the present embodiment, after the moving object detection in the second embodiment is performed, the position of the detected moving object is further acquired, and the distal end of the scope is bent so that the position becomes the imaging center of the scope 1. The scope tip is curved and tracked according to the movement.

図20は、本実施例に係る動体検出動作に係る内視鏡装置5の機能ブロック図である。同図に示したように、図13に示した構成に加え、更にブロックBL14及びBL15が追加されている。ブロックBL14及び15は上述の実施例3で説明したとおりである。また、スコープ先端部を動体に追尾させる処理も上述の実施例3で説明したとおりである。   FIG. 20 is a functional block diagram of the endoscope apparatus 5 according to the moving object detection operation according to the present embodiment. As shown in the figure, blocks BL14 and BL15 are further added to the configuration shown in FIG. Blocks BL14 and 15 are as described in the third embodiment. Further, the process of tracking the distal end of the scope to the moving object is as described in the third embodiment.

以上、本実施例によっても、実施例3と同様の効果を得ることができる。
以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の要旨を逸脱しない範囲において、各種の改良及び変更を行っても良いのはもちろんである。
As described above, this embodiment can provide the same effects as those of the third embodiment.
Although the present invention has been described in detail above, the present invention is not limited to the above-described embodiment, and it is needless to say that various improvements and changes may be made without departing from the gist of the present invention.

実施例1に係る内視鏡装置を含む内視鏡システムの構成図である。1 is a configuration diagram of an endoscope system including an endoscope apparatus according to Embodiment 1. FIG. 実施例1に係る動体検出動作に係る内視鏡装置の機能ブロック図である。1 is a functional block diagram of an endoscope apparatus according to a moving object detection operation according to Embodiment 1. FIG. 背景を複数枚撮像する処理を説明するための第1の図である。It is a 1st figure for demonstrating the process which images two or more backgrounds. 背景を複数枚撮像する処理を説明するための第2の図である。It is a 2nd figure for demonstrating the process which images two or more backgrounds. 背景を複数枚撮像する処理に係るフローチャートを示す図である。It is a figure which shows the flowchart which concerns on the process which images two or more backgrounds. 平面射影変換の概要を説明するための図である。It is a figure for demonstrating the outline | summary of planar projection conversion. 複数の背景画像を貼り合わせて1枚の広視野のパノラマ画像を作成する処理を説明するための第1の図である。It is the 1st figure for explaining processing which pastes up a plurality of background images and creates one panoramic image of a wide field of view. 複数の背景画像を貼り合わせて1枚の広視野のパノラマ画像を作成する処理を説明するための第2の図である。It is the 2nd figure for explaining processing which pastes up a plurality of background images and creates one panoramic image of a wide field of view. 複数の背景画像を貼り合わせて1枚の広視野のパノラマ画像を作成する処理を説明するための第3の図である。FIG. 11 is a third diagram for explaining a process of creating a single wide-field panoramic image by pasting a plurality of background images. 複数の背景画像を貼り合わせて1枚の広視野のパノラマ画像を作成する処理に係るフローチャートを示す図である。It is a figure which shows the flowchart which concerns on the process which pastes together several background images and produces | generates one sheet of wide-field panoramic images. パノラマ画像から参照画像を抽出する手法を説明するための図である。It is a figure for demonstrating the method of extracting a reference image from a panoramic image. 実施例1に係る、実際に動体を検出する処理に係るフローチャートを示す図である。It is a figure which shows the flowchart which concerns on the process which actually detects a moving body based on Example 1. FIG. 実施例2に係る動体検出動作に係る内視鏡装置の機能ブロック図である。10 is a functional block diagram of an endoscope apparatus related to a moving object detection operation according to Embodiment 2. FIG. 実施例2に係る、実際に動体を検出する処理に係るフローチャートを示す図である。It is a figure which shows the flowchart which concerns on the process which actually detects a moving body based on Example 2. FIG. 実施例3に係る動体検出動作に係る内視鏡装置の機能ブロック図である。FIG. 10 is a functional block diagram of an endoscope apparatus according to a moving object detection operation according to a third embodiment. スコープ先端を動体に追尾させる手法の一例を説明するための第1の図である。It is a 1st figure for demonstrating an example of the method of tracking a scope tip to a moving body. スコープ先端を動体に追尾させる手法の一例を説明するための第2の図である。It is the 2nd figure for demonstrating an example of the method of tracking a scope tip to a moving body. スコープ先端を動体に追尾させる手法の一例を説明するための第3の図である。It is a 3rd figure for demonstrating an example of the method of tracking the scope front-end | tip to a moving body. スコープ先端を動体に追尾させる処理に係るフローチャートを示す図である。It is a figure which shows the flowchart which concerns on the process which tracks a scope tip to a moving body. 実施例4に係る動体検出動作に係る内視鏡装置の機能ブロック図である。FIG. 10 is a functional block diagram of an endoscope apparatus related to a moving object detection operation according to a fourth embodiment.

符号の説明Explanation of symbols

1 スコープ
2 内視鏡ユニット
3 カメラコントロールユニット
4 リモコン
5 内視鏡装置
6 映像出力装置
7 システム制御部
8 映像信号処理回路
9 RS−232Cインターフェース
10 ROM
11 CPU
12 RAM
13 バス
14、15 重なり部
16 背景
17 第1画像
18 第2画像
19 重なり部
20 貼り合わせた画像
21 所定領域
22 撮像画像
23 動体
24 参照画像

DESCRIPTION OF SYMBOLS 1 Scope 2 Endoscope unit 3 Camera control unit 4 Remote control 5 Endoscope apparatus 6 Video output device 7 System control part 8 Video signal processing circuit 9 RS-232C interface 10 ROM
11 CPU
12 RAM
13 Buses 14 and 15 Overlapping part 16 Background 17 First image 18 Second image 19 Overlapping part 20 Pasted image 21 Predetermined area 22 Captured image 23 Moving object 24 Reference image

Claims (6)

撮像画像を取得する撮像手段と、
内視鏡挿入部の先端部を湾曲させる湾曲制御手段と、
前記先端部が湾曲された状態の前記先端部の位置を取得する湾曲位置取得手段と、
前記撮像手段により取得された複数の前記撮像画像を貼り合わせてパノラマ画像を作成するパノラマ画像作成手段と、
前記湾曲位置取得手段により取得された前記先端部の位置に対応して前記パノラマ画像作成手段により作成された前記パノラマ画像内の複数の前記撮像画像の撮像中心点を線形補間した点を中心とする所定領域を参照画像として抽出する参照画像抽出手段と、
前記参照画像抽出手段により抽出された参照画像と、この参照画像が抽出されたときの前記先端部の位置で前記撮像手段により取得された撮像画像との差分を動体として検出する動体検出手段と
を備えることを特徴とする内視鏡装置。
An imaging means for acquiring a captured image;
Bending control means for bending the distal end portion of the endoscope insertion portion;
Curved position acquisition means for acquiring the position of the tip in a state where the tip is curved ;
Panorama image creation means for creating a panoramic image by pasting together a plurality of the captured images acquired by the imaging means;
Centered on a point obtained by linearly interpolating the imaging center points of the plurality of captured images in the panoramic image created by the panoramic image creation unit corresponding to the position of the tip acquired by the curved position acquisition unit. Reference image extraction means for extracting a predetermined area as a reference image;
Moving object detection means for detecting, as a moving object, a difference between the reference image extracted by the reference image extraction means and the captured image acquired by the imaging means at the position of the tip when the reference image is extracted. An endoscope apparatus comprising the endoscope apparatus.
前記パノラマ画像作成手段は、前記先端部の異なる複数の位置で前記撮像手段により取得された複数の前記撮像画像であって、前記撮像画像間で重なり部を有する複数の前記撮像画像を貼り合わせて、前記パノラマ画像を作成することを特徴とする請求項1記載の内視鏡装置。 The panoramic image creation unit is configured to paste a plurality of the captured images obtained by the imaging unit at a plurality of different positions on the tip , and having an overlapping portion between the captured images. The endoscope apparatus according to claim 1, wherein the panoramic image is created. 前記動体検出手段は、
前記参照画像抽出手段により抽出された参照画像が、この参照画像が抽出されたときの前記先端部の位置を視点として観察した画像となるように、この参照画像を平面射影変換する変換手段と、
この変換手段により平面射影変換された参照画像と、この参照画像が抽出されたときの前記先端部の位置で前記撮像手段により取得された撮像画像とが一致するように、前記平面射影変換された参照画像を補正する補正手段と、
を有し、
前記補正手段により補正された参照画像と、この参照画像が抽出されたときの前記先端部の位置で前記撮像手段により取得された撮像画像との差分を動体として検出することを特徴とする請求項1又は2記載の内視鏡装置。
The moving object detection means includes
Conversion means for planar projective transformation of the reference image so that the reference image extracted by the reference image extraction means becomes an image observed from the viewpoint of the position of the tip when the reference image is extracted;
The plane projective transformation is performed so that the reference image obtained by plane projection conversion by the conversion unit matches the captured image acquired by the imaging unit at the position of the tip when the reference image is extracted. Correction means for correcting the reference image;
Have
The difference between the reference image corrected by the correction unit and the captured image acquired by the imaging unit at the position of the tip when the reference image is extracted is detected as a moving object. The endoscope apparatus according to 1 or 2.
前記動体検出手段は、
前記参照画像抽出手段により前記参照画像が抽出されたときの前記先端部の位置で前記撮像手段により取得された撮像画像が、前記参照画像の視点と同一の視点から観察した画像になるように、この撮像画像を平面射影変換する変換手段と、
前記参照画像と、前記変換手段により平面射影変換された撮像画像とが一致するように、前記平面射影変換された撮像画像を補正する補正手段と、
を有し、
前記参照画像と、前記補正手段により補正された撮像画像との差分を動体として検出することを特徴とする請求項1又は2記載の内視鏡装置。
The moving object detection means includes
The captured image acquired by the imaging unit at the position of the tip when the reference image is extracted by the reference image extracting unit is an image observed from the same viewpoint as the viewpoint of the reference image. Conversion means for plane projective conversion of the captured image;
Correction means for correcting the captured image that has undergone planar projection conversion so that the reference image and the captured image that has undergone planar projection conversion by the converting means match;
Have
The endoscope apparatus according to claim 1, wherein a difference between the reference image and the captured image corrected by the correction unit is detected as a moving object.
前記動体検出手段により検出された動体の、前記パノラマ画像内における位置を算出する動体位置算出手段と、
前記動体位置算出手段により算出された位置に応じて、対応する前記先端部の位置を算出する湾曲位置算出手段と、
を更に備え、
前記湾曲制御手段が前記湾曲位置算出手段により算出された前記先端部の位置に前記先端部を湾曲させることにより、前記先端部を前記動体に追尾させる
ことを特徴とする請求項1乃至4の何れか一項記載の内視鏡装置。
Moving object position calculating means for calculating the position of the moving object detected by the moving object detecting means in the panoramic image;
Depending on the position calculated by the moving object position calculating means, and the corresponding curved position calculating means for calculating the position of the tip portion,
Further comprising
The bending control means causes the tip to track the moving body by bending the tip to the position of the tip calculated by the bending position calculation means. The endoscope apparatus according to claim 1.
撮像手段によって得られる撮像画像を取得する画像取得機能と、
内視鏡挿入部の先端部を湾曲させる湾曲制御機能と、
前記先端部が湾曲された状態の前記先端部の位置を取得する湾曲位置取得機能と、
前記画像取得機能により取得された複数の前記撮像画像を貼り合わせてパノラマ画像を作成するパノラマ画像作成機能と、
前記湾曲位置取得機能により取得された前記先端部の位置に対応して前記パノラマ画像作成機能により作成された前記パノラマ画像内の複数の前記撮像画像の撮像中心点を線形補間した点を中心とする所定領域を参照画像として抽出する参照画像抽出機能と、
前記参照画像抽出機能により抽出された参照画像と、この参照画像が抽出されたときの前記先端部の位置で撮像された撮像画像との差分を動体として検出する動体検出機能と
を実現させるためのプログラム。
An image acquisition function for acquiring a captured image obtained by the imaging means;
A bending control function for bending the distal end portion of the endoscope insertion portion;
A curved position acquisition function for acquiring the position of the tip in a state where the tip is curved ;
A panoramic image creation function for creating a panoramic image by pasting together a plurality of the captured images acquired by the image acquisition function;
Centered on a point obtained by linearly interpolating the imaging center points of the plurality of captured images in the panoramic image created by the panoramic image creation function corresponding to the position of the tip obtained by the curved position obtaining function. A reference image extraction function for extracting a predetermined area as a reference image;
A moving object detecting function for detecting, as a moving object, a difference between the reference image extracted by the reference image extracting function and a captured image captured at the position of the tip when the reference image is extracted. program.
JP2005000186A 2005-01-04 2005-01-04 Endoscope apparatus and program thereof Expired - Fee Related JP4624802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005000186A JP4624802B2 (en) 2005-01-04 2005-01-04 Endoscope apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005000186A JP4624802B2 (en) 2005-01-04 2005-01-04 Endoscope apparatus and program thereof

Publications (3)

Publication Number Publication Date
JP2006187386A JP2006187386A (en) 2006-07-20
JP2006187386A5 JP2006187386A5 (en) 2008-02-21
JP4624802B2 true JP4624802B2 (en) 2011-02-02

Family

ID=36795112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005000186A Expired - Fee Related JP4624802B2 (en) 2005-01-04 2005-01-04 Endoscope apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4624802B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4877154B2 (en) * 2007-08-24 2012-02-15 カシオ計算機株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
WO2009078454A1 (en) * 2007-12-18 2009-06-25 Sony Corporation Data processing apparatus, data processing method, and storage medium
JP6004978B2 (en) * 2013-03-26 2016-10-12 Kddi株式会社 Subject image extraction device and subject image extraction / synthesis device
JP6168849B2 (en) * 2013-05-29 2017-07-26 オリンパス株式会社 Endoscope apparatus and endoscopic image capturing method
JP6738100B2 (en) * 2016-02-23 2020-08-12 国立大学法人三重大学 Laser endoscopy device
WO2019087269A1 (en) * 2017-10-31 2019-05-09 オリンパス株式会社 Endoscope system
JP7049220B2 (en) 2018-08-30 2022-04-06 オリンパス株式会社 How to operate the image acquisition device and the image acquisition device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153459A (en) * 1991-11-28 1993-06-18 Matsushita Electric Ind Co Ltd Moving body tracing device
JPH067289A (en) * 1992-03-27 1994-01-18 Olympus Optical Co Ltd Endoscopic image processor
JPH08332169A (en) * 1995-06-08 1996-12-17 Olympus Optical Co Ltd Intracoelomscope
JPH11318819A (en) * 1998-05-14 1999-11-24 Olympus Optical Co Ltd Endoscopic surgery system
JP2000325306A (en) * 1991-03-11 2000-11-28 Olympus Optical Co Ltd Endoscope device
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2004023373A (en) * 2002-06-14 2004-01-22 Canon Inc Image processor and processing method, and computer program and computer-readable storage medium
JP2004186922A (en) * 2002-12-02 2004-07-02 Chuo Electronics Co Ltd Wide range photographing method using a plurality of cameras

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000325306A (en) * 1991-03-11 2000-11-28 Olympus Optical Co Ltd Endoscope device
JPH05153459A (en) * 1991-11-28 1993-06-18 Matsushita Electric Ind Co Ltd Moving body tracing device
JPH067289A (en) * 1992-03-27 1994-01-18 Olympus Optical Co Ltd Endoscopic image processor
JPH08332169A (en) * 1995-06-08 1996-12-17 Olympus Optical Co Ltd Intracoelomscope
JPH11318819A (en) * 1998-05-14 1999-11-24 Olympus Optical Co Ltd Endoscopic surgery system
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2004023373A (en) * 2002-06-14 2004-01-22 Canon Inc Image processor and processing method, and computer program and computer-readable storage medium
JP2004186922A (en) * 2002-12-02 2004-07-02 Chuo Electronics Co Ltd Wide range photographing method using a plurality of cameras

Also Published As

Publication number Publication date
JP2006187386A (en) 2006-07-20

Similar Documents

Publication Publication Date Title
JP5654867B2 (en) Video signal processing apparatus and video signal processing method
JP2007034985A (en) Information processing method and device
JP4964852B2 (en) Image processing apparatus, method, and program
JP4670658B2 (en) Image processing apparatus, image processing method, and program
JP2008118555A (en) Image processor, image pickup device, and image processing method
JP4624802B2 (en) Endoscope apparatus and program thereof
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
US7961241B2 (en) Image correcting apparatus, picked-up image correcting method, and computer readable recording medium
JP4843787B2 (en) Subject tracking method and apparatus
JP2010225102A (en) Striped pattern image determination device, striped pattern image determination method, and program
JP4346742B2 (en) Image composition method, image composition apparatus, and storage medium
JP2010110500A (en) Imaging device and imaging method
WO2007108081A1 (en) Photography instrument, photography method and program, table making device and method of photography instrument, video processor and processing method
JP6274744B2 (en) Image processing apparatus and image processing method
JPH11331696A (en) Image processing method, device and recording medium
JP2008310418A (en) Image processing apparatus, image processing program, and digital camera equipped therewith
JP2006187386A5 (en)
JP6375131B2 (en) Imaging apparatus, image processing method, and control program
JP4324271B2 (en) Image processing apparatus and method
JP2008235958A (en) Imaging apparatus
JP2006020937A (en) Method and device of positioning medical image
JP2002058046A (en) Imaging system and three-dimensional camera
JP4154023B2 (en) Image composition method, image composition apparatus, image composition system, and storage medium
JP7393179B2 (en) Photography equipment
JP2001292312A (en) Image reading apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101104

R151 Written notification of patent or utility model registration

Ref document number: 4624802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees