JP2010279539A - Diagnosis supporting apparatus, method, and program - Google Patents

Diagnosis supporting apparatus, method, and program Download PDF

Info

Publication number
JP2010279539A
JP2010279539A JP2009135104A JP2009135104A JP2010279539A JP 2010279539 A JP2010279539 A JP 2010279539A JP 2009135104 A JP2009135104 A JP 2009135104A JP 2009135104 A JP2009135104 A JP 2009135104A JP 2010279539 A JP2010279539 A JP 2010279539A
Authority
JP
Japan
Prior art keywords
image
endoscope
images
background image
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009135104A
Other languages
Japanese (ja)
Inventor
Naoto Kaneshiro
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009135104A priority Critical patent/JP2010279539A/en
Publication of JP2010279539A publication Critical patent/JP2010279539A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To recognize for which section of a subject the image has been photographed in the display of an endoscopic image. <P>SOLUTION: A background image B is formed by composing two or more images having an overlapped region with each other among images which have been photographed by an endoscope 10 up to the present point. Feature points which are present in both of the present image P(ts), which has been photographed by the endoscope 10 at the present point ts, and a reference image P(tb), which is one of the two or more images constituting the background image B, are detected in each of the present image P(ts) and the reference image P(tb). Based on the shift of the position Qs of the feature point in the present image from the position Qb of the feature point on the reference image, the position L(ts) of the endoscope at the present point on the background image B is acquired. A position displaying image 30 which expresses the acquired position L(ts) of the endoscope on the background image B is formed, and is displayed on the screen of a display 5 together with the image which has been photographed by the endoscope at the present point. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、医療分野での利用に適した発明で、内視鏡により撮影された画像による画像診断を支援する装置および方法並びにコンピュータプログラムに関するものである。   The present invention is an invention suitable for use in the medical field, and relates to an apparatus and method for supporting image diagnosis based on an image taken by an endoscope, and a computer program.

本体に光学系を内蔵し、体内に挿入することによって内部の映像を手元で見ることができる内視鏡が広く用いられている。このような内視鏡には、細長い形状を有するスコープ式の内視鏡やカプセル状の内視鏡(カプセル内視鏡)がある。また、観察以外に、ある程度の手術や標本採取ができるものもある。   2. Description of the Related Art Endoscopes are widely used that have an optical system built into the main body and can be viewed inside by inserting it into the body. Such endoscopes include a scope-type endoscope having a slender shape and a capsule-like endoscope (capsule endoscope). In addition to observation, there are some that can perform some degree of surgery and sample collection.

そして、たとえば、特許文献1においては、ユーザによる内視鏡画像の観察負担を軽減させるため、カプセル内視鏡で長時間に亘って撮影して得た多数の画像を画像診断に提供する際、個々の画像ではなく、その各画像を繋ぎ合せてなる1枚の展開画像として提供することが提案されている。   And, for example, in Patent Document 1, in order to reduce the burden of observing an endoscopic image by a user, when providing a large number of images obtained for a long time with a capsule endoscope for image diagnosis, It has been proposed to provide each image as a single developed image that is not an individual image but connected to each other.

また、特許文献2においては、内視鏡に内蔵されている複数個の光学系で撮影して得られた複数個の画像をモニターに並べて表示する際に、撮影範囲が重なる2以上の光学系で撮影した画像間の重なり領域が重複して表示されないようにすることにより、内視鏡画像の観察性能を向上させることが提案されている。   Further, in Patent Document 2, when a plurality of images obtained by photographing with a plurality of optical systems incorporated in an endoscope are displayed side by side on a monitor, two or more optical systems with overlapping photographing ranges are displayed. It has been proposed to improve the viewing performance of endoscopic images by preventing overlapping areas between images taken in step 1 from being displayed in an overlapping manner.

特開2007−236700号公報JP 2007-236700 A 特開2000−325307号公報JP 2000-325307 A

通常内視鏡は体腔内や細い管内の撮影に用いるので、撮影された画像だけでは被写体のどの部位を撮影しているのかがわかりにくいという問題がある。   Since an endoscope is usually used for imaging in a body cavity or a thin tube, there is a problem that it is difficult to determine which part of the subject is captured only by the captured image.

本発明は、改良された診断支援装置および方法ならびにプログラムを提供することにより、診断を行う医師が、内視鏡により撮影された画像が被写体のどの部分を撮影しているのかを認識できるようにすることを目的とする。   The present invention provides an improved diagnosis support apparatus, method, and program so that a doctor performing diagnosis can recognize which part of an object is captured by an image captured by an endoscope. The purpose is to do.

本発明の診断支援装置は、内視鏡により現時点までに撮影された画像のうち、画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成する背景画像生成手段と、内視鏡により現時点で撮影された現在画像と、背景画像を構成する画像である2以上の基準画像のうちの1つの両方に存在する特徴点を、現在画像およびその1つの基準画像のそれぞれにおいて検出する特徴点検出手段と、基準画像上における検出された特徴点の位置からの現在画像上における検出された特徴点の位置のズレに基づいて、背景画像上における現時点での内視鏡の位置を取得する内視鏡位置取得手段と、背景画像生成手段により生成した背景画像上に内視鏡位置取得手段により取得した内視鏡の位置を表した位置表示画像を生成する位置表示画像生成手段と、該位置表示画像生成手段により生成した位置表示画像を内視鏡により現時点で撮影された画像とともに画面に表示する画像表示手段とを備えたことを特徴とするものである。   The diagnosis support apparatus according to the present invention includes a background image generation unit that generates a background image by combining two or more images having regions overlapping each other among images captured up to the present time by an endoscope, A feature point existing in both of the current image captured at the present time by the mirror and one of two or more reference images constituting the background image is detected in each of the current image and the one reference image. Obtains the current position of the endoscope on the background image based on the feature point detection means and the displacement of the detected feature point position on the current image from the detected feature point position on the reference image A position display image for generating a position display image representing the position of the endoscope acquired by the endoscope position acquisition unit on the background image generated by the background image generation unit And forming means, characterized in that an image display means for displaying on the screen together with the image captured at the moment by the endoscope position indication image generated by the position display image generating means.

ここで、現時点とは、内視鏡により撮影した画像とともにその撮影時点での内視鏡の位置を取得・表示しようとする場合における、その撮影時点をいう。   Here, the term “current time” refers to the time when the image is taken when the position of the endoscope at the time of photographing is to be acquired and displayed together with the image taken by the endoscope.

また、現時点までに撮影された画像には、現時点で撮影された画像、すなわち現在画像も含まれる。   In addition, the images captured up to the present time include images captured at the current time, that is, current images.

また、内視鏡の位置は、内視鏡がスコープ式である場合には、例えば光学系等が設けられている先端部の位置をいい、カプセル内視鏡である場合には、例えばそのカプセル本体の位置をいう。   In addition, when the endoscope is a scope type, the position of the endoscope means, for example, the position of the distal end portion where an optical system or the like is provided. When the endoscope is a capsule endoscope, for example, the capsule Refers to the position of the body.

また、位置表示画像は、内視鏡の位置が背景画像中のどこであるかが分かるような画像であればよく、必ずしも背景画像上に内視鏡そのものの絵を書き込んだものである必要はない。   In addition, the position display image may be an image that shows where the position of the endoscope is in the background image, and does not necessarily have to be a picture of the endoscope itself written on the background image. .

また、「画像同士で重なり合う領域を有する2以上の画像」とは、いずれの画像も、他の画像のうち少なくとも1つと重なり合う領域を有する2以上の画像を意味する。   Further, “two or more images having an overlapping area between images” means two or more images each having an area overlapping with at least one of the other images.

また、「2以上の画像を合成して背景画像を生成する」は、現時点までに撮影した各画像で表わされる全領域について背景画像を生成するものであってもよいし、全領域中のある一部分の領域についてのみ背景画像を生成するものであってもよい。ただし、少なくとも現時点における内視鏡の位置に対応する背景部分を含むものである必要がある。   “Generate two or more images to generate a background image” may be to generate a background image for all areas represented by each image taken up to the present time, or to be in all areas. A background image may be generated only for a partial region. However, it is necessary to include at least a background portion corresponding to the current position of the endoscope.

また、画面に表示される、内視鏡により現時点で撮影された画像は、前記現在画像であってもよいし、あるいはそれとは違うカメラで撮影された画像であってもよい。   Further, the image that is displayed on the screen and is currently captured by the endoscope may be the current image or an image that is captured by a different camera.

上記装置において、位置取得手段は、特徴点の位置のズレに基づいて、前記1つの基準画像の撮影時点における内視鏡の位置からの現時点における内視鏡の位置のズレを取得することにより、内視鏡の位置を取得するものであってもよい。   In the above apparatus, the position acquisition means acquires a shift in the position of the endoscope at the current time from the position of the endoscope at the time of shooting the one reference image based on the shift in the position of the feature point. The position of the endoscope may be acquired.

位置表示画像生成手段は、背景画像上の前記取得した内視鏡の位置に内視鏡の絵を合成することにより、位置表示画像を生成するものであってもよい。   The position display image generation means may generate a position display image by combining an endoscope picture with the acquired endoscope position on a background image.

内視鏡の付属器具の操作状況を検知する検知手段を備え、位置表示画像生成手段は、検知された付属器具の操作状況に基づき、背景画像上に現時点における付属器具の様子をさらに表した位置表示画像を生成するものであってもよい。   The position display image generating means is provided with a detecting means for detecting the operation status of the accessory of the endoscope, and the position display image generating means is a position that further represents the current state of the accessory on the background image based on the detected operation status of the accessory. A display image may be generated.

位置表示画像生成手段により生成した位置表示画像を現在画像に対応付けて記録する記録手段を備え、画像表示手段は、記録手段に記録されている位置表示画像を内視鏡により現時点で撮影された画像とともに画面に表示する機能をさらに有するものであってもよい。   The image display means has a recording means for recording the position display image generated by the position display image generation means in association with the current image, and the image display means has taken the position display image recorded in the recording means at the present time by the endoscope You may further have a function to display on a screen with an image.

背景画像生成手段により生成した背景画像と内視鏡位置取得手段により取得した内視鏡の位置とを内視鏡により現時点で撮影された画像に対応付けて記録する記録手段を備え、位置表示画像生成手段は、記録手段に記録されている背景画像と内視鏡の位置とを用いて位置表示画像を生成する機能をさらに有するものであってもよい。   A position display image comprising recording means for recording the background image generated by the background image generation means and the position of the endoscope acquired by the endoscope position acquisition means in association with the image captured at the present time by the endoscope; The generation unit may further have a function of generating a position display image using the background image recorded in the recording unit and the position of the endoscope.

本発明の診断支援方法は、内視鏡により現時点までに撮影された画像のうち、画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成する工程、内視鏡により現時点で撮影された現在画像と、背景画像を構成する画像である2以上の基準画像のうち1つの両方に存在する特徴点を、現在画像およびその1つの基準画像のそれぞれにおいて検出する工程、基準画像上における検出された特徴点の位置からの現在画像上における検出された特徴点の位置のズレに基づいて、背景画像上における現時点での内視鏡の位置を取得する工程、背景画像上にその取得した内視鏡の位置を表した位置表示画像を生成する工程、および生成した位置表示画像を内視鏡により現時点で撮影された画像とともに画面に表示する工程からなることを特徴とするものである。   The diagnosis support method according to the present invention includes a step of generating a background image by combining two or more images having regions that overlap each other among images captured up to the present time by an endoscope, and an endoscope at the present time. A step of detecting a feature point existing in both of the captured current image and one of two or more reference images constituting the background image in each of the current image and the one reference image, on the reference image Acquiring the current position of the endoscope on the background image based on the deviation of the position of the detected feature point on the current image from the position of the detected feature point in A step of generating a position display image representing the position of the endoscope, and a step of displaying the generated position display image on the screen together with the image currently captured by the endoscope It is an feature.

上記方法において、内視鏡の位置を取得する工程は、特徴点の位置のズレに基づいて、前記1つの基準画像の撮影時点における内視鏡の位置からの現時点における内視鏡の位置のズレを取得することにより、現時点における内視鏡の位置を取得するものであってもよい。   In the above method, the step of acquiring the position of the endoscope is based on the shift in the position of the feature point, and the shift in the position of the endoscope at the current time from the position of the endoscope at the time of shooting the one reference image. The position of the endoscope at the present time may be acquired by acquiring.

また、本発明の診断支援プログラムは、コンピュータを、上記診断支援装置における、背景画像生成手段、特徴点検出手段、内視鏡位置取得手段、位置表示画像生成手段および画像表示手段として機能させるプログラムである。このプログラムは、CD−ROM,DVDなどの記録メディアに記録され、またはサーバコンピュータの内蔵ディスクやネットワークストレージにダウンロード可能な状態で記録されて、ユーザに提供される。   The diagnosis support program of the present invention is a program that causes a computer to function as background image generation means, feature point detection means, endoscope position acquisition means, position display image generation means, and image display means in the diagnosis support apparatus. is there. This program is recorded on a recording medium such as a CD-ROM or DVD, or is recorded in a downloadable state on a built-in disk or network storage of a server computer and provided to the user.

本発明の診断支援装置および方法並びにプログラムによれば、内視鏡により現時点までに撮影された画像のうち、画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成し、内視鏡により現時点で撮影された現在画像と、背景画像を構成する画像である2以上の基準画像のうち1つの両方に存在する特徴点を、現在画像およびその1つの基準画像のそれぞれにおいて検出し、基準画像上における検出された特徴点の位置からの現在画像上における検出された特徴点の位置のズレに基づいて、背景画像上における現時点での内視鏡の位置を取得し、背景画像上にその取得した内視鏡の位置を表した位置表示画像を生成し、その生成した位置表示画像を内視鏡により現時点で撮影された画像とともに画面に表示するようにしているので、診断を行う医師が、内視鏡により撮影された画像を用いて画像診断等を行なう際に位置表示画像を参照することにより、その内視鏡画像が被写体のどの部分を撮影しているのかを認識できる。   According to the diagnosis support apparatus, method, and program of the present invention, a background image is generated by synthesizing two or more images having a region where the images overlap among images captured up to the present time by an endoscope. A feature point that is present in both the current image captured at the present time by the endoscope and one of two or more reference images that constitute the background image is detected in each of the current image and the one reference image. The current position of the endoscope on the background image is acquired on the background image based on the deviation of the position of the detected feature point on the current image from the position of the detected feature point on the reference image. A position display image representing the acquired position of the endoscope is generated, and the generated position display image is displayed on the screen together with the image currently captured by the endoscope. Therefore, a doctor performing diagnosis refers to a position display image when performing image diagnosis or the like using an image captured by an endoscope, so that which part of the subject is captured by the endoscopic image. You can recognize if you are.

本発明の診断支援装置の一実施形態を示す概略構成図1 is a schematic configuration diagram showing an embodiment of a diagnosis support apparatus of the present invention. 内視鏡の先端部の構造を示す斜視図The perspective view which shows the structure of the front-end | tip part of an endoscope 側面画像を用いて背景画像を生成する処理を説明するための図The figure for demonstrating the process which produces | generates a background image using a side image 内視鏡の正面カメラと側面カメラの撮影範囲の関係を示す図The figure which shows the relationship between the photographing range of the front camera and the side camera of the endoscope 側面画像及び正面画像を用いて背景画像を生成する処理を説明するための図The figure for demonstrating the process which produces | generates a background image using a side image and a front image 基準画像から検出された特徴点の一例を示す図The figure which shows an example of the feature point detected from the reference | standard image 現在画像から検出された特徴点の一例を示す図The figure which shows an example of the feature point detected from the present image 内視鏡の移動ベクトルを示す図Diagram showing movement vector of endoscope 位置表示画像生成処理によって生成された位置表示画像の一例を示す図The figure which shows an example of the position display image produced | generated by the position display image production | generation process 診断支援装置によってディスプレイに表示される画面の一例を示す図The figure which shows an example of the screen displayed on a display by a diagnostic assistance apparatus 内視鏡の先端部に設けられたステレオカメラの配置例を示す図The figure which shows the example of arrangement | positioning of the stereo camera provided in the front-end | tip part of an endoscope 内視鏡の先端部に設けられたステレオカメラの配置例を示す図The figure which shows the example of arrangement | positioning of the stereo camera provided in the front-end | tip part of an endoscope 付属器具の操作状況を検知するセンサの一例を示す図The figure which shows an example of the sensor which detects the operation condition of an accessory 付属器具の様子をさらに表した位置表示画像の一例を示す図The figure which shows an example of the position display image which represented the state of the accessory further

以下、本発明の診断支援装置および方法並びに診断支援プログラムの実施形態について、図面を参照しながら詳細に説明する。   Embodiments of a diagnosis support apparatus and method and a diagnosis support program according to the present invention will be described below in detail with reference to the drawings.

図1は、内視鏡画像診断システムの概略構成を示すブロック図である。図に示すように、このシステムは、被検者の体腔内に挿入され、観察部位を撮像する内視鏡10と、内視鏡10によって取得された画像に基づいて、診断用の画像を提供する診断支援装置1とを備えている。   FIG. 1 is a block diagram showing a schematic configuration of an endoscopic image diagnostic system. As shown in the figure, this system is inserted into a body cavity of a subject and provides an image for diagnosis based on an endoscope 10 that images an observation site and an image acquired by the endoscope 10 And a diagnosis support apparatus 1 for performing the above.

内視鏡10は、被検者の体腔内に挿入される挿入部11と、操作者による所定の操作指示を受け付けるスイッチなどを有し、挿入部11に一体的に設けられた操作部12と、操作部12と診断支援装置1とを接続するためのケーブル13とを備えている。   The endoscope 10 includes an insertion unit 11 that is inserted into a body cavity of a subject, a switch that receives a predetermined operation instruction by an operator, and an operation unit 12 that is provided integrally with the insertion unit 11. A cable 13 for connecting the operation unit 12 and the diagnosis support apparatus 1 is provided.

挿入部11の先端部には、図2の斜視図に示すように、光源からの光りで撮影範囲を照らす照明窓11b、光軸が挿入部11の軸方向と一致または平行となるように設けられた高解像度の正面カメラCf、およびその方向と直行する上下左右の側面にそれぞれ設けられた側面カメラCu、Cd、Cr、Clのほか、鉗子口14と連結した鉗子出口11c、洗浄水やエアーを噴出・吸引するノズル11aなどが設けられている。   As shown in the perspective view of FIG. 2, an illumination window 11b that illuminates the photographing range with light from a light source is provided at the distal end of the insertion portion 11 so that the optical axis coincides with or is parallel to the axial direction of the insertion portion 11. In addition to the high-resolution front camera Cf and the side cameras Cu, Cd, Cr, Cl provided on the top, bottom, left, and right sides that run perpendicular to the direction, the forceps outlet 11c connected to the forceps port 14, washing water and air A nozzle 11a and the like for ejecting and sucking the air are provided.

操作部12には、送気・送水の操作指示を受け付ける第1の操作スイッチ12aと、吸引の操作指示を受け付ける第2の操作スイッチ12bと、撮像タイミングを受け付けるシャッターボタンである操作ボタン12cと、挿入部11の先端部の方向の指示を受け付ける回転コントローラ12dとを備えている。   The operation unit 12 includes a first operation switch 12a that receives an air / water supply operation instruction, a second operation switch 12b that receives a suction operation instruction, an operation button 12c that is a shutter button that receives an imaging timing, A rotation controller 12d for receiving an instruction of the direction of the distal end portion of the insertion portion 11.

診断支援装置1は、コンピュータに、診断支援プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションやパソコンでもよいし、もしくは、それらとネットワークを介して接続されたサーバコンピュータでもよい。診断支援プログラムは、DVD、CD−ROM等の記録メディアに格納されて配布され、その記録媒体からコンピュータにインストールされる。もしくは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。   The diagnosis support apparatus 1 has a diagnosis support program installed in a computer. The computer may be a workstation or a personal computer directly operated by a doctor who performs diagnosis, or may be a server computer connected to them via a network. The diagnosis support program is stored and distributed on a recording medium such as a DVD or CD-ROM, and is installed in the computer from the recording medium. Alternatively, it is stored in a storage device of a server computer connected to a network or a network storage in a state where it can be accessed from the outside, and downloaded and installed on a computer used by a doctor upon request.

診断支援装置1は、標準的なワークステーションの構成として、CPU2、メモリ3およびハードディスク4を備えている。また、診断支援装置1には、ディスプレイ5と、マウス6等の入力装置が接続されている。   The diagnosis support apparatus 1 includes a CPU 2, a memory 3, and a hard disk 4 as a standard workstation configuration. The diagnosis support apparatus 1 is connected to a display 5 and an input device such as a mouse 6.

ハードディスク4には、内視鏡10よって順次取得された画像データのほか、その画像データに対してCPU2が後述する各種処理を施すことにより得られたデータ(たとえば、位置表示画像データ、背景画像データ、内視鏡の位置データ)が記憶されている。   In addition to the image data sequentially acquired by the endoscope 10, the hard disk 4 includes data (for example, position display image data, background image data) obtained by the CPU 2 performing various processes to be described later on the image data. , Endoscope position data) is stored.

また、メモリ3には、診断支援プログラムが記憶されている。診断支援プログラムは、CPU2に実行させる処理として、背景画像生成処理、特徴点検出処理、内視鏡位置取得処理、位置表示画像生成処理、画像表示処理および画像記録処理を規定している。そして、CPU2がプログラムに従いこれらの処理を実行することで、汎用のワークステーションは、背景画像生成手段、特徴点検出手段、内視鏡位置取得手段、位置表示画像生成手段、画像表示手段および画像記録手段(記録手段)として機能することになる。   The memory 3 stores a diagnosis support program. The diagnosis support program defines a background image generation process, a feature point detection process, an endoscope position acquisition process, a position display image generation process, an image display process, and an image recording process as processes to be executed by the CPU 2. Then, when the CPU 2 executes these processes according to the program, the general-purpose workstation can perform background image generation means, feature point detection means, endoscope position acquisition means, position display image generation means, image display means, and image recording. It will function as a means (recording means).

次に、診断支援装置1が、診断用の画像を提供するために行う具体的な処理について説明する。はじめに、診断支援装置1は背景画像生成処理を実行する。背景画像生成処理において、診断支援装置1は、まず、内視鏡10において撮影を開始してから現時点まで、側面カメラCu、Cd、Cr、Clによって取得された画像を繋ぎ合わせ(合成して)、背景画像Bを生成する。具体的には、図3に示すように、撮影時点t0において各側面カメラCu、Cd、Cr、Clによりによって取得した画像Pu(t0)、Pd(t0)、Pr(t0)、Pl(t0)を繋ぎ合わせ、展開画像P(t0)を作成する。また、他の各撮影時点t1、t2、・・・、tkにおいても同様な処理により展開画像P(t1)、P(t2)、・・・、P(tk)を作成する。次に、それらの展開画像P(t0)〜P(tk)をさらに繋ぎ合わせ、背景画像Bを生成する。なお、この背景画像Bの生成処理では、各画像内の血管パターンおよび臓器の構造物パターンを抽出し、その抽出結果に基づいて、画像の繋ぎ合わせを行う。これにより生成された背景画像は、管腔臓器の内壁を一方向から捉えた画像となる。   Next, specific processing performed by the diagnosis support apparatus 1 in order to provide a diagnostic image will be described. First, the diagnosis support apparatus 1 executes background image generation processing. In the background image generation process, the diagnosis support apparatus 1 first joins (synthesizes) images acquired by the side cameras Cu, Cd, Cr, and Cl from the start of imaging with the endoscope 10 to the present time. A background image B is generated. Specifically, as shown in FIG. 3, images Pu (t0), Pd (t0), Pr (t0), and Pl (t0) acquired by the side cameras Cu, Cd, Cr, and Cl at the photographing time t0. To create a developed image P (t0). Further, the developed images P (t1), P (t2),..., P (tk) are created by the same processing at the other shooting times t1, t2,. Next, the developed images P (t0) to P (tk) are further connected to generate a background image B. In this background image B generation process, blood vessel patterns and organ structure patterns in each image are extracted, and the images are joined based on the extraction result. The background image thus generated is an image obtained by capturing the inner wall of the luminal organ from one direction.

なお、ここでは、側面カメラCu、Cd、Cr、Clによって取得された画像(以下、側面画像という)を用いて背景画像Bを生成する場合について説明したが、正面カメラCfによって取得された画像(以下、正面画像という。)を用いて生成するようにしてもよい。具体的には、管腔臓器は円筒構造であり、正面カメラCfの光軸はその管腔臓器の芯線に略一致していると仮定し、特定に時点における正面画像の各画素をその円筒構造上に割り付ける幾何学的な変換処理を行なうことにより、各時点で取得した正面画像から展開画像を作成した上で、それらの展開画像をさらに繋ぎ合わせ、背景画像Bを生成すればよい。   Here, the case where the background image B is generated using the images acquired by the side cameras Cu, Cd, Cr, and Cl (hereinafter referred to as the side images) has been described. However, the image acquired by the front camera Cf ( Hereinafter, it may be generated using a front image). Specifically, it is assumed that the luminal organ has a cylindrical structure, and the optical axis of the front camera Cf substantially coincides with the core line of the luminal organ. By performing a geometric conversion process assigned to the top, a developed image is created from the front images acquired at each time point, and the developed images are further connected to generate the background image B.

ただし、通常側面カメラはその光軸が管腔臓器の内壁に対して垂直に近く、その側面カメラによって取得された側面画像は正面画像に比べて幾何学的歪が小さくなる傾向があるので、背景画像の生成には、側面画像を正面画像に優先して用いることが好ましい。一方、図4に示すように、側面カメラのみでは、その管腔臓器の芯線方向の視野範囲がr1に限られるので、正面カメラによって取得される、挿入部11の前方、管腔臓器のさらに奥の部分(視野範囲r2)の画像をさらに用いるようにすれば、より広い範囲の背景画像を生成することができる。図5に、撮影時点t1〜tkにおける側面画像のみから生成した図3の背景画像に、撮影時点tkにおける正面画像の展開画像Pf(tk)をさらに繋ぎ合わせて生成した背景画像Bを示す。   However, the normal side camera usually has its optical axis close to the inner wall of the luminal organ, and the side image acquired by the side camera tends to have less geometric distortion than the front image. For image generation, it is preferable to use the side image in preference to the front image. On the other hand, as shown in FIG. 4, with the side camera alone, the visual field range of the luminal organ in the direction of the core line direction is limited to r1, so If the image of the portion (field of view range r2) is further used, a wider range of background images can be generated. FIG. 5 shows a background image B generated by further joining the developed image Pf (tk) of the front image at the shooting time tk to the background image of FIG. 3 generated only from the side images at the shooting time t1 to tk.

また、ここでは、内視鏡10において撮影を開始してから現時点までに(側面カメラおよび/または正面カメラによって)撮影された画像を全て合成して背景画像を生成する場合を例示して説明したが、たとえば、現時点で撮影された現在画像を含む、隣り合う画像同士で重なり合う領域を有する2以上の画像(たとえば、現在画像を含む過去Nコマ分の画像、ここでNは、2以上で設定変更可)を合成して背景画像を生成するようにしてもよいし、現時点以前に撮影された、隣り合う画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成するようにしてもよい。   In addition, here, the case where the background image is generated by synthesizing all the images captured by the endoscope 10 up to the present time (by the side camera and / or the front camera) has been described. Is, for example, two or more images including an area where adjacent images overlap each other including the current image taken at the present time (for example, images of the past N frames including the current image, where N is set to 2 or more Changeable) may be combined to generate a background image, or a background image may be generated by combining two or more images taken before the current time and having an overlapping area between adjacent images. May be.

なお、1つの背景画像を生成するにあたり、欠落エリアが発生しない様に画像同士で重なるエリアが存在すればよいので、背景画像作成に利用する撮影画像は撮影タイミングが連続する必要はなく、画像同士で重なり合う領域を有するように設定した時間間隔で撮影されたものであってもよい。   Note that when generating one background image, it is sufficient if there is an overlapping area between images so that missing areas do not occur. Therefore, the captured images used for creating the background image do not need to have consecutive shooting timings. The images may be taken at time intervals set so as to have overlapping regions.

なお、上記背景画像の生成処理は、所定の時間間隔で行われるようにしてもよいし、直前の背景画像生成処理時点からの内視鏡の移動ベクトルが所定量以上になる度に行われるようにしてもよいし、操作者がマウス6等の入力装置によりマニュアルで指定したタイミングで行われるようにしてもよい。   The background image generation process may be performed at a predetermined time interval, or whenever the endoscope movement vector from the previous background image generation process point exceeds a predetermined amount. Alternatively, it may be performed at a timing manually designated by an operator using an input device such as the mouse 6.

以下、背景画像として採用された各撮影画像を、基準画像と表現する。撮影時の画角が一定であるので、1つの基準画像における内視鏡の相対的位置関係は固定であるから、背景画像全体において、背景画像を構成する各基準画像に対応する内視鏡の位置(背景画像中の位置)を特定できる。   Hereinafter, each captured image adopted as the background image is expressed as a reference image. Since the angle of view at the time of shooting is constant, the relative positional relationship of the endoscope in one reference image is fixed. Therefore, in the entire background image, the endoscope corresponding to each reference image constituting the background image The position (position in the background image) can be specified.

次に、診断支援装置1が行う特徴点検出処理の具体例について、図6、7を参照して説明する。特徴点検出処理において、診断支援装置1は、まず、内視鏡10により現時点で撮影された現在画像Pl(ts)において血管パターンを抽出し、血管の分岐点Qsを特徴点として検出する。さらに、背景画像を構成する画像である2以上の基準画像のうちの1つの基準画像Pl(tb)において血管パターンを抽出し、抽出した血管パターンに基づいて特徴点Qsに対応する特徴点Qbを検出する。   Next, a specific example of the feature point detection process performed by the diagnosis support apparatus 1 will be described with reference to FIGS. In the feature point detection process, the diagnosis support apparatus 1 first extracts a blood vessel pattern from the current image Pl (ts) photographed at the present time by the endoscope 10 and detects a blood vessel branch point Qs as a feature point. Furthermore, a blood vessel pattern is extracted from one reference image Pl (tb) of two or more reference images that are images constituting the background image, and a feature point Qb corresponding to the feature point Qs is determined based on the extracted blood vessel pattern. To detect.

ここで、対応する特徴点Qbの検出は、現在画像Pl(ts)においてその特徴点Qsを含む所定サイズのブロック領域(図中では、点線の矩形の領域で表示)を決定し、その画素値の分布特性と最も一致する画素値の分布特性を有するブロック領域を基準画像Pl(tb)から検出することにより行えばよい。具体的には、所定サイズのブロックを基準画像Pl(tb)上に走査させ、そのブロック領域の各画素と現在画像Pl(ts)において決定したブロック領域の各画素の差分二乗和を算出し、その値が最小となるブロック領域を検出する(特開2009-104284参照)。   Here, the corresponding feature point Qb is detected by determining a block area (displayed as a dotted rectangular area in the figure) of a predetermined size including the feature point Qs in the current image Pl (ts), and its pixel value. The block region having the distribution characteristic of the pixel value that most closely matches the distribution characteristic may be detected from the reference image Pl (tb). Specifically, a block of a predetermined size is scanned on the reference image Pl (tb), and a difference square sum of each pixel of the block region and each pixel of the block region determined in the current image Pl (ts) is calculated. A block region having the minimum value is detected (see JP-A-2009-104284).

また、現在画像Pl(ts)においてその特徴点Qsを含むように決定したブロック領域内の血管パターンと一致する血管パターンを有するブロック領域を基準画像Pl(tb)から検出することにより対応する特徴点Qbを検出してもよい。ここで、血管パターンの照合(一致する血管パタンの検出)は、特開2008-097109に記載の血管パターンによる個人認証アルゴリズムや、特開平11-195119に記載の指紋パターンによる個人認証アルゴリズム等を適用して行なえばよい。なお、対応する特徴点Qbを検出する基準画像としては、隣接する複数の基準画像を用いてもよい。   In addition, the corresponding feature point is detected from the reference image Pl (tb) by detecting a block region having a blood vessel pattern that matches the blood vessel pattern in the block region determined to include the feature point Qs in the current image Pl (ts). Qb may be detected. Here, for blood vessel pattern matching (detection of matching blood vessel patterns), the personal authentication algorithm based on the blood vessel pattern described in Japanese Patent Application Laid-Open No. 2008-097109, the personal authentication algorithm based on the fingerprint pattern described in Japanese Patent Application Laid-Open No. You can do that. A plurality of adjacent reference images may be used as the reference image for detecting the corresponding feature point Qb.

ここで、血管パターンの抽出は、その対象となる画像に対し所定のマトリクス演算を施すことにより該画像中に含まれる血管パターンが強調された分光画像を生成し、生成された分光画像の色情報を2値化(白黒化)するフィルタリング処理施し、血脈が黒色領域として現れた2値化画像を血管パターンとすることにより行える。なお、分光画像は、特開2003−93336号公報に記載されているように、RGBのそれぞれのカラー感度特性を数値データ化したものと、特定の狭帯域バンドパスの分光特性を数値データ化したものとの関係をマトリクスデータ(係数セット)として求め、対象となる内視鏡画像のRGB信号にこのマトリクスデータによる演算を施すことにより形成する。   Here, the blood vessel pattern is extracted by performing a predetermined matrix operation on the target image to generate a spectral image in which the blood vessel pattern included in the image is emphasized, and the color information of the generated spectral image Is binarized (monochrome), and a binarized image in which a blood vessel appears as a black region is used as a blood vessel pattern. In addition, as described in JP-A-2003-93336, the spectral image is obtained by converting the RGB color sensitivity characteristics into numerical data and the spectral characteristics of a specific narrowband bandpass as numerical data. It is formed by obtaining a relationship with an object as matrix data (coefficient set) and performing an operation based on the matrix data on the RGB signal of the target endoscopic image.

なお、基準画像Pl(tb)は、現在画像Pl(ts)と重なり合う領域を有し、かつ、その撮影時点tbにおいて内視鏡10の位置が既知であるものであればよく、現在画像Pl(ts)と時間的に連続して撮影されてなる画像であることを要しない。   Note that the reference image Pl (tb) has only to have an area overlapping with the current image Pl (ts) and the position of the endoscope 10 is known at the photographing time tb, and the current image Pl ( It is not necessary that the images are taken continuously in time with ts).

次に、診断支援装置1が行う内視鏡の位置取得処理について、図7、8を参照して説明する。内視鏡の位置取得処理において、診断支援装置1は、まず、基準画像Pl(tb)上における特徴点の位置Qbからの現在画像Pl(ts)上における検出された特徴点の位置QsのズレQs−Qb(=−W)を取得する。そして、その特徴点の位置ズレから反対に、それらの画像上における内視鏡の位置のずれ、即ち移動ベクトルW(wx,wy)を求める。さらに、下記式(1)により、それらの画像上における内視鏡の移動ベクトルW(wx,wy)を、実空間における内視鏡の移動ベクトルV(vx,vy)に変換する。また、基準時点tbにおける内視鏡の位置L(tb)に、上記演算により求められた内視鏡の移動ベクトルV(vx,vy)を足して、背景画像上における現時点tsでの内視鏡の位置L(ts)を取得する。
V=A×W×(d/d0) (1)
ここで、dは現画像の被写体距離であり、d0は被写体距離の基準値であり、Aは被写体距離がd0のときの画素間距離と実空間上の距離の変換係数である。なお、被写体距離dについては、所定の固定値として上記変換処理を行なってもよいし、オートフォーカスの結果から導出してもよい。
Next, endoscope position acquisition processing performed by the diagnosis support apparatus 1 will be described with reference to FIGS. In the endoscope position acquisition process, the diagnosis support apparatus 1 first shifts the detected feature point position Qs on the current image Pl (ts) from the feature point position Qb on the reference image Pl (tb). Qs-Qb (= -W) is acquired. Then, on the contrary from the positional deviation of the feature points, a deviation of the position of the endoscope on those images, that is, a movement vector W (wx, wy) is obtained. Furthermore, the endoscope movement vector W (wx, wy) on the images is converted into the endoscope movement vector V (vx, vy) in real space by the following equation (1). The endoscope at the current time ts on the background image is added to the endoscope position L (tb) at the reference time tb by the endoscope movement vector V (vx, vy) obtained by the above calculation. Get the position L (ts).
V = A x W x (d / d0) (1)
Here, d is the subject distance of the current image, d0 is a reference value of the subject distance, and A is a conversion coefficient between the inter-pixel distance and the real space distance when the subject distance is d0. The subject distance d may be converted as a predetermined fixed value, or may be derived from the result of autofocus.

なお、撮影倍率βを変更可能である場合には、予め各撮影倍率βの値に対応する変換係数Aを記憶しておき、これに基づいて上記演算を行なうとよい。また、カメラにおける撮影レンズの歪み特性を予め記憶しておき、これに基づいてレンズの歪み特性による画像の幾何学的歪みを補正した上で、上記内視鏡の位置取得処理を行なうようにするとよい。   If the photographing magnification β can be changed, the conversion coefficient A corresponding to the value of each photographing magnification β is stored in advance, and the above calculation is performed based on this. In addition, when the distortion characteristics of the photographing lens in the camera are stored in advance and the geometric distortion of the image due to the distortion characteristics of the lens is corrected based on this, the position acquisition processing of the endoscope is performed. Good.

続いて、診断支援装置1は、背景生成処理によって生成した背景画像B上に、上記位置取得処理によって取得した現時点における内視鏡の位置L(ts)を表した位置表示画像30を生成する位置表示画像生成処理を行う。たとえば、図9に示すような、背景画像B上の上記位置取得処理において取得した内視鏡の位置L(ts)に内視鏡の絵Eを合成した位置表示画像30を生成する。これにより生成された位置表示画像30は、被検者の体腔内における内視鏡を外部から鳥瞰したようなCG画像であり、その視点位置を設定・変更することによって、あらゆる方向から被検者の体腔内における内視鏡を鳥瞰した位置表示画像を生成できる。   Subsequently, the diagnosis support apparatus 1 generates a position display image 30 representing the current position L (ts) of the endoscope acquired by the position acquisition process on the background image B generated by the background generation process. Display image generation processing is performed. For example, as shown in FIG. 9, a position display image 30 is generated by combining an endoscope picture E with the endoscope position L (ts) acquired in the position acquisition process on the background image B. The position display image 30 thus generated is a CG image as if the endoscope in the body cavity of the subject is viewed from the outside, and the subject can be viewed from all directions by setting / changing the viewpoint position. It is possible to generate a position display image in which the endoscope in the body cavity is viewed from above.

なお、位置表示画像30は、内視鏡の位置が背景画像中のどこであるかが分かるような画像であればよく、必ずしも背景画像B上に内視鏡そのものの絵Eを書き込んだものに限らず、たとえば、背景画像B上に内視鏡の撮影範囲に該当する領域を他の領域と異なる色等で表示したものや、背景画像B上の内視鏡の位置に所定の標識を付したもの等をも含む。   It should be noted that the position display image 30 may be an image that shows where the position of the endoscope is in the background image, and is not necessarily limited to an image in which the picture E of the endoscope itself is written on the background image B. For example, an area corresponding to the imaging range of the endoscope is displayed on the background image B in a color different from other areas, or a predetermined mark is attached to the position of the endoscope on the background image B. Including things.

また、図9に示す位置表示画像30では、内視鏡の絵Eのほか、内視鏡の絵Eの前方にその正面カメラによる撮影範囲Er(ts)が表示している。なお、位置表示画像30において正面カメラによる撮影範囲Er(ts)を表示する際には、操作者による回転コントローラ12dの回転量を検出し、その回転量に対応する挿入部11の先端部の曲げ角度をさらに取得し、それに基づいて撮影範囲Er(ts)を調整するとよりよい。さらに、その撮影範囲Er(ts)内の画像が、現時点tsで正面カメラによって実際に撮影して取得した正面画像と一致するように、その撮影範囲Er(ts)を調整するとよい。   Further, in the position display image 30 shown in FIG. 9, in addition to the picture E of the endoscope, the photographing range Er (ts) by the front camera is displayed in front of the picture E of the endoscope. When displaying the shooting range Er (ts) by the front camera in the position display image 30, the rotation amount of the rotation controller 12d by the operator is detected, and the bending of the distal end portion of the insertion portion 11 corresponding to the rotation amount is detected. It is better if the angle is further acquired and the photographing range Er (ts) is adjusted based on the angle. Furthermore, it is preferable to adjust the shooting range Er (ts) so that the image in the shooting range Er (ts) matches the front image actually acquired by the front camera at the current time ts.

続いて、診断支援装置1は、生成した位置表示画像30を現時点tsで正面カメラCfによって取得した現在正面画像とともにディスプレイ5の画面に表示する画像表示処理を行う。たとえば図10に示すように、正面画像7と、上からのCG鳥瞰画像8および右からのCG鳥瞰画像9をディスプレイ5の画面に表示する。   Subsequently, the diagnosis support apparatus 1 performs image display processing for displaying the generated position display image 30 on the screen of the display 5 together with the current front image acquired by the front camera Cf at the current time ts. For example, as shown in FIG. 10, a front image 7, a CG bird's-eye image 8 from above, and a CG bird's-eye image 9 from right are displayed on the screen of the display 5.

また、診断支援装置1は、位置表示画像30を現時点tsで正面カメラCfによって取得した現在正面画像に対応付けてハードディスク4に記録する画像記録処理を行う。これにより、録画による診断時などに、ハードディスク4に記録されている位置表示画像30と現在正面画像とをディスプレイ5の画面に再表示させることができる。   Further, the diagnosis support apparatus 1 performs image recording processing for recording the position display image 30 on the hard disk 4 in association with the current front image acquired by the front camera Cf at the current time ts. Thereby, the position display image 30 and the current front image recorded in the hard disk 4 can be displayed again on the screen of the display 5 at the time of diagnosis by recording.

なお、診断支援装置1は、上記画像記録処理において、位置表示画像30そのものを記録することに代えて、その位置表示画像30の作成に必要なパラメータをハードディスク4に記録しておき、位置表示画像を再表示する際に、そのパラメータを用いて位置表示画像を生成し、現在正面画像とともにディスプレイ5の画面に再表示させるようにしてもよい。ここで、位置表示画像の作成に必要なパラメータとしては、たとえば、時刻t毎の背景画像(全体版)と、内視鏡の位置(背景画像に対する相対位置)、先端部傾きデータ(オペレータ操作による曲げ角度)、付属器具の操作情報などがある。   The diagnosis support apparatus 1 records the parameters necessary for creating the position display image 30 in the hard disk 4 in place of recording the position display image 30 itself in the image recording process, so that the position display image 30 is recorded. When the image is re-displayed, a position display image may be generated using the parameters and displayed on the screen of the display 5 together with the current front image. Here, as parameters necessary for creating the position display image, for example, the background image (entire version) at each time t, the position of the endoscope (relative position with respect to the background image), tip inclination data (by operator operation) Bending angle), and operation information of accessories.

本実施形態の診断支援装置およびプログラムによれば、診断を行う医師は、内視鏡により撮影された画像を用いて画像診断等を行なう際に位置表示画像を参照することにより、その内視鏡画像が被写体のどの部分を撮影しているのかを認識できるので、効率よく診断を行うことができる。   According to the diagnosis support apparatus and program of the present embodiment, a doctor who makes a diagnosis refers to a position display image when performing image diagnosis or the like using an image photographed by an endoscope. Since it is possible to recognize which part of the subject is captured by the image, diagnosis can be performed efficiently.

なお、上記実施の形態では、内視鏡10に設けられている各カメラがそれぞれ異なる視野範囲を撮影するものであり、その各カメラによって取得した画像の映像を平面的に捉え、その平面上での特徴点の位置ズレを取得し、それに基づいて内視鏡の位置を取得する場合について説明したが、図11、図12に示すように、内視鏡10の先端部の側面に、光軸が平行で、視野範囲の重なりが大きくなるように並設された2個のカメラCd1、Cd2(Cd1’、Cd2’)が設けられている場合には、これらのカメラによって取得されたステレオ画像を画像解析することにより、管腔臓器の内壁の各組織部位までの距離やその組織表面の傾きを導出できるので、生体組織と内視鏡の位置関係をより精度よくシミュレーションできる。たとえば内視鏡のカメラ部と生態組織表面の傾きの変化を利用して、内視鏡10の先端部の傾き具合も位置表示画像に加味できる。また、管腔臓器の構造を3次元的に再構成することにより、より立体的な背景画像を生成することも可能である。   In the above-described embodiment, each camera provided in the endoscope 10 captures a different field of view range, and the image of the image acquired by each camera is captured in a plane, on the plane. As described above, the position of the endoscope is acquired based on the positional deviation of the feature point of the endoscope 10, and the optical axis is arranged on the side surface of the distal end portion of the endoscope 10 as shown in FIGS. Are parallel and two cameras Cd1 and Cd2 (Cd1 'and Cd2') are installed side by side so that the overlapping of the field of view is large, stereo images acquired by these cameras By analyzing the image, the distance to each tissue site on the inner wall of the hollow organ and the inclination of the tissue surface can be derived, so that the positional relationship between the living tissue and the endoscope can be simulated more accurately. For example, the inclination of the distal end portion of the endoscope 10 can be added to the position display image by using the change in the inclination of the camera portion of the endoscope and the surface of the biological tissue. It is also possible to generate a three-dimensional background image by reconstructing the structure of the luminal organ three-dimensionally.

なお、上記実施の形態において、内視鏡10の付属器具の操作状況を検知するセンサ(検知手段)をさらに備え、診断支援装置1における位置表示画像生成処理において、そのセンサによって検知された付属器具の操作状況に基づき、背景画像上に現時点における付属器具の様子をさらに表した位置表示画像を生成するようにしてもよい。たとえば図13に示すように、光学式または磁気式の目盛り(目印)が付されたプローブ15が、その目盛りを検知するためのセンサ14aが設けられている内視鏡の鉗子口14から鉗子チャンネルを挿通して体内に挿入されると、そのセンサ14aによって検知したプローブ15の挿入長から内視鏡の先端部から突出したプローブ15の長さaを取得し、それに基づいて内視鏡の先端からその取得した長さaで伸びたプローブ15の様子をCGで表現し、位置表示画像に表示する。また、先端部がハサミ状のプローブを挿入する場合には、そのハサミの開閉操作を行う操作部の制御量を検知するセンサを設置しておくことで、その操作部の制御量からハサミの開閉量を検知し、その開閉の様子をCGで表現し、位置表示画像に表示する。図14は、先端部がハサミ状のプローブの様子Mをさらに表した位置表示画像の一例を示す図である。   In the above embodiment, the sensor further includes a sensor (detection means) for detecting the operation status of the accessory of the endoscope 10, and the accessory detected by the sensor in the position display image generation process in the diagnosis support apparatus 1 On the basis of the operation status, a position display image that further represents the state of the accessory at the present time may be generated on the background image. For example, as shown in FIG. 13, a probe 15 having an optical or magnetic scale (mark) is provided with a sensor 14a for detecting the scale. Is inserted into the body, the length a of the probe 15 protruding from the distal end portion of the endoscope is obtained from the insertion length of the probe 15 detected by the sensor 14a, and based on that, the distal end of the endoscope is obtained. The state of the probe 15 extended with the acquired length a is expressed by CG and displayed on the position display image. When inserting a probe with a scissor tip, install a sensor that detects the control amount of the operation part that opens and closes the scissors, so that the scissors can be opened and closed from the control amount of the operation part. The amount is detected, and the opening / closing state is expressed by CG and displayed on the position display image. FIG. 14 is a diagram showing an example of a position display image that further represents a state M of the probe having a scissor tip.

その他、内視鏡挿入部に目盛り(光学式あるいは磁気式)を設置し、内視鏡挿入部で目盛りを読み取るセンサを設置してリアルタイムで挿入長を計測できるシステムが可能である。この場合、背景画像を作成する際に、所定の挿入長間隔毎に基準画像を選択してもよい。また、背景画像および各撮影画像と、挿入長データを関連付けて、表示画像データを作成することもできる。   In addition, a system that can measure the insertion length in real time by installing a scale (optical or magnetic) in the endoscope insertion section and installing a sensor that reads the scale in the endoscope insertion section is possible. In this case, when creating the background image, the reference image may be selected for each predetermined insertion length interval. Display image data can also be created by associating the background image and each captured image with the insertion length data.

また、上記実施の形態では、特徴点検出処理において、血管パターンの分岐点を特徴点Qsとして検出する場合を例示して説明したが、これに限らず、たとえば生体組織の表面パターン(濃度または色味の変化)や、表面凹凸による陰影パターン、又は内視鏡検査用薬剤(特開2008-273900)による染色結果の模様パターン等に基づいて特徴的な点(特徴点)を検出するようにしてもよい。なお、特徴点検出処理の際には、微分処理、2値化、濃度範囲の正規化等、各種の画像処理技術を適用することにより、その検出性能を向上させることができる。   Further, in the above-described embodiment, the case where the branch point of the blood vessel pattern is detected as the feature point Qs in the feature point detection processing has been described as an example. However, the present invention is not limited to this. Change of taste), shadow pattern due to surface irregularities, or pattern pattern of staining result with endoscopic examination medicine (JP 2008-273900) etc., so as to detect characteristic points (feature points) Also good. In the feature point detection process, the detection performance can be improved by applying various image processing techniques such as differentiation, binarization, and density range normalization.

また、上記実施の形態では、特徴点検出処理において、現在画像と、背景画像を構成する画像である2以上の基準画像のうちの1つの両方に存在する特徴点を、現在画像と基準画像のそれぞれにおいて検出する場合について説明したが、現在画像と背景画像の両方に存在する特徴点を、現在画像と背景画像のそれぞれにおいて検出するようにしてもよい。その場合、診断支援装置1が行う内視鏡の位置取得処理においては、背景画像上における特徴点の位置からの現在画像上における特徴点の位置のズレに基づいて、背景画像上における現時点tsでの内視鏡の位置L(ts)を取得することとなる。   In the above-described embodiment, in the feature point detection process, the feature points existing in both the current image and one of two or more reference images that are images constituting the background image are converted into the current image and the reference image. Although the case of detecting in each case has been described, feature points existing in both the current image and the background image may be detected in each of the current image and the background image. In that case, in the endoscope position acquisition process performed by the diagnosis support apparatus 1, the current position ts on the background image is based on the deviation of the position of the feature point on the current image from the position of the feature point on the background image. The position L (ts) of the endoscope is acquired.

1 診断支援装置
2 CPU
3 メモリ
4 ハードディスク
5 ディスプレイ
10 内視鏡
12 操作部
14 鉗子口
Cf 正面カメラ
Cu、Cd、Cr、Cl 側面カメラ
B 背景画像
E 内視鏡の絵
P(ts) 現在画像
P(td) 基準画像
Qs、Qd 特徴点
15 プローブ(付属器具)
1 Diagnosis support device 2 CPU
3 Memory 4 Hard disk 5 Display
10 Endoscope
12 Operation unit
14 Forceps opening
Cf front camera
Cu, Cd, Cr, Cl Side camera
B Background image
E Endoscope picture
P (ts) Current image
P (td) reference image
Qs, Qd feature points
15 Probe (accessory)

Claims (9)

内視鏡により現時点までに撮影された画像のうち、画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成する背景画像生成手段と、
前記内視鏡により前記現時点で撮影された現在画像と、前記背景画像を構成する画像である2以上の基準画像のうちの1つの両方に存在する特徴点を、前記現在画像および前記1つの基準画像のそれぞれにおいて検出する特徴点検出手段と、
前記基準画像上における前記検出された前記特徴点の位置からの前記現在画像上における前記検出された前記特徴点の位置のズレに基づいて、前記背景画像上における前記現時点での前記内視鏡の位置を取得する内視鏡位置取得手段と、
前記背景画像生成手段により生成した背景画像上に前記内視鏡位置取得手段により取得した内視鏡の位置を表した位置表示画像を生成する位置表示画像生成手段と、
該位置表示画像生成手段により生成した位置表示画像を前記内視鏡により前記現時点で撮影された画像とともに画面に表示する画像表示手段と
を備えたことを特徴とする診断支援装置。
A background image generation means for generating a background image by combining two or more images having regions overlapping with each other among images captured up to the present time by an endoscope;
A feature point present in both of the current image captured at the present time by the endoscope and one of two or more reference images that constitute the background image is represented by the current image and the one reference. Feature point detection means for detecting each of the images;
Based on the deviation of the position of the detected feature point on the current image from the position of the detected feature point on the reference image, the current position of the endoscope on the background image Endoscope position acquisition means for acquiring a position;
Position display image generation means for generating a position display image representing the position of the endoscope acquired by the endoscope position acquisition means on the background image generated by the background image generation means;
A diagnostic support apparatus, comprising: an image display unit configured to display the position display image generated by the position display image generation unit on a screen together with the image captured at the present time by the endoscope.
前記位置取得手段が、前記特徴点の位置のズレに基づいて、前記1つの基準画像の撮影時点における前記内視鏡の位置からの前記現時点における前記内視鏡の位置のズレを取得することにより、前記内視鏡の位置を取得するものであることを特徴とする請求項1記載の診断支援装置。   The position acquisition means acquires a shift in the position of the endoscope at the current time from the position of the endoscope at the time of shooting the one reference image based on the shift in the position of the feature point. The diagnosis support apparatus according to claim 1, wherein the position of the endoscope is acquired. 前記位置表示画像生成手段が、前記背景画像上の前記取得した内視鏡の位置に内視鏡の絵を合成することにより、前記位置表示画像を生成するものであることを特徴とする請求項1または2記載の診断支援装置。   The position display image generating unit generates the position display image by combining an endoscope picture with the acquired endoscope position on the background image. 3. The diagnosis support apparatus according to 1 or 2. 前記内視鏡の付属器具の操作状況を検知する検知手段を備え、
前記位置表示画像生成手段が、前記検知された付属器具の操作状況に基づき、前記背景画像上に前記現時点における前記付属器具の様子をさらに表した前記位置表示画像を生成するものであることを特徴とする請求項1から3のいずれか1項記載の診断支援装置。
Comprising detection means for detecting the operation status of the accessory of the endoscope,
The position display image generating means generates the position display image further representing the state of the accessory at the present time on the background image based on the detected operation state of the accessory. The diagnosis support apparatus according to any one of claims 1 to 3.
前記生成した位置表示画像を前記現在画像に対応付けて記録する記録手段を備え、
前記画像表示手段が、前記記録手段に記録されている位置表示画像を前記内視鏡により前記現時点で撮影された画像とともに前記画面に表示する機能をさらに有するものであることを特徴とする請求項1から4のいずれか1項記載の診断支援装置。
Recording means for recording the generated position display image in association with the current image;
The image display means further has a function of displaying a position display image recorded in the recording means on the screen together with an image photographed at the present time by the endoscope. The diagnosis support apparatus according to any one of 1 to 4.
前記生成した背景画像と前記取得した内視鏡の位置とを前記内視鏡により前記現時点で撮影された画像に対応付けて記録する記録手段を備え、
前記位置表示画像生成手段が、前記記録手段に記録されている背景画像と内視鏡の位置とを用いて前記位置表示画像を生成する機能をさらに有するものであることを特徴とする請求項1から4のいずれか1項記載の診断支援装置。
Recording means for recording the generated background image and the acquired position of the endoscope in association with the image captured at the present time by the endoscope;
2. The position display image generating means further has a function of generating the position display image using a background image recorded in the recording means and a position of an endoscope. 5. The diagnosis support device according to any one of items 1 to 4.
内視鏡により現時点までに撮影された画像のうち、画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成する工程、
前記内視鏡により前記現時点で撮影された現在画像と、前記背景画像を構成する画像である2以上の基準画像のうちの1つの両方に存在する特徴点を、前記現在画像および前記1つの基準画像のそれぞれにおいて検出する工程、
前記基準画像上における前記検出された前記特徴点の位置からの前記現在画像上における前記検出された前記特徴点の位置のズレに基づいて、前記背景画像上における前記現時点での前記内視鏡の位置を取得する工程、
前記生成した背景画像上に前記取得した内視鏡の位置を表した位置表示画像を生成する工程、
および前記生成した位置表示画像を前記内視鏡により前記現時点で撮影された画像とともに画面に表示する工程からなることを特徴とする診断支援方法。
A step of generating a background image by synthesizing two or more images having a region where the images overlap among images captured up to the present time by an endoscope;
A feature point existing in both of the current image captured at the present time by the endoscope and one of two or more reference images that constitute the background image is defined as the current image and the one reference. Detecting in each of the images,
Based on the deviation of the position of the detected feature point on the current image from the position of the detected feature point on the reference image, the current position of the endoscope on the background image Obtaining a position;
Generating a position display image representing the position of the acquired endoscope on the generated background image;
And a method for displaying the generated position display image on the screen together with the image photographed at the present time by the endoscope.
前記内視鏡の位置を取得する工程が、前記特徴点の位置のズレに基づいて、前記1つの基準画像の撮影時点における前記内視鏡の位置からの前記現時点における前記内視鏡の位置のズレを取得することにより、前記内視鏡の位置を取得するものであることを特徴とする請求項7記載の診断支援方法。   The step of acquiring the position of the endoscope is based on the deviation of the position of the feature point, and the position of the endoscope at the current time from the position of the endoscope at the time of photographing the one reference image. The diagnosis support method according to claim 7, wherein the position of the endoscope is acquired by acquiring a deviation. コンピュータを、
内視鏡により現時点までに撮影された画像のうち、画像同士で重なり合う領域を有する2以上の画像を合成して背景画像を生成する背景画像生成手段と、
前記内視鏡により前記現時点で撮影された現在画像と、前記背景画像を構成する画像である2以上の基準画像のうちの1つの両方に存在する特徴点を、前記現在画像および前記1つの基準画像のそれぞれにおいて検出する特徴点検出手段と、
前記基準画像上における前記検出された前記特徴点の位置からの前記現在画像上における前記検出された前記特徴点の位置のズレに基づいて、前記背景画像上における前記現時点での前記内視鏡の位置を取得する内視鏡位置取得手段と、
前記背景画像生成手段により生成した背景画像上に前記内視鏡位置取得手段により取得した内視鏡の位置を表した位置表示画像を生成する位置表示画像生成手段と、
該位置表示画像生成手段により生成した位置表示画像を前記内視鏡により前記現時点で撮影された画像とともに画面に表示する画像表示手段として機能させる診断支援プログラム。
Computer
A background image generation means for generating a background image by combining two or more images having regions overlapping with each other among images captured up to the present time by an endoscope;
A feature point present in both of the current image captured at the present time by the endoscope and one of two or more reference images that constitute the background image is represented by the current image and the one reference. Feature point detection means for detecting each of the images;
Based on the deviation of the position of the detected feature point on the current image from the position of the detected feature point on the reference image, the current position of the endoscope on the background image Endoscope position acquisition means for acquiring a position;
Position display image generation means for generating a position display image representing the position of the endoscope acquired by the endoscope position acquisition means on the background image generated by the background image generation means;
A diagnosis support program for causing a position display image generated by the position display image generation means to function as an image display means for displaying on a screen together with the image photographed at the present time by the endoscope.
JP2009135104A 2009-06-04 2009-06-04 Diagnosis supporting apparatus, method, and program Withdrawn JP2010279539A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009135104A JP2010279539A (en) 2009-06-04 2009-06-04 Diagnosis supporting apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009135104A JP2010279539A (en) 2009-06-04 2009-06-04 Diagnosis supporting apparatus, method, and program

Publications (1)

Publication Number Publication Date
JP2010279539A true JP2010279539A (en) 2010-12-16

Family

ID=43536884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009135104A Withdrawn JP2010279539A (en) 2009-06-04 2009-06-04 Diagnosis supporting apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP2010279539A (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103702604A (en) * 2011-07-26 2014-04-02 恩多卓斯创新中心有限公司 Multi-camera endoscope
WO2015151973A1 (en) * 2014-03-31 2015-10-08 オリンパス株式会社 Endoscope system
WO2016043063A1 (en) * 2014-09-18 2016-03-24 ソニー株式会社 Image processing device and image processing method
US9314147B2 (en) 2011-12-13 2016-04-19 Endochoice Innovation Center Ltd. Rotatable connector for an endoscope
CN105536126A (en) * 2016-01-29 2016-05-04 山东汉方制药有限公司 Intelligent cavitary mucosal drug delivery device
US9351629B2 (en) 2011-02-07 2016-05-31 Endochoice Innovation Center Ltd. Multi-element cover for a multi-camera endoscope
EP2908714A4 (en) * 2012-10-18 2016-06-29 Endochoice Innovation Ct Ltd Multi-camera endoscope
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US9554692B2 (en) 2009-06-18 2017-01-31 EndoChoice Innovation Ctr. Ltd. Multi-camera endoscope
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
US9655502B2 (en) 2011-12-13 2017-05-23 EndoChoice Innovation Center, Ltd. Removable tip endoscope
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US9713415B2 (en) 2011-03-07 2017-07-25 Endochoice Innovation Center Ltd. Multi camera endoscope having a side service channel
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US9814374B2 (en) 2010-12-09 2017-11-14 Endochoice Innovation Center Ltd. Flexible electronic circuit board for a multi-camera endoscope
US9854959B2 (en) 2011-03-07 2018-01-02 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
JP2018143653A (en) * 2017-03-08 2018-09-20 株式会社イチワ Flexible joint mechanism
US10080486B2 (en) 2010-09-20 2018-09-25 Endochoice Innovation Center Ltd. Multi-camera endoscope having fluid channels
US10165929B2 (en) 2009-06-18 2019-01-01 Endochoice, Inc. Compact multi-viewing element endoscope system
US10182707B2 (en) 2010-12-09 2019-01-22 Endochoice Innovation Center Ltd. Fluid channeling component of a multi-camera endoscope
US10203493B2 (en) 2010-10-28 2019-02-12 Endochoice Innovation Center Ltd. Optical systems for multi-sensor endoscopes
US10499794B2 (en) 2013-05-09 2019-12-10 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US11278190B2 (en) 2009-06-18 2022-03-22 Endochoice, Inc. Multi-viewing element endoscope
WO2022070782A1 (en) * 2020-10-02 2022-04-07 Hoya株式会社 Program, information processing method, and endoscope system
US11547275B2 (en) 2009-06-18 2023-01-10 Endochoice, Inc. Compact multi-viewing element endoscope system
WO2023024701A1 (en) * 2021-08-23 2023-03-02 山东威高宏瑞医学科技有限公司 Panoramic endoscope and image processing method thereof
US11864734B2 (en) 2009-06-18 2024-01-09 Endochoice, Inc. Multi-camera endoscope
US11889986B2 (en) 2010-12-09 2024-02-06 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10912445B2 (en) 2009-06-18 2021-02-09 Endochoice, Inc. Compact multi-viewing element endoscope system
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US10092167B2 (en) 2009-06-18 2018-10-09 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US11864734B2 (en) 2009-06-18 2024-01-09 Endochoice, Inc. Multi-camera endoscope
US11547275B2 (en) 2009-06-18 2023-01-10 Endochoice, Inc. Compact multi-viewing element endoscope system
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US11534056B2 (en) 2009-06-18 2022-12-27 Endochoice, Inc. Multi-camera endoscope
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US11471028B2 (en) 2009-06-18 2022-10-18 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US9554692B2 (en) 2009-06-18 2017-01-31 EndoChoice Innovation Ctr. Ltd. Multi-camera endoscope
US10638922B2 (en) 2009-06-18 2020-05-05 Endochoice, Inc. Multi-camera endoscope
US11278190B2 (en) 2009-06-18 2022-03-22 Endochoice, Inc. Multi-viewing element endoscope
US10905320B2 (en) 2009-06-18 2021-02-02 Endochoice, Inc. Multi-camera endoscope
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
US10799095B2 (en) 2009-06-18 2020-10-13 Endochoice, Inc. Multi-viewing element endoscope
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US9706905B2 (en) 2009-06-18 2017-07-18 Endochoice Innovation Center Ltd. Multi-camera endoscope
US10791909B2 (en) 2009-06-18 2020-10-06 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US10165929B2 (en) 2009-06-18 2019-01-01 Endochoice, Inc. Compact multi-viewing element endoscope system
US10791910B2 (en) 2009-06-18 2020-10-06 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US10080486B2 (en) 2010-09-20 2018-09-25 Endochoice Innovation Center Ltd. Multi-camera endoscope having fluid channels
US9986892B2 (en) 2010-09-20 2018-06-05 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US11543646B2 (en) 2010-10-28 2023-01-03 Endochoice, Inc. Optical systems for multi-sensor endoscopes
US10203493B2 (en) 2010-10-28 2019-02-12 Endochoice Innovation Center Ltd. Optical systems for multi-sensor endoscopes
US11889986B2 (en) 2010-12-09 2024-02-06 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope
US10182707B2 (en) 2010-12-09 2019-01-22 Endochoice Innovation Center Ltd. Fluid channeling component of a multi-camera endoscope
US11497388B2 (en) 2010-12-09 2022-11-15 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope
US10898063B2 (en) 2010-12-09 2021-01-26 Endochoice, Inc. Flexible electronic circuit board for a multi camera endoscope
US9814374B2 (en) 2010-12-09 2017-11-14 Endochoice Innovation Center Ltd. Flexible electronic circuit board for a multi-camera endoscope
US10070774B2 (en) 2011-02-07 2018-09-11 Endochoice Innovation Center Ltd. Multi-element cover for a multi-camera endoscope
US9351629B2 (en) 2011-02-07 2016-05-31 Endochoice Innovation Center Ltd. Multi-element cover for a multi-camera endoscope
US10292578B2 (en) 2011-03-07 2019-05-21 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9854959B2 (en) 2011-03-07 2018-01-02 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
US9713415B2 (en) 2011-03-07 2017-07-25 Endochoice Innovation Center Ltd. Multi camera endoscope having a side service channel
US11026566B2 (en) 2011-03-07 2021-06-08 Endochoice, Inc. Multi camera endoscope assembly having multiple working channels
CN103702604A (en) * 2011-07-26 2014-04-02 恩多卓斯创新中心有限公司 Multi-camera endoscope
US9314147B2 (en) 2011-12-13 2016-04-19 Endochoice Innovation Center Ltd. Rotatable connector for an endoscope
US10470649B2 (en) 2011-12-13 2019-11-12 Endochoice, Inc. Removable tip endoscope
US11291357B2 (en) 2011-12-13 2022-04-05 Endochoice, Inc. Removable tip endoscope
US9655502B2 (en) 2011-12-13 2017-05-23 EndoChoice Innovation Center, Ltd. Removable tip endoscope
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
EP2908714A4 (en) * 2012-10-18 2016-06-29 Endochoice Innovation Ct Ltd Multi-camera endoscope
US10925471B2 (en) 2013-03-28 2021-02-23 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US11925323B2 (en) 2013-03-28 2024-03-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
US10499794B2 (en) 2013-05-09 2019-12-10 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
JPWO2015151973A1 (en) * 2014-03-31 2017-04-13 オリンパス株式会社 Endoscope system
WO2015151973A1 (en) * 2014-03-31 2015-10-08 オリンパス株式会社 Endoscope system
US9913571B2 (en) 2014-03-31 2018-03-13 Olympous Corporation Endoscope system of observing various field of view
JP5974188B2 (en) * 2014-03-31 2016-08-23 オリンパス株式会社 Endoscope system
US10701339B2 (en) 2014-09-18 2020-06-30 Sony Corporation Image processing device and image processing method
WO2016043063A1 (en) * 2014-09-18 2016-03-24 ソニー株式会社 Image processing device and image processing method
CN105536126A (en) * 2016-01-29 2016-05-04 山东汉方制药有限公司 Intelligent cavitary mucosal drug delivery device
JP2018143653A (en) * 2017-03-08 2018-09-20 株式会社イチワ Flexible joint mechanism
JP7440392B2 (en) 2020-10-02 2024-02-28 Hoya株式会社 Program, information processing method and endoscope system
WO2022070782A1 (en) * 2020-10-02 2022-04-07 Hoya株式会社 Program, information processing method, and endoscope system
WO2023024701A1 (en) * 2021-08-23 2023-03-02 山东威高宏瑞医学科技有限公司 Panoramic endoscope and image processing method thereof

Similar Documents

Publication Publication Date Title
JP2010279539A (en) Diagnosis supporting apparatus, method, and program
US9247865B2 (en) Three-dimensional-image forming device, three dimensional-image forming method and program
US8767057B2 (en) Image processing device, image processing method, and program
CN104797186B (en) Endoscopic system
JP6967602B2 (en) Inspection support device, endoscope device, operation method of endoscope device, and inspection support program
JP6254053B2 (en) Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus
JP2012509715A (en) Colonoscopy tracking and evaluation system
JP5486432B2 (en) Image processing apparatus, operating method thereof, and program
JP2017508529A (en) Endoscope measurement system and method
JP2009213627A (en) Endoscopic examination system and examination method using the same
JP2017534322A (en) Diagnostic mapping method and system for bladder
CN107249427B (en) Medical device, medical image generation method and medical image generate program
JP7050817B2 (en) Image processing device, processor device, endoscope system, operation method and program of image processing device
JP6824078B2 (en) Endoscope positioning device, method and program
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
WO2023024701A1 (en) Panoramic endoscope and image processing method thereof
JP6150555B2 (en) Endoscope apparatus, operation method of endoscope apparatus, and image processing program
US11056149B2 (en) Medical image storage and reproduction apparatus, method, and program
JP6745748B2 (en) Endoscope position specifying device, its operating method and program
US20220375089A1 (en) Endoscope apparatus, information processing method, and storage medium
TW201316954A (en) Tomographic image processing method
WO2024029502A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium
WO2024018581A1 (en) Image processing device, image processing method, and storage medium
WO2024028924A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807