JP2012020027A - Processor for electronic endoscope - Google Patents
Processor for electronic endoscope Download PDFInfo
- Publication number
- JP2012020027A JP2012020027A JP2010161281A JP2010161281A JP2012020027A JP 2012020027 A JP2012020027 A JP 2012020027A JP 2010161281 A JP2010161281 A JP 2010161281A JP 2010161281 A JP2010161281 A JP 2010161281A JP 2012020027 A JP2012020027 A JP 2012020027A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- area
- processor
- electronic endoscope
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、接続された電子内視鏡から送信される映像信号を処理してモニタに表示させるためのビデオ信号を生成する電子内視鏡用プロセッサに関する。 The present invention relates to an electronic endoscope processor for processing a video signal transmitted from a connected electronic endoscope and generating a video signal for display on a monitor.
電子内視鏡、電子内視鏡用プロセッサ、光源装置及びモニタ等から構成される電子内視鏡装置が、体腔の観察に広く利用されている。 An electronic endoscope apparatus including an electronic endoscope, an electronic endoscope processor, a light source device, a monitor, and the like is widely used for observation of a body cavity.
電子内視鏡装置の観察対象が胃や腸などの消化器の粘膜である場合、モニタに表示される内視鏡画像は、全体的に赤味がかったものとなり、粘膜の微妙な凹凸を判別することは容易ではない。そして、このような場合には、青色系の色素溶液、例えばインジゴカルミン溶液を粘膜表面に撒布して判別を容易にすることが知られている。色素溶液は、粘膜の凹部に移動するため、内視鏡画像上での青色の領域を凹部として判別することができる。 When the observation target of the electronic endoscopic device is the mucous membrane of the digestive organs such as the stomach and intestine, the endoscopic image displayed on the monitor is entirely reddish, and subtle unevenness of the mucous membrane is distinguished. It is not easy to do. In such a case, it is known that a blue pigment solution, for example, an indigo carmine solution, is distributed on the mucosal surface to facilitate discrimination. Since the dye solution moves to the concave portion of the mucous membrane, the blue region on the endoscopic image can be identified as the concave portion.
しかし、上記の構成においては、色素の撒布が必要であるため検査時間が長くなり、また、一旦色素の撒布を行った後は、暫くの間、元の(色素の撒布が行われていない)状態での内視鏡観察を行うことができないという問題を有する。そのため、特許文献1に示される構成のように、色素を用いずに所定の画像処理によって凹部を青色で表示する構成も提案されている。 However, in the above configuration, since the dye is required to be distributed, the inspection time becomes long. After the dye is once distributed, the original (the dye is not distributed) for a while. There is a problem that endoscopic observation in a state cannot be performed. For this reason, a configuration in which the concave portion is displayed in blue by a predetermined image processing without using a dye has been proposed as in the configuration shown in Patent Document 1.
しかし、上記の特許文献1の構成は、内視鏡画像の全体に所定の画像処理を加えるものであるため、画面全体が青みがかった状態となり、かえって患部の識別が困難となる場合があった。 However, since the configuration of Patent Document 1 described above adds predetermined image processing to the entire endoscopic image, the entire screen becomes bluish, which sometimes makes it difficult to identify the affected area.
本発明は上記の問題を解決するためになされたものである。すなわち、本発明は、患部の識別が容易となるように所定の領域のみに凹部強調等の所定の画像処理が行われた内視鏡画像を得ることが可能な電子内視鏡用プロセッサを提供することを目的とする。 The present invention has been made to solve the above problems. That is, the present invention provides an electronic endoscope processor capable of obtaining an endoscopic image in which predetermined image processing such as recess emphasis is performed only on a predetermined region so that an affected part can be easily identified. The purpose is to do.
上記の目的を達成するため、本発明の電子内視鏡用プロセッサは、内視鏡画像中の領域の指定を受け付ける入力手段と、内視鏡画像の少なくとも一部の領域に所定の画像処理を行う画像処理手段とを有し、内視鏡画像の、前記入力手段を介して指定された領域内のみに、画像処理手段による所定の画像処理が行われることを特徴とする。 In order to achieve the above object, an electronic endoscope processor according to the present invention includes input means for receiving designation of an area in an endoscopic image, and predetermined image processing on at least a partial area of the endoscopic image. Image processing means for performing predetermined image processing by the image processing means only in an area of the endoscopic image designated through the input means.
このような構成とすると、内視鏡画像中の、凹部強調等の所定の画像処理が行われる領域が、入力手段を介して指定された領域のみに制限され、他の領域には上記所定の画像処理は行われない。このため、電子内視鏡用プロセッサの使用者が所定の画像処理を行う領域を入力手段を介して適切に設定することによって、患部の識別が容易となる。 With such a configuration, an area in the endoscopic image where predetermined image processing such as recess emphasis is performed is limited to only an area specified via the input unit, and the predetermined area is limited to other areas. No image processing is performed. For this reason, the user of the electronic endoscope processor appropriately sets an area where predetermined image processing is performed via the input means, thereby facilitating identification of the affected area.
また、電子内視鏡用プロセッサが、所定の画像処理が行われた内視鏡画像を表示する表示手段を内蔵する構成とすることが好ましい。さらに好ましくは、表示手段が入力手段としての機能を有するタッチパネルモニタであり、タッチパネルモニタに所定の画像処理を行う前の内視鏡画像を表示させた状態でタッチパネルモニタが操作されることによって、該内視鏡画像中の領域が指定される。 Further, it is preferable that the electronic endoscope processor has a built-in display means for displaying an endoscopic image on which predetermined image processing has been performed. More preferably, the display means is a touch panel monitor having a function as an input means, and the touch panel monitor is operated in a state in which an endoscope image before performing predetermined image processing is displayed on the touch panel monitor. A region in the endoscopic image is designated.
このような構成とすると、タッチパネルモニタに表示された内視鏡画像を参照しながら、タッチパネル操作によって、所定の画像処理が行われる領域の指定を容易に行うことができる。 With such a configuration, it is possible to easily specify a region where predetermined image processing is performed by a touch panel operation while referring to an endoscopic image displayed on the touch panel monitor.
なお、上記所定の画像処理が行われる領域を指定する方法としては、タッチパネルモニタがドラッグ操作された時に該ドラッグ操作の軌跡によって形成される閉領域を所定の画像処理が行われる領域として指定する、タッチパネルモニタがドラッグ操作された時に該ドラッグ操作の始点と終点を対角とする矩形を所定の画像処理が行われる領域として指定する、タッチパネルモニタ上の二点がポイントされた時に、該ポイントされた二点を対角とする矩形を所定の画像処理が行われる領域として指定する、タッチパネルモニタ上の一点がポイントされた時に、該ポイントされた一点を含む所定形状の領域を所定の画像処理が行われる領域として指定する、或いは、タッチパネルモニタ上の領域がポイントされた時に、該ポイントされた領域を所定の画像処理が行われる領域として指定する方法等が挙げられる。 In addition, as a method of designating the area where the predetermined image processing is performed, a closed area formed by the drag operation locus is designated as an area where the predetermined image processing is performed when the touch panel monitor is dragged. When the touch panel monitor is dragged, a rectangle whose diagonal is the start and end points of the drag operation is designated as an area where predetermined image processing is performed. When two points on the touch panel monitor are pointed, When a point on the touch panel monitor is pointed, a rectangle with two points as diagonals is designated as an area on which predetermined image processing is performed. Predetermined image processing is performed on an area of a predetermined shape including the pointed point. When the area on the touch panel monitor is pointed, the pointed area is A method in which designated as an area where the image processing of the constant is performed and the like.
また、表示手段上に表示される、所定の画像処理が行われた内視鏡画像が自動的に更新される構成としてもよい。また、上記構成においては、内視鏡画像が自動的に更新される際に、所定の画像処理が行われる領域の更新前の内視鏡画像の特徴と、更新後の内視鏡画像の特徴とを比較し、更新後の内視鏡画像において所定の画像処理が行われる領域の更新前の内視鏡画像と特徴が一致する領域を、該更新後の内視鏡画像において所定の画像処理が行われる領域とする構成とすることが好ましい。 Moreover, it is good also as a structure which the endoscope image displayed on the display means and in which the predetermined image processing was performed is updated automatically. Further, in the above configuration, when the endoscope image is automatically updated, the characteristics of the endoscope image before the update of the area where the predetermined image processing is performed and the characteristics of the endoscope image after the update are performed. And, in the updated endoscopic image, a region whose characteristics match the pre-updated endoscopic image is subjected to predetermined image processing in the updated endoscopic image. It is preferable to set it as the area | region where this is performed.
このような構成とすると、内視鏡観察中に内視鏡の挿入管先端部が移動するなどして、所定の画像処理を行うべき領域が内視鏡画像中で移動したとしても、所定の画像処理を行うべき領域に所定の画像処理が行われる。 With such a configuration, even if the region where the predetermined image processing is to be performed is moved in the endoscopic image because the distal end portion of the insertion tube of the endoscope is moved during the endoscopic observation, Predetermined image processing is performed on an area where image processing is to be performed.
また、入力手段を介して指定された領域の外側に、所定の画像処理とは異なる画像処理が行われる構成としてもよい。 Further, a configuration in which image processing different from the predetermined image processing is performed outside the region designated via the input means may be adopted.
以上のように、本発明によれば、患部の識別が容易となるように所定の領域のみに凹部強調等の所定の画像処理が行われた内視鏡画像を得ることが可能な電子内視鏡用プロセッサが実現される。 As described above, according to the present invention, it is possible to obtain an endoscopic image in which an endoscopic image in which predetermined image processing such as recess emphasis is performed only in a predetermined region so that the affected part can be easily identified. A mirror processor is implemented.
以下、本発明の実施の形態について説明する。図1は、本実施形態の電子内視鏡装置1のブロック図である。図1に示されるように、本実施形態の電子内視鏡装置1は、電子内視鏡100と、電子内視鏡用プロセッサ200と、モニタ300を有する。
Embodiments of the present invention will be described below. FIG. 1 is a block diagram of an electronic endoscope apparatus 1 according to this embodiment. As shown in FIG. 1, the electronic endoscope apparatus 1 of the present embodiment includes an
電子内視鏡100は、その挿入管110の先端部(挿入管先端部)111近傍には、対物レンズ121及び撮像素子122が内蔵されている。挿入管先端部111には、撮像用カバーガラス125が設けられており、撮像用カバーガラス125を透過した光による像は対物レンズ121によって撮像素子122の受光面上で結像するようになっている。
The
撮像素子122は、その受光面上で結像した像に対応する映像信号を出力する。映像信号は、挿入管110の内部に配されている信号ケーブル126を介して、電子内視鏡100のコネクタ部160に内蔵された信号処理回路124に送られる。撮像素子122の上記の処理は、CCD駆動回路123から撮像素子122に入力されるタイミングパルスによって制御されるようになっている。また、CCD駆動回路123によるタイミングパルスの出力タイミングは、コネクタ部160に内蔵されたマイコン151によって制御される。
The
信号処理回路124は、撮像素子122から送られた映像信号をA/D変換して、マイコン151に送る。マイコン151は、得られたデジタルの映像信号を、通信制御部152を介して電子内視鏡用プロセッサ200に送信する。
The signal processing circuit 124 A / D converts the video signal sent from the
電子内視鏡用プロセッサ200には、信号変換部241、画像処理部242、画像データメモリ243、通信制御部244が内蔵されている。電子内視鏡100の通信制御部152から出力される映像信号は、信号変換部241にて画像処理部242が処理可能な信号に変換された後、画像処理部242に送られる。画像処理部242は、信号変換部241から送られた映像信号を、画像データとして画像データメモリ243に記憶させる。また、画像処理部242は、画像データメモリ243に記憶された画像データに対して、画像処理を行うことができる。さらに、画像処理部242は、所定のタイミングで、画像データメモリ243に記憶された画像データを読み出して、通信制御部244に送る。通信制御部244は、画像処理部242から送られる画像データを、所定の形式のビデオ信号(例えばNTSC信号)に変換し、電内視鏡用プロセッサ200のケース201に実装されているコネクタ245に送る。モニタ300は、コネクタ245を介して電子内視鏡用プロセッサ200と接続されており、コネクタ245を介して得られるビデオ信号に基づいて内視鏡画像を表示させる。
The
以上説明した処理によって、電子内視鏡100の挿入管先端部111近傍の映像が、モニタ300に表示される。ここで、撮像素子122は一定のタイミングで映像信号を出力し、画像処理部242は受信した映像信号を順次処理して画像データメモリ243に記憶されている画像データを更新している。そのため、モニタ300には、電子内視鏡100の挿入管先端部111近傍の映像が動画として表示される。
Through the processing described above, an image in the vicinity of the insertion tube
なお、信号変換部241、画像処理部242及び通信制御部244が映像信号や画像データを処理するタイミングは、電子内視鏡用プロセッサ200に内蔵されているタイミングジェネレータ231から出力されるタイミングパルスによって制御されている。また、タイミングジェネレータ231が上記タイミングパルスを出力するタイミングは、電子内視鏡用プロセッサ200のコントローラ211によって制御されている。
Note that the timing at which the
また、電子内視鏡用プロセッサ200は、電子内視鏡100の挿入管先端部111近傍を照明するための照明光を生成する光源装置としての機能を有する。以下、電子内視鏡用プロセッサ200の照明装置としての機能について説明する。
The
図1に示されるように、電子内視鏡用プロセッサ200には、ランプ電源回路221、ランプ222及び集光レンズ223を有する。また、電子内視鏡100の挿入管110及びコネクタ部160には、ライトガイド132が配置されている。ライトガイド132の先端部132aは、電子内視鏡100の挿入管先端部111近傍に配置されている。また、ライトガイド132の先端部132a近傍には照明用レンズ133が設けられており、且つ挿入管先端部111の照明用レンズ133の近傍には、照明用カバーガラス131が配置されている。
As shown in FIG. 1, the
電子内視鏡用プロセッサ200に内蔵されているランプ222はランプ電源回路221からの電力供給によって照明光を生成する。そして、生成された照明光は、集光レンズ223に入射する。また、ライトガイド132は、コネクタ部160にて電子内視鏡100が電子内視鏡用プロセッサ200に接続された状態では、電子内視鏡用プロセッサ200の内部に挿入されるようになっている。この、ライトガイド132が電子内視鏡用プロセッサ200に挿入された状態では、ライトガイド132の基端部132bは、集光レンズ223によって集光された照明光が入射するような位置にある。この結果、ランプ222によって生成された照明光は、ライトガイド132の基端部132bに入射し、ライトガイド132を通って先端部132aに達し、照明用レンズ133及び照明用カバーガラス131を通過して挿入管先端部111近傍の生体組織を照明する。なお、ランプ電源回路221は、コントローラ211によって制御されるようになっている。すなわち、コントローラ211は、ランプ電源回路221を制御して、ランプ222に供給する電流の大きさを調整し、照明光の明るさを変更することができる。
The
また、図1に示されるように、電子内視鏡100には、操作ボタン141が設けられている。操作ボタン141が押されると、操作ボタン141が押されたことを示す信号がマイコン151及び通信制御部152を介して電子内視鏡用プロセッサ200のコントローラ211に送られる。すなわち、コントローラ211は、電子内視鏡100の操作ボタン141が押されたかどうかを判別することができる。
As shown in FIG. 1, the
また、図1に示されるように、電子内視鏡用プロセッサ200は、タッチパネルモニタ251が設けられている。コントローラ211は、タッチパネルモニタ251を制御して、内視鏡画像や操作メニュー等をタッチパネルモニタ251に表示させる、或いは、タッチパネルモニタ251の操作結果(指等がタッチパネルモニタ251のスクリーン上のどの座標に触れられているか)を検知することができる。
Further, as shown in FIG. 1, the
また、図1に示されるように、電子内視鏡用プロセッサ200には、ストレージ212が設けられている。ストレージ212は、ハードディスクドライブ、半導体メモリ等で構成された記憶装置であり、後述する画像処理ルーチン等、コントローラ211で実行される各種プログラム及び後述する画像処理ルーチンで処理される内視鏡画像を記憶している。コントローラ211は、ストレージ212から適宜必要なプログラムを読み出し実行する。
As shown in FIG. 1, the
本実施形態の電子内視鏡装置1は、撮像素子によって撮像された内視鏡画像に対して、所定の画像処理を加えてタッチパネルモニタ251に表示させることができるようになっている。所定の画像処理は、例えば、凹部と判断された領域を青色で示す等の処理である。特定の画素が凹部であるかどうかの判断は、例えば、特定の画素の輝度値と該特定の画素の周囲8ピクセルの輝度値とを比較することによって行われる。
The electronic endoscope apparatus 1 according to the present embodiment can perform predetermined image processing on the endoscopic image captured by the image sensor and display the image on the
また、本実施形態の電子内視鏡装置1においては、電子内視鏡装置1の使用者がタッチパネル操作によって内視鏡画像中の領域を指定し、指定された領域に対して所定の画像処理を行い、他の領域に対しては所定の画像処理が行われないようになっている。これにより、電子内視鏡装置1の使用者は、所望の領域のみに所定の画像処理が加えられた内視鏡画像をタッチパネルモニタ251に表示させることができる。 In the electronic endoscope apparatus 1 of the present embodiment, the user of the electronic endoscope apparatus 1 designates an area in the endoscopic image by a touch panel operation, and predetermined image processing is performed on the designated area. The predetermined image processing is not performed on other areas. Thereby, the user of the electronic endoscope apparatus 1 can display on the touch panel monitor 251 an endoscopic image obtained by performing predetermined image processing only on a desired region.
上記領域の選択及び所定の画像処理は、電子内視鏡用プロセッサ200のコントローラ211が、図2に示される画像処理ルーチンをストレージ212から読み出して実行することによって実現される。なお、画像処理ルーチンは、電子内視鏡装置1の使用者が、タッチパネルモニタ251に表示された操作メニューを参照して、所定の画像処理の指示を入力することにより実行される。
The selection of the area and the predetermined image processing are realized by the
本ルーチンが開始されると、ステップS1が実行される。ステップS1では、コントローラ211は、タイミングジェネレータ231を介して画像処理部242を制御し、画像データメモリ243に保存されている最新フレームの画像データを読み出す。読み出された画像データは、コントローラ211の内部メモリに保存される。そして、コントローラ211は、内部メモリに記憶された画像データの画像をタッチパネルモニタ251に表示させる。次にステップS2に進む。
When this routine is started, step S1 is executed. In step S <b> 1, the
ステップS2では、所定の画像処理を行う範囲(選択範囲)の、タッチパネル操作による指定入力を受け付ける。選択範囲の指定方法としては、以下の第1〜第4の方法のいずれかのものが使用される。なお、第1〜第4の方法のいずれによって選択範囲を指定するかは、本ルーチンが実行される前に、タッチパネルモニタ251のメニュー操作等によって設定される。 In step S2, a designation input by a touch panel operation for a range (selection range) in which predetermined image processing is performed is received. Any one of the following first to fourth methods is used as a selection range designation method. Note that which of the first to fourth methods is used to specify the selection range is set by a menu operation or the like of the touch panel monitor 251 before this routine is executed.
第1の方法は、タッチパネルモニタ251上でドラッグ操作を行うことによって選択範囲を指定するものである。図3の内視鏡画像に示されるように、ドラッグ操作によって(ドラッグ操作の軌跡を破線矢印L1で示す)閉領域A1を形成し、この閉領域A1を選択範囲とする。
The first method is to designate a selection range by performing a drag operation on the
第2の方法は、第1の方法と同様、ドラッグ操作によって選択範囲を指定するものである。図4の内視鏡画像に示されるように、略直線状にドラッグ操作を行い(ドラッグ操作の軌跡を破線矢印L2で示す)、その始点P21と終点P22を対角とする矩形領域A2を、選択範囲とする。なお、ドラッグ操作を行う代わりに、内視鏡画像中の二点をポイントし、該二点を対角とする矩形領域を選択範囲とする構成としてもよい。 As in the first method, the second method is to designate a selection range by a drag operation. As shown in the endoscopic image of FIG. 4, a drag operation is performed in a substantially straight line (the trajectory of the drag operation is indicated by a broken line arrow L2), and a rectangular area A2 whose diagonal is the start point P21 and the end point P22, Select range. Instead of performing the drag operation, two points in the endoscopic image may be pointed and a rectangular region having the two points as diagonals may be selected.
第3の方法は、内視鏡画像中の一点をポイントすることによって選択範囲を指定するものである。すなわち、図5の内視鏡画像に示されるように、内視鏡画像中の一点P31をポイントし、その点P31を中心とする所定の幅及び高さの矩形領域A3を、選択範囲とする。なお、矩形領域ではなく、点P31を中心とする他の形状の領域(円、楕円等)を選択範囲とする構成としてもよい。また、例えば、点P31を基準とする他の矩形領域、例えば点P31を左上隅とする所定の幅及び高さの矩形領域を選択範囲とする構成としてもよい。 In the third method, a selection range is designated by pointing one point in the endoscopic image. That is, as shown in the endoscopic image of FIG. 5, a point P31 in the endoscopic image is pointed, and a rectangular area A3 having a predetermined width and height around the point P31 is set as a selection range. . In addition, it is good also as a structure which uses not the rectangular area but the area | region (circle, ellipse, etc.) of the other shape centering on the point P31 as a selection range. Further, for example, another rectangular area based on the point P31, for example, a rectangular area having a predetermined width and height with the point P31 as the upper left corner may be used as the selection range.
第4の方法は、内視鏡画像中の領域をポイントすることによって選択範囲を指定するものである。すなわち、指の腹などでタッチパネルモニタ251をベタ押しし、ベタ押しされた領域を選択範囲とする。 The fourth method is to designate a selection range by pointing an area in the endoscopic image. That is, the touch panel monitor 251 is pressed solidly with the finger pad or the like, and the solid pressed area is set as the selection range.
上記第1〜第4の方法のいずれかによって選択範囲が指定された後、ステップS3に進む。 After the selection range is designated by any of the first to fourth methods, the process proceeds to step S3.
ステップS3では、ステップS2で選択された選択範囲に所定の画像処理を加えてタッチパネルモニタ251に表示させる。次に、ステップS4に進む。 In step S3, predetermined image processing is added to the selection range selected in step S2, and the touch panel monitor 251 displays the image. Next, the process proceeds to step S4.
ステップS4では、ステップS3でタッチパネルモニタ251に表示された画像に、所定の画像処理を行う範囲の再指定を行うための第1の選択ボタンと、所定の画像処理の終了を行うための第2の選択ボタンと、画像保存を行うための第3のボタンを表示させ、タッチパネルモニタ251の入力を受け付ける。なお、本ルーチンが実行される前に、ユーザ設定によって、第1の選択ボタンを表示させない(すなわち、選択範囲の再指定を受け付けない)ようにすることも可能である。 In step S4, the image displayed on the touch panel monitor 251 in step S3 is a first selection button for re-designating a range for performing predetermined image processing, and a second for ending predetermined image processing. And a third button for saving an image are displayed, and input from the touch panel monitor 251 is accepted. Note that the first selection button may not be displayed (that is, re-designation of the selection range is not accepted) according to user settings before this routine is executed.
ステップS4においてタッチパネル操作によって第1の選択ボタンが選択された場合は(S4:再指定)、ステップS1に戻る。すなわち、コントローラ211は、再度画像データメモリから最新の内視鏡画像の画像データを読み出して、タッチパネルモニタ251に表示させる。なお、本ルーチンが実行される前にユーザ設定によって設定された時間(例えば10分)第1の選択ボタンが操作されなかった場合に、自動的にステップS1が実行されるようになっている。また、ユーザ設定によって、自動的にステップS4からステップS1に分岐しないようにすることも可能である。
When the first selection button is selected by the touch panel operation in step S4 (S4: re-designation), the process returns to step S1. In other words, the
なお、ステップS4において第1の選択ボタンを選択する代わりに、内視鏡画像中の任意の箇所に対してポイント又はドラッグ操作の開始を行うことによって、ステップS1に戻る構成としてもよい。 Note that instead of selecting the first selection button in step S4, a point or drag operation may be started at any location in the endoscopic image, and the process may return to step S1.
また、ステップS4においてタッチパネル操作によって第2の選択ボタンが選択された場合は(S4:終了)、ステップS5に進む。ステップS5では、タッチパネルモニタ251に表示されている内視鏡画像を消去した後、本ルーチンを終了する。 If the second selection button is selected by the touch panel operation in step S4 (S4: end), the process proceeds to step S5. In step S5, the endoscope image displayed on the touch panel monitor 251 is erased, and then this routine is terminated.
また、ステップS4において第3のボタンが選択された場合は(S4:画像保存)、ステップS6に進む。ステップS6では、所定の画像処理が施された内視鏡画像が、電子内視鏡用プロセッサ200に内蔵されたストレージ212に保存される。次いでステップS4に戻る。
If the third button is selected in step S4 (S4: save image), the process proceeds to step S6. In step S <b> 6, the endoscopic image on which the predetermined image processing has been performed is stored in the
なお、本実施形態においては、タッチパネル操作によって、選択範囲の再指定、所定の画像処理の終了、及び画像の保存を選択する構成となっているが、本発明は上記構成に限定されるものではなく、電子内視鏡100の操作ボタン141(図1)を操作することによって上記選択を行う構成としてもよい。
In the present embodiment, the selection range is specified again, the end of predetermined image processing, and the saving of the image are selected by touch panel operation. However, the present invention is not limited to the above configuration. Alternatively, the selection may be performed by operating the operation button 141 (FIG. 1) of the
また、ステップS4において一定時間(本実施形態では1秒)、タッチパネルモニタ251が操作されなかった場合は(S4:入力無し)、ステップS7に進む。ステップS7では、コントローラ211は画像処理部242を制御して、最新の内視鏡画像の画像データを画像データメモリ243から取得し、取得した画像データに対して所定の画像処理を加えた上でタッチパネルモニタ251に表示させる。次いでステップS4に戻る。
If the touch panel monitor 251 is not operated for a certain time (1 second in the present embodiment) in step S4 (S4: no input), the process proceeds to step S7. In step S <b> 7, the
上記のように、タッチパネルモニタ251の操作が一定時間以上無いと、タッチパネルモニタ251に表示される画像が更新され続ける。すなわち、タッチパネル操作を行わないままであれば、所定の画像処理が施された内視鏡画像が、動画としてタッチパネルモニタ251に表示される。 As described above, if the operation of the touch panel monitor 251 is not performed for a predetermined time or longer, the image displayed on the touch panel monitor 251 is continuously updated. That is, if the touch panel operation is not performed, an endoscopic image that has undergone predetermined image processing is displayed on the touch panel monitor 251 as a moving image.
また、本実施形態においては、所定の画像処理を行った内視鏡画像が表示されている間に、電子内視鏡100の挿入管先端部111の移動(例えば、挿入管110に対して湾曲動作を行う等)によって、電子内視鏡装置1の使用者が所定の画像処理を望む領域が、ステップS2で指定した範囲からはずれた場合に、電子内視鏡装置1の使用者が所定の画像処理を望む領域の移動にあわせて所定の画像処理を行う選択範囲の再指定を自動的に行うことができるようになっている。上記処理は、図2のステップS7において、図6のフローチャートに示されるサブルーチンをコントローラ211が実行することによって実現される。なお、図2のルーチンが実行される前になされたユーザ設定によって、上記の範囲自動再指定を行わないようにすることもできる。
Further, in the present embodiment, the movement of the insertion tube
図6のサブルーチンが開始すると、ステップS11が実行される。ステップS11では、ステップS2(図2)にて選択された領域内の内視鏡画像の特徴が抽出される。具体的には、内視鏡画像の輪郭を抽出し、これをさらに二値化した特徴抽出画像データを得る。なお、上記特徴抽出画像データは、ステップS3の所定の画像処理が行われる前の内視鏡画像から得られたものである。次いで、ステップS12に進む。 When the subroutine of FIG. 6 starts, step S11 is executed. In step S11, the features of the endoscopic image in the region selected in step S2 (FIG. 2) are extracted. Specifically, the contour of the endoscopic image is extracted, and feature-extracted image data obtained by binarizing this is obtained. The feature extraction image data is obtained from an endoscopic image before the predetermined image processing in step S3 is performed. Next, the process proceeds to step S12.
ステップS12では、電子内視鏡用プロセッサ200のコントローラ211は、画像データメモリ243に記憶された最新の内視鏡画像の画像データを取得する。次いで、ステップS13に進む。
In step S <b> 12, the
ステップS13では、ステップS12で取得した画像データの、ステップS2にて選択された選択範囲内の特徴を抽出した特徴抽出画像データを得る。次いで、ステップS14に進む。 In step S13, feature-extracted image data obtained by extracting features in the selection range selected in step S2 of the image data acquired in step S12 is obtained. Next, the process proceeds to step S14.
ステップS14では、ステップS12で取得した最新の内視鏡画像の特徴抽出画像データと、ステップS11で取得した1フレーム前(1秒前)の内視鏡画像の特徴抽出画像データとの比較が行われる。例えば、最新の内視鏡画像の特徴抽出画像データと、1フレーム前の内視鏡画像の特徴抽出画像データとの排他的論理和を演算し、演算結果が“0”となる画素数の選択された領域内の画素数に対する比が所定の閾値を超えた場合に、両特徴抽出画像データが一致しているものと判断する。両特徴抽出画像データが一致しているものと判断された場合は(S14:YES)、ステップS25に進む。両特徴抽出画像データが一致していないものと判断された場合は(S14:NO)、ステップS15に進む。 In step S14, the feature extraction image data of the latest endoscope image acquired in step S12 is compared with the feature extraction image data of the endoscope image one frame before (one second ago) acquired in step S11. Is called. For example, the exclusive OR of the feature extraction image data of the latest endoscope image and the feature extraction image data of the endoscope image one frame before is calculated, and the number of pixels for which the calculation result is “0” is selected. When the ratio to the number of pixels in the specified area exceeds a predetermined threshold value, it is determined that both feature extraction image data match. If it is determined that both feature extraction image data match (S14: YES), the process proceeds to step S25. If it is determined that the two feature extraction image data do not match (S14: NO), the process proceeds to step S15.
ステップS15では、ステップS12で取得した最新の内視鏡画像全体の特徴抽出画像データを取得する。次いで、ステップS16に進む。 In step S15, feature extraction image data of the entire latest endoscopic image acquired in step S12 is acquired. Next, the process proceeds to step S16.
ステップS16では、ステップS11で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるかどうかのチェックが行われる。ステップS11で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるのであれば(S16:YES)、ステップS22に進む。 In step S16, it is checked whether or not the portion that matches the feature extraction image data acquired in step S11 is in the feature extraction image data acquired in step S15. If there is a portion that matches the feature extraction image data acquired in step S11 in the feature extraction image data acquired in step S15 (S16: YES), the process proceeds to step S22.
ステップS22では、ステップS15で取得した特徴抽出画像データ中の、ステップS11で取得した特徴抽出画像データと一致する領域を、新しい選択範囲とする。次いで、ステップS25に進む。 In step S22, an area that matches the feature extraction image data acquired in step S11 in the feature extraction image data acquired in step S15 is set as a new selection range. Next, the process proceeds to step S25.
一方、ステップS16において、ステップS11で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中に見つからなかった場合は(S16:NO)、ステップS17に進む。 On the other hand, in step S16, when a portion matching the feature extraction image data acquired in step S11 is not found in the feature extraction image data acquired in step S15 (S16: NO), the process proceeds to step S17.
ステップS17では、元の(すなわち1フレーム前の)画像の選択範囲部分を、回転させ、次いで回転後の画像の特徴抽出画像データを作成する。具体的には、±90°の範囲内で画像の選択範囲部分を5°刻みに回転させた上で、その夫々について特徴抽出画像データを作成する。次いで、ステップS18に進む。 In step S17, the selected range portion of the original image (that is, one frame before) is rotated, and then feature extracted image data of the rotated image is created. Specifically, after the selected range portion of the image is rotated in increments of 5 ° within a range of ± 90 °, feature extraction image data is created for each. Next, the process proceeds to step S18.
ステップS18では、ステップS17で取得した複数の特徴抽出画像データの夫々について、一致する部分がステップS15で取得した特徴抽出画像データの中にあるかどうかのチェックが行われる。ステップS17で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるのであれば(S18:YES)、ステップS23に進む。 In step S18, for each of the plurality of feature extraction image data acquired in step S17, a check is made as to whether or not there is a matching portion in the feature extraction image data acquired in step S15. If there is a portion that matches the feature extraction image data acquired in step S17 in the feature extraction image data acquired in step S15 (S18: YES), the process proceeds to step S23.
ステップS23では、ステップS15で取得した特徴抽出画像データ中の、ステップS17で取得した特徴抽出画像データと一致する領域を、新しい選択範囲とする。次いで、ステップS25に進む。 In step S23, a region that matches the feature extraction image data acquired in step S17 in the feature extraction image data acquired in step S15 is set as a new selection range. Next, the process proceeds to step S25.
一方、ステップS18において、ステップS17で取得した特徴抽出画像データのいずれに対しても、一致する部分がステップS15で取得した特徴抽出画像データの中に見つからなかった場合は(S18:NO)、ステップS19に進む。 On the other hand, if no matching part is found in the feature extraction image data acquired in step S15 for any of the feature extraction image data acquired in step S17 in step S18 (S18: NO), step Proceed to S19.
ステップS19では、元の(すなわち1フレーム前の)画像の選択範囲部分を、拡大及び縮小させ、次いで拡大及び縮小後の画像の特徴抽出画像データを作成する。具体的には、0.5〜2.0倍の拡大及び縮小範囲内で画像の選択範囲部分の拡大縮小率を0.1倍刻みで変化させた画像の夫々について、特徴抽出画像データを作成する。次いで、ステップS20に進む。 In step S19, the selected range portion of the original image (that is, one frame before) is enlarged and reduced, and then feature extracted image data of the enlarged and reduced image is created. Specifically, feature-extracted image data is created for each of the images in which the enlargement / reduction ratio of the selected area of the image is changed in increments of 0.1 within an enlargement / reduction range of 0.5 to 2.0 times. To do. Next, the process proceeds to step S20.
ステップS20では、ステップS19で取得した複数の特徴抽出画像データの夫々について、一致する部分がステップS15で取得した特徴抽出画像データの中にあるかどうかのチェックが行われる。ステップS19で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるのであれば(S20:YES)、ステップS24に進む。 In step S20, for each of the plurality of feature extraction image data acquired in step S19, it is checked whether or not a matching portion is present in the feature extraction image data acquired in step S15. If there is a portion that matches the feature extraction image data acquired in step S19 in the feature extraction image data acquired in step S15 (S20: YES), the process proceeds to step S24.
ステップS24では、ステップS15で取得した特徴抽出画像データ中の、ステップS19で取得した特徴抽出画像データと一致する領域を、新しい選択範囲とする。次いで、ステップS25に進む。 In step S24, an area that matches the feature extraction image data acquired in step S19 in the feature extraction image data acquired in step S15 is set as a new selection range. Next, the process proceeds to step S25.
ステップS25では、最新の内視鏡画像の選択範囲に所定の画像処理を施し、これをタッチパネルモニタ251に表示させる。次いで、本サブルーチンを終了し、ステップS4(図2)に戻る。
In step S25, predetermined image processing is performed on the selection range of the latest endoscopic image, and this is displayed on the
一方、ステップS20において、ステップS19で取得した特徴抽出画像データのいずれに対しても、一致する部分がステップS15で取得した特徴抽出画像データの中に見つからなかった場合は(S20:NO)、ステップS21に進む。 On the other hand, in step S20, if no matching part is found in the feature extraction image data acquired in step S15 for any of the feature extraction image data acquired in step S19 (S20: NO), step Proceed to S21.
ステップS21では、現在の内視鏡画像中には、電子内視鏡装置1の使用者が所定の画像処理を望む領域が含まれていない(該領域が内視鏡画像の外に移動した)ものと判断し、本ルーチンを終了する。なお、ステップS21が実行された直後にステップS4(図2)が実行される場合、ステップS4は電子内視鏡装置1の使用者からのタッチパネル操作を受け付けず、即座にステップS1に進み、選択範囲の再指定の入力を受け付ける。 In step S21, the current endoscopic image does not include an area where the user of the electronic endoscope apparatus 1 desires predetermined image processing (the area has moved out of the endoscopic image). This routine is terminated. When step S4 (FIG. 2) is executed immediately after step S21 is executed, step S4 does not accept a touch panel operation from the user of the electronic endoscope apparatus 1, and immediately proceeds to step S1 for selection. Accept input for re-specifying range.
上記のように、本実施形態の構成においては、電子内視鏡100の移動やズーム等によって電子内視鏡装置1の使用者が所定の画像処理を望む領域が移動した場合であっても、電子内視鏡装置1の使用者が所定の画像処理を望む領域のみに所定の画像処理が行われた状態が維持される。
As described above, in the configuration of the present embodiment, even when a region where the user of the electronic endoscope apparatus 1 desires predetermined image processing is moved by movement or zooming of the
以上説明した、本発明の実施形態の電子内視鏡装置1は、使用者によって指定された特定の領域のみに所定の画像処理を行うものである。しかしながら、本発明は上記の構成に限定されるものではない。すなわち、使用者によって指定された領域(選択範囲)内に所定の画像処理を行い、選択範囲外に所定の画像処理とは異なる画像処理を加える構成もまた、本発明に含まれる。 As described above, the electronic endoscope apparatus 1 according to the embodiment of the present invention performs predetermined image processing only on a specific area designated by the user. However, the present invention is not limited to the above configuration. That is, the present invention also includes a configuration in which predetermined image processing is performed within an area (selection range) designated by the user and image processing different from the predetermined image processing is performed outside the selection range.
1 電子内視鏡装置
100 電子内視鏡
200 電子内視鏡用プロセッサ
211 コントローラ
242 画像処理部
243 画像データメモリ
251 タッチパネルモニタ
300 モニタ
1
Claims (11)
前記内視鏡画像中の領域の指定を受け付ける入力手段と、
前記内視鏡画像の少なくとも一部の領域に所定の画像処理を行う画像処理手段と
を有し、
前記内視鏡画像の、前記入力手段を介して指定された領域内のみに、前記画像処理手段による所定の画像処理が行われることを特徴とする電子内視鏡用プロセッサ。 An electronic endoscope processor that is connected to an electronic endoscope and processes a video signal of an endoscope image output from the electronic endoscope to generate a video signal that can be displayed on a monitor;
Input means for accepting designation of a region in the endoscopic image;
Image processing means for performing predetermined image processing on at least a partial region of the endoscopic image,
A processor for electronic endoscope, wherein predetermined image processing by the image processing means is performed only within a region of the endoscopic image designated through the input means.
前記タッチパネルモニタに所定の画像処理を行う前の内視鏡画像を表示させた状態で、前記タッチパネルモニタが操作されることによって内視鏡画像中の領域が指定される
ことを特徴とする請求項2に記載の電子内視鏡用プロセッサ。 The display means is a touch panel monitor having a function as the input means;
The region in the endoscopic image is designated by operating the touch panel monitor in a state where the endoscopic image before performing predetermined image processing is displayed on the touch panel monitor. The processor for electronic endoscopes of 2.
11. The electronic endoscope according to claim 1, wherein an image process different from the predetermined image process is performed outside a region designated via the input unit. Mirror processor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010161281A JP2012020027A (en) | 2010-07-16 | 2010-07-16 | Processor for electronic endoscope |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010161281A JP2012020027A (en) | 2010-07-16 | 2010-07-16 | Processor for electronic endoscope |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012020027A true JP2012020027A (en) | 2012-02-02 |
Family
ID=45774812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010161281A Pending JP2012020027A (en) | 2010-07-16 | 2010-07-16 | Processor for electronic endoscope |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012020027A (en) |
-
2010
- 2010-07-16 JP JP2010161281A patent/JP2012020027A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170112356A1 (en) | Image processing apparatus, image processing method, computer-readable recording medium, and endoscope system | |
US20230086972A1 (en) | Medical image processing device, endoscope system, medical image processing method, and program | |
JP7135082B2 (en) | Endoscope device, method of operating endoscope device, and program | |
US20180307933A1 (en) | Image processing apparatus, image processing method, and computer readable recording medium | |
JP5455550B2 (en) | Processor for electronic endoscope | |
JP2004121372A (en) | Apparatus for diagnostic assistance | |
JP2009213627A (en) | Endoscopic examination system and examination method using the same | |
JP5927370B1 (en) | Imaging apparatus and processing apparatus | |
US20210307587A1 (en) | Endoscope system, image processing device, total processing time detection method, and processing device | |
JP2018139846A (en) | Endoscope system and operation method thereof | |
JP2012020028A (en) | Processor for electronic endoscope | |
JP2018139848A (en) | Endoscope system and operation method thereof | |
JP5581122B2 (en) | Electronic endoscope device | |
JP6774552B2 (en) | Processor device, endoscopic system and how to operate the processor device | |
JP2006223850A (en) | Electronic endoscope system | |
JPWO2020054255A1 (en) | How to operate the endoscope device, the endoscope processor, and the endoscope device | |
US10462440B2 (en) | Image processing apparatus | |
EP4285810A1 (en) | Medical image processing device, method, and program | |
JP2007236598A (en) | Processor and electronic endoscope system | |
JP2012020027A (en) | Processor for electronic endoscope | |
JP6937902B2 (en) | Endoscope system | |
JP2017123997A (en) | Imaging system and processing device | |
JP4373726B2 (en) | Auto fluorescence observation device | |
US20230347170A1 (en) | Phototherapy device, phototherapy method, and computer-readable recording medium | |
US20230347168A1 (en) | Phototherapy device, phototherapy method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130510 |