JP2012020027A - Processor for electronic endoscope - Google Patents

Processor for electronic endoscope Download PDF

Info

Publication number
JP2012020027A
JP2012020027A JP2010161281A JP2010161281A JP2012020027A JP 2012020027 A JP2012020027 A JP 2012020027A JP 2010161281 A JP2010161281 A JP 2010161281A JP 2010161281 A JP2010161281 A JP 2010161281A JP 2012020027 A JP2012020027 A JP 2012020027A
Authority
JP
Japan
Prior art keywords
image processing
image
area
processor
electronic endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010161281A
Other languages
Japanese (ja)
Inventor
Tetsushi Kobayashi
徹至 小林
Yuichi Kawabata
祐一 河端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2010161281A priority Critical patent/JP2012020027A/en
Publication of JP2012020027A publication Critical patent/JP2012020027A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a processor for an electronic endoscope, obtainable of an endoscope image in which prescribed image processing for recessed part emphasis or the like is performed only to a prescribed area so as to facilitate the identification of an affected part.SOLUTION: The processor for the electronic endoscope includes an input means for receiving the specification of an area in the endoscope image, and an image processing means for performing image processing to the area of at least a part of the endoscope image. Only inside the area specified through the input means of the endoscope image, the prescribed image processing by the image processing means is performed.

Description

本発明は、接続された電子内視鏡から送信される映像信号を処理してモニタに表示させるためのビデオ信号を生成する電子内視鏡用プロセッサに関する。   The present invention relates to an electronic endoscope processor for processing a video signal transmitted from a connected electronic endoscope and generating a video signal for display on a monitor.

電子内視鏡、電子内視鏡用プロセッサ、光源装置及びモニタ等から構成される電子内視鏡装置が、体腔の観察に広く利用されている。   An electronic endoscope apparatus including an electronic endoscope, an electronic endoscope processor, a light source device, a monitor, and the like is widely used for observation of a body cavity.

電子内視鏡装置の観察対象が胃や腸などの消化器の粘膜である場合、モニタに表示される内視鏡画像は、全体的に赤味がかったものとなり、粘膜の微妙な凹凸を判別することは容易ではない。そして、このような場合には、青色系の色素溶液、例えばインジゴカルミン溶液を粘膜表面に撒布して判別を容易にすることが知られている。色素溶液は、粘膜の凹部に移動するため、内視鏡画像上での青色の領域を凹部として判別することができる。   When the observation target of the electronic endoscopic device is the mucous membrane of the digestive organs such as the stomach and intestine, the endoscopic image displayed on the monitor is entirely reddish, and subtle unevenness of the mucous membrane is distinguished. It is not easy to do. In such a case, it is known that a blue pigment solution, for example, an indigo carmine solution, is distributed on the mucosal surface to facilitate discrimination. Since the dye solution moves to the concave portion of the mucous membrane, the blue region on the endoscopic image can be identified as the concave portion.

しかし、上記の構成においては、色素の撒布が必要であるため検査時間が長くなり、また、一旦色素の撒布を行った後は、暫くの間、元の(色素の撒布が行われていない)状態での内視鏡観察を行うことができないという問題を有する。そのため、特許文献1に示される構成のように、色素を用いずに所定の画像処理によって凹部を青色で表示する構成も提案されている。   However, in the above configuration, since the dye is required to be distributed, the inspection time becomes long. After the dye is once distributed, the original (the dye is not distributed) for a while. There is a problem that endoscopic observation in a state cannot be performed. For this reason, a configuration in which the concave portion is displayed in blue by a predetermined image processing without using a dye has been proposed as in the configuration shown in Patent Document 1.

特許第3869698号Japanese Patent No. 3896698

しかし、上記の特許文献1の構成は、内視鏡画像の全体に所定の画像処理を加えるものであるため、画面全体が青みがかった状態となり、かえって患部の識別が困難となる場合があった。   However, since the configuration of Patent Document 1 described above adds predetermined image processing to the entire endoscopic image, the entire screen becomes bluish, which sometimes makes it difficult to identify the affected area.

本発明は上記の問題を解決するためになされたものである。すなわち、本発明は、患部の識別が容易となるように所定の領域のみに凹部強調等の所定の画像処理が行われた内視鏡画像を得ることが可能な電子内視鏡用プロセッサを提供することを目的とする。   The present invention has been made to solve the above problems. That is, the present invention provides an electronic endoscope processor capable of obtaining an endoscopic image in which predetermined image processing such as recess emphasis is performed only on a predetermined region so that an affected part can be easily identified. The purpose is to do.

上記の目的を達成するため、本発明の電子内視鏡用プロセッサは、内視鏡画像中の領域の指定を受け付ける入力手段と、内視鏡画像の少なくとも一部の領域に所定の画像処理を行う画像処理手段とを有し、内視鏡画像の、前記入力手段を介して指定された領域内のみに、画像処理手段による所定の画像処理が行われることを特徴とする。   In order to achieve the above object, an electronic endoscope processor according to the present invention includes input means for receiving designation of an area in an endoscopic image, and predetermined image processing on at least a partial area of the endoscopic image. Image processing means for performing predetermined image processing by the image processing means only in an area of the endoscopic image designated through the input means.

このような構成とすると、内視鏡画像中の、凹部強調等の所定の画像処理が行われる領域が、入力手段を介して指定された領域のみに制限され、他の領域には上記所定の画像処理は行われない。このため、電子内視鏡用プロセッサの使用者が所定の画像処理を行う領域を入力手段を介して適切に設定することによって、患部の識別が容易となる。   With such a configuration, an area in the endoscopic image where predetermined image processing such as recess emphasis is performed is limited to only an area specified via the input unit, and the predetermined area is limited to other areas. No image processing is performed. For this reason, the user of the electronic endoscope processor appropriately sets an area where predetermined image processing is performed via the input means, thereby facilitating identification of the affected area.

また、電子内視鏡用プロセッサが、所定の画像処理が行われた内視鏡画像を表示する表示手段を内蔵する構成とすることが好ましい。さらに好ましくは、表示手段が入力手段としての機能を有するタッチパネルモニタであり、タッチパネルモニタに所定の画像処理を行う前の内視鏡画像を表示させた状態でタッチパネルモニタが操作されることによって、該内視鏡画像中の領域が指定される。   Further, it is preferable that the electronic endoscope processor has a built-in display means for displaying an endoscopic image on which predetermined image processing has been performed. More preferably, the display means is a touch panel monitor having a function as an input means, and the touch panel monitor is operated in a state in which an endoscope image before performing predetermined image processing is displayed on the touch panel monitor. A region in the endoscopic image is designated.

このような構成とすると、タッチパネルモニタに表示された内視鏡画像を参照しながら、タッチパネル操作によって、所定の画像処理が行われる領域の指定を容易に行うことができる。   With such a configuration, it is possible to easily specify a region where predetermined image processing is performed by a touch panel operation while referring to an endoscopic image displayed on the touch panel monitor.

なお、上記所定の画像処理が行われる領域を指定する方法としては、タッチパネルモニタがドラッグ操作された時に該ドラッグ操作の軌跡によって形成される閉領域を所定の画像処理が行われる領域として指定する、タッチパネルモニタがドラッグ操作された時に該ドラッグ操作の始点と終点を対角とする矩形を所定の画像処理が行われる領域として指定する、タッチパネルモニタ上の二点がポイントされた時に、該ポイントされた二点を対角とする矩形を所定の画像処理が行われる領域として指定する、タッチパネルモニタ上の一点がポイントされた時に、該ポイントされた一点を含む所定形状の領域を所定の画像処理が行われる領域として指定する、或いは、タッチパネルモニタ上の領域がポイントされた時に、該ポイントされた領域を所定の画像処理が行われる領域として指定する方法等が挙げられる。   In addition, as a method of designating the area where the predetermined image processing is performed, a closed area formed by the drag operation locus is designated as an area where the predetermined image processing is performed when the touch panel monitor is dragged. When the touch panel monitor is dragged, a rectangle whose diagonal is the start and end points of the drag operation is designated as an area where predetermined image processing is performed. When two points on the touch panel monitor are pointed, When a point on the touch panel monitor is pointed, a rectangle with two points as diagonals is designated as an area on which predetermined image processing is performed. Predetermined image processing is performed on an area of a predetermined shape including the pointed point. When the area on the touch panel monitor is pointed, the pointed area is A method in which designated as an area where the image processing of the constant is performed and the like.

また、表示手段上に表示される、所定の画像処理が行われた内視鏡画像が自動的に更新される構成としてもよい。また、上記構成においては、内視鏡画像が自動的に更新される際に、所定の画像処理が行われる領域の更新前の内視鏡画像の特徴と、更新後の内視鏡画像の特徴とを比較し、更新後の内視鏡画像において所定の画像処理が行われる領域の更新前の内視鏡画像と特徴が一致する領域を、該更新後の内視鏡画像において所定の画像処理が行われる領域とする構成とすることが好ましい。   Moreover, it is good also as a structure which the endoscope image displayed on the display means and in which the predetermined image processing was performed is updated automatically. Further, in the above configuration, when the endoscope image is automatically updated, the characteristics of the endoscope image before the update of the area where the predetermined image processing is performed and the characteristics of the endoscope image after the update are performed. And, in the updated endoscopic image, a region whose characteristics match the pre-updated endoscopic image is subjected to predetermined image processing in the updated endoscopic image. It is preferable to set it as the area | region where this is performed.

このような構成とすると、内視鏡観察中に内視鏡の挿入管先端部が移動するなどして、所定の画像処理を行うべき領域が内視鏡画像中で移動したとしても、所定の画像処理を行うべき領域に所定の画像処理が行われる。   With such a configuration, even if the region where the predetermined image processing is to be performed is moved in the endoscopic image because the distal end portion of the insertion tube of the endoscope is moved during the endoscopic observation, Predetermined image processing is performed on an area where image processing is to be performed.

また、入力手段を介して指定された領域の外側に、所定の画像処理とは異なる画像処理が行われる構成としてもよい。   Further, a configuration in which image processing different from the predetermined image processing is performed outside the region designated via the input means may be adopted.

以上のように、本発明によれば、患部の識別が容易となるように所定の領域のみに凹部強調等の所定の画像処理が行われた内視鏡画像を得ることが可能な電子内視鏡用プロセッサが実現される。   As described above, according to the present invention, it is possible to obtain an endoscopic image in which an endoscopic image in which predetermined image processing such as recess emphasis is performed only in a predetermined region so that the affected part can be easily identified. A mirror processor is implemented.

図1は、本実施形態の電子内視鏡装置のブロック図である。FIG. 1 is a block diagram of the electronic endoscope apparatus of the present embodiment. 図2は、本実施形態の電子内視鏡用プロセッサのコントローラによって実行される画像処理ルーチンのフローチャートである。FIG. 2 is a flowchart of an image processing routine executed by the controller of the electronic endoscope processor of the present embodiment. 図3は、第1の方法による所定の画像処理が行われる領域の選択手順を示した内視鏡画像の一例である。FIG. 3 is an example of an endoscopic image illustrating a procedure for selecting a region where predetermined image processing is performed by the first method. 図4は、第2の方法による所定の画像処理が行われる領域の選択手順を示した内視鏡画像の一例である。FIG. 4 is an example of an endoscopic image showing a procedure for selecting a region where predetermined image processing is performed by the second method. 図5は、第3の方法による所定の画像処理が行われる領域の選択手順を示した内視鏡画像の一例である。FIG. 5 is an example of an endoscopic image showing a procedure for selecting a region where predetermined image processing is performed by the third method. 図6は、図2の画像処理ルーチンから呼び出される、画像更新サブルーチンのフローチャートである。FIG. 6 is a flowchart of an image update subroutine called from the image processing routine of FIG.

以下、本発明の実施の形態について説明する。図1は、本実施形態の電子内視鏡装置1のブロック図である。図1に示されるように、本実施形態の電子内視鏡装置1は、電子内視鏡100と、電子内視鏡用プロセッサ200と、モニタ300を有する。   Embodiments of the present invention will be described below. FIG. 1 is a block diagram of an electronic endoscope apparatus 1 according to this embodiment. As shown in FIG. 1, the electronic endoscope apparatus 1 of the present embodiment includes an electronic endoscope 100, an electronic endoscope processor 200, and a monitor 300.

電子内視鏡100は、その挿入管110の先端部(挿入管先端部)111近傍には、対物レンズ121及び撮像素子122が内蔵されている。挿入管先端部111には、撮像用カバーガラス125が設けられており、撮像用カバーガラス125を透過した光による像は対物レンズ121によって撮像素子122の受光面上で結像するようになっている。   The electronic endoscope 100 includes an objective lens 121 and an imaging element 122 in the vicinity of the distal end portion (insertion tube distal end portion) 111 of the insertion tube 110. An imaging cover glass 125 is provided at the distal end portion 111 of the insertion tube, and an image of light transmitted through the imaging cover glass 125 is formed on the light receiving surface of the imaging element 122 by the objective lens 121. Yes.

撮像素子122は、その受光面上で結像した像に対応する映像信号を出力する。映像信号は、挿入管110の内部に配されている信号ケーブル126を介して、電子内視鏡100のコネクタ部160に内蔵された信号処理回路124に送られる。撮像素子122の上記の処理は、CCD駆動回路123から撮像素子122に入力されるタイミングパルスによって制御されるようになっている。また、CCD駆動回路123によるタイミングパルスの出力タイミングは、コネクタ部160に内蔵されたマイコン151によって制御される。   The image sensor 122 outputs a video signal corresponding to the image formed on the light receiving surface. The video signal is sent to a signal processing circuit 124 built in the connector unit 160 of the electronic endoscope 100 via a signal cable 126 arranged inside the insertion tube 110. The above processing of the image sensor 122 is controlled by timing pulses input from the CCD drive circuit 123 to the image sensor 122. The timing pulse output timing from the CCD drive circuit 123 is controlled by the microcomputer 151 built in the connector unit 160.

信号処理回路124は、撮像素子122から送られた映像信号をA/D変換して、マイコン151に送る。マイコン151は、得られたデジタルの映像信号を、通信制御部152を介して電子内視鏡用プロセッサ200に送信する。   The signal processing circuit 124 A / D converts the video signal sent from the image sensor 122 and sends it to the microcomputer 151. The microcomputer 151 transmits the obtained digital video signal to the electronic endoscope processor 200 via the communication control unit 152.

電子内視鏡用プロセッサ200には、信号変換部241、画像処理部242、画像データメモリ243、通信制御部244が内蔵されている。電子内視鏡100の通信制御部152から出力される映像信号は、信号変換部241にて画像処理部242が処理可能な信号に変換された後、画像処理部242に送られる。画像処理部242は、信号変換部241から送られた映像信号を、画像データとして画像データメモリ243に記憶させる。また、画像処理部242は、画像データメモリ243に記憶された画像データに対して、画像処理を行うことができる。さらに、画像処理部242は、所定のタイミングで、画像データメモリ243に記憶された画像データを読み出して、通信制御部244に送る。通信制御部244は、画像処理部242から送られる画像データを、所定の形式のビデオ信号(例えばNTSC信号)に変換し、電内視鏡用プロセッサ200のケース201に実装されているコネクタ245に送る。モニタ300は、コネクタ245を介して電子内視鏡用プロセッサ200と接続されており、コネクタ245を介して得られるビデオ信号に基づいて内視鏡画像を表示させる。   The electronic endoscope processor 200 includes a signal conversion unit 241, an image processing unit 242, an image data memory 243, and a communication control unit 244. The video signal output from the communication control unit 152 of the electronic endoscope 100 is converted into a signal that can be processed by the image processing unit 242 by the signal conversion unit 241, and then sent to the image processing unit 242. The image processing unit 242 stores the video signal transmitted from the signal conversion unit 241 in the image data memory 243 as image data. Further, the image processing unit 242 can perform image processing on the image data stored in the image data memory 243. Further, the image processing unit 242 reads out the image data stored in the image data memory 243 at a predetermined timing, and sends it to the communication control unit 244. The communication control unit 244 converts the image data sent from the image processing unit 242 into a video signal of a predetermined format (for example, an NTSC signal), and connects it to the connector 245 mounted on the case 201 of the endoscope processor 200. send. The monitor 300 is connected to the electronic endoscope processor 200 via the connector 245 and displays an endoscopic image based on a video signal obtained via the connector 245.

以上説明した処理によって、電子内視鏡100の挿入管先端部111近傍の映像が、モニタ300に表示される。ここで、撮像素子122は一定のタイミングで映像信号を出力し、画像処理部242は受信した映像信号を順次処理して画像データメモリ243に記憶されている画像データを更新している。そのため、モニタ300には、電子内視鏡100の挿入管先端部111近傍の映像が動画として表示される。   Through the processing described above, an image in the vicinity of the insertion tube distal end portion 111 of the electronic endoscope 100 is displayed on the monitor 300. Here, the image sensor 122 outputs a video signal at a fixed timing, and the image processing unit 242 sequentially processes the received video signal to update the image data stored in the image data memory 243. For this reason, the monitor 300 displays an image of the vicinity of the insertion tube distal end portion 111 of the electronic endoscope 100 as a moving image.

なお、信号変換部241、画像処理部242及び通信制御部244が映像信号や画像データを処理するタイミングは、電子内視鏡用プロセッサ200に内蔵されているタイミングジェネレータ231から出力されるタイミングパルスによって制御されている。また、タイミングジェネレータ231が上記タイミングパルスを出力するタイミングは、電子内視鏡用プロセッサ200のコントローラ211によって制御されている。   Note that the timing at which the signal conversion unit 241, the image processing unit 242, and the communication control unit 244 process video signals and image data is based on the timing pulse output from the timing generator 231 built in the electronic endoscope processor 200. It is controlled. The timing at which the timing generator 231 outputs the timing pulse is controlled by the controller 211 of the electronic endoscope processor 200.

また、電子内視鏡用プロセッサ200は、電子内視鏡100の挿入管先端部111近傍を照明するための照明光を生成する光源装置としての機能を有する。以下、電子内視鏡用プロセッサ200の照明装置としての機能について説明する。   The electronic endoscope processor 200 has a function as a light source device that generates illumination light for illuminating the vicinity of the insertion tube distal end portion 111 of the electronic endoscope 100. Hereinafter, the function of the electronic endoscope processor 200 as an illumination device will be described.

図1に示されるように、電子内視鏡用プロセッサ200には、ランプ電源回路221、ランプ222及び集光レンズ223を有する。また、電子内視鏡100の挿入管110及びコネクタ部160には、ライトガイド132が配置されている。ライトガイド132の先端部132aは、電子内視鏡100の挿入管先端部111近傍に配置されている。また、ライトガイド132の先端部132a近傍には照明用レンズ133が設けられており、且つ挿入管先端部111の照明用レンズ133の近傍には、照明用カバーガラス131が配置されている。   As shown in FIG. 1, the electronic endoscope processor 200 includes a lamp power supply circuit 221, a lamp 222, and a condenser lens 223. A light guide 132 is disposed on the insertion tube 110 and the connector portion 160 of the electronic endoscope 100. The distal end portion 132 a of the light guide 132 is disposed in the vicinity of the insertion tube distal end portion 111 of the electronic endoscope 100. Further, an illumination lens 133 is provided in the vicinity of the distal end portion 132 a of the light guide 132, and an illumination cover glass 131 is disposed in the vicinity of the illumination lens 133 of the insertion tube distal end portion 111.

電子内視鏡用プロセッサ200に内蔵されているランプ222はランプ電源回路221からの電力供給によって照明光を生成する。そして、生成された照明光は、集光レンズ223に入射する。また、ライトガイド132は、コネクタ部160にて電子内視鏡100が電子内視鏡用プロセッサ200に接続された状態では、電子内視鏡用プロセッサ200の内部に挿入されるようになっている。この、ライトガイド132が電子内視鏡用プロセッサ200に挿入された状態では、ライトガイド132の基端部132bは、集光レンズ223によって集光された照明光が入射するような位置にある。この結果、ランプ222によって生成された照明光は、ライトガイド132の基端部132bに入射し、ライトガイド132を通って先端部132aに達し、照明用レンズ133及び照明用カバーガラス131を通過して挿入管先端部111近傍の生体組織を照明する。なお、ランプ電源回路221は、コントローラ211によって制御されるようになっている。すなわち、コントローラ211は、ランプ電源回路221を制御して、ランプ222に供給する電流の大きさを調整し、照明光の明るさを変更することができる。   The lamp 222 built in the electronic endoscope processor 200 generates illumination light by supplying power from the lamp power supply circuit 221. Then, the generated illumination light enters the condenser lens 223. The light guide 132 is inserted into the electronic endoscope processor 200 in a state where the electronic endoscope 100 is connected to the electronic endoscope processor 200 at the connector portion 160. . In a state where the light guide 132 is inserted into the electronic endoscope processor 200, the base end portion 132 b of the light guide 132 is at a position where the illumination light condensed by the condenser lens 223 is incident. As a result, the illumination light generated by the lamp 222 is incident on the proximal end portion 132b of the light guide 132, reaches the distal end portion 132a through the light guide 132, and passes through the illumination lens 133 and the illumination cover glass 131. Thus, the living tissue near the insertion tube tip 111 is illuminated. The lamp power circuit 221 is controlled by the controller 211. That is, the controller 211 can control the lamp power supply circuit 221 to adjust the magnitude of the current supplied to the lamp 222 and change the brightness of the illumination light.

また、図1に示されるように、電子内視鏡100には、操作ボタン141が設けられている。操作ボタン141が押されると、操作ボタン141が押されたことを示す信号がマイコン151及び通信制御部152を介して電子内視鏡用プロセッサ200のコントローラ211に送られる。すなわち、コントローラ211は、電子内視鏡100の操作ボタン141が押されたかどうかを判別することができる。   As shown in FIG. 1, the electronic endoscope 100 is provided with an operation button 141. When the operation button 141 is pressed, a signal indicating that the operation button 141 has been pressed is sent to the controller 211 of the electronic endoscope processor 200 via the microcomputer 151 and the communication control unit 152. That is, the controller 211 can determine whether or not the operation button 141 of the electronic endoscope 100 has been pressed.

また、図1に示されるように、電子内視鏡用プロセッサ200は、タッチパネルモニタ251が設けられている。コントローラ211は、タッチパネルモニタ251を制御して、内視鏡画像や操作メニュー等をタッチパネルモニタ251に表示させる、或いは、タッチパネルモニタ251の操作結果(指等がタッチパネルモニタ251のスクリーン上のどの座標に触れられているか)を検知することができる。   Further, as shown in FIG. 1, the electronic endoscope processor 200 is provided with a touch panel monitor 251. The controller 211 controls the touch panel monitor 251 to display an endoscopic image, an operation menu, and the like on the touch panel monitor 251, or the operation result of the touch panel monitor 251 (to which coordinate the finger or the like is on the screen of the touch panel monitor 251 It can be detected).

また、図1に示されるように、電子内視鏡用プロセッサ200には、ストレージ212が設けられている。ストレージ212は、ハードディスクドライブ、半導体メモリ等で構成された記憶装置であり、後述する画像処理ルーチン等、コントローラ211で実行される各種プログラム及び後述する画像処理ルーチンで処理される内視鏡画像を記憶している。コントローラ211は、ストレージ212から適宜必要なプログラムを読み出し実行する。   As shown in FIG. 1, the electronic endoscope processor 200 is provided with a storage 212. The storage 212 is a storage device configured by a hard disk drive, a semiconductor memory, and the like, and stores various programs executed by the controller 211 such as an image processing routine described later and an endoscope image processed by an image processing routine described later. is doing. The controller 211 reads and executes a necessary program from the storage 212 as appropriate.

本実施形態の電子内視鏡装置1は、撮像素子によって撮像された内視鏡画像に対して、所定の画像処理を加えてタッチパネルモニタ251に表示させることができるようになっている。所定の画像処理は、例えば、凹部と判断された領域を青色で示す等の処理である。特定の画素が凹部であるかどうかの判断は、例えば、特定の画素の輝度値と該特定の画素の周囲8ピクセルの輝度値とを比較することによって行われる。   The electronic endoscope apparatus 1 according to the present embodiment can perform predetermined image processing on the endoscopic image captured by the image sensor and display the image on the touch panel monitor 251. The predetermined image processing is, for example, processing for showing a region determined to be a concave portion in blue. The determination as to whether or not a specific pixel is a recess is made, for example, by comparing the luminance value of the specific pixel with the luminance values of the eight pixels surrounding the specific pixel.

また、本実施形態の電子内視鏡装置1においては、電子内視鏡装置1の使用者がタッチパネル操作によって内視鏡画像中の領域を指定し、指定された領域に対して所定の画像処理を行い、他の領域に対しては所定の画像処理が行われないようになっている。これにより、電子内視鏡装置1の使用者は、所望の領域のみに所定の画像処理が加えられた内視鏡画像をタッチパネルモニタ251に表示させることができる。   In the electronic endoscope apparatus 1 of the present embodiment, the user of the electronic endoscope apparatus 1 designates an area in the endoscopic image by a touch panel operation, and predetermined image processing is performed on the designated area. The predetermined image processing is not performed on other areas. Thereby, the user of the electronic endoscope apparatus 1 can display on the touch panel monitor 251 an endoscopic image obtained by performing predetermined image processing only on a desired region.

上記領域の選択及び所定の画像処理は、電子内視鏡用プロセッサ200のコントローラ211が、図2に示される画像処理ルーチンをストレージ212から読み出して実行することによって実現される。なお、画像処理ルーチンは、電子内視鏡装置1の使用者が、タッチパネルモニタ251に表示された操作メニューを参照して、所定の画像処理の指示を入力することにより実行される。   The selection of the area and the predetermined image processing are realized by the controller 211 of the electronic endoscope processor 200 reading out and executing the image processing routine shown in FIG. The image processing routine is executed when the user of the electronic endoscope apparatus 1 refers to an operation menu displayed on the touch panel monitor 251 and inputs a predetermined image processing instruction.

本ルーチンが開始されると、ステップS1が実行される。ステップS1では、コントローラ211は、タイミングジェネレータ231を介して画像処理部242を制御し、画像データメモリ243に保存されている最新フレームの画像データを読み出す。読み出された画像データは、コントローラ211の内部メモリに保存される。そして、コントローラ211は、内部メモリに記憶された画像データの画像をタッチパネルモニタ251に表示させる。次にステップS2に進む。   When this routine is started, step S1 is executed. In step S <b> 1, the controller 211 controls the image processing unit 242 via the timing generator 231 to read out the latest frame image data stored in the image data memory 243. The read image data is stored in the internal memory of the controller 211. Then, the controller 211 causes the touch panel monitor 251 to display an image of the image data stored in the internal memory. Next, the process proceeds to step S2.

ステップS2では、所定の画像処理を行う範囲(選択範囲)の、タッチパネル操作による指定入力を受け付ける。選択範囲の指定方法としては、以下の第1〜第4の方法のいずれかのものが使用される。なお、第1〜第4の方法のいずれによって選択範囲を指定するかは、本ルーチンが実行される前に、タッチパネルモニタ251のメニュー操作等によって設定される。   In step S2, a designation input by a touch panel operation for a range (selection range) in which predetermined image processing is performed is received. Any one of the following first to fourth methods is used as a selection range designation method. Note that which of the first to fourth methods is used to specify the selection range is set by a menu operation or the like of the touch panel monitor 251 before this routine is executed.

第1の方法は、タッチパネルモニタ251上でドラッグ操作を行うことによって選択範囲を指定するものである。図3の内視鏡画像に示されるように、ドラッグ操作によって(ドラッグ操作の軌跡を破線矢印L1で示す)閉領域A1を形成し、この閉領域A1を選択範囲とする。   The first method is to designate a selection range by performing a drag operation on the touch panel monitor 251. As shown in the endoscopic image of FIG. 3, a closed region A1 is formed by a drag operation (the locus of the drag operation is indicated by a dashed arrow L1), and this closed region A1 is set as a selection range.

第2の方法は、第1の方法と同様、ドラッグ操作によって選択範囲を指定するものである。図4の内視鏡画像に示されるように、略直線状にドラッグ操作を行い(ドラッグ操作の軌跡を破線矢印L2で示す)、その始点P21と終点P22を対角とする矩形領域A2を、選択範囲とする。なお、ドラッグ操作を行う代わりに、内視鏡画像中の二点をポイントし、該二点を対角とする矩形領域を選択範囲とする構成としてもよい。   As in the first method, the second method is to designate a selection range by a drag operation. As shown in the endoscopic image of FIG. 4, a drag operation is performed in a substantially straight line (the trajectory of the drag operation is indicated by a broken line arrow L2), and a rectangular area A2 whose diagonal is the start point P21 and the end point P22, Select range. Instead of performing the drag operation, two points in the endoscopic image may be pointed and a rectangular region having the two points as diagonals may be selected.

第3の方法は、内視鏡画像中の一点をポイントすることによって選択範囲を指定するものである。すなわち、図5の内視鏡画像に示されるように、内視鏡画像中の一点P31をポイントし、その点P31を中心とする所定の幅及び高さの矩形領域A3を、選択範囲とする。なお、矩形領域ではなく、点P31を中心とする他の形状の領域(円、楕円等)を選択範囲とする構成としてもよい。また、例えば、点P31を基準とする他の矩形領域、例えば点P31を左上隅とする所定の幅及び高さの矩形領域を選択範囲とする構成としてもよい。   In the third method, a selection range is designated by pointing one point in the endoscopic image. That is, as shown in the endoscopic image of FIG. 5, a point P31 in the endoscopic image is pointed, and a rectangular area A3 having a predetermined width and height around the point P31 is set as a selection range. . In addition, it is good also as a structure which uses not the rectangular area but the area | region (circle, ellipse, etc.) of the other shape centering on the point P31 as a selection range. Further, for example, another rectangular area based on the point P31, for example, a rectangular area having a predetermined width and height with the point P31 as the upper left corner may be used as the selection range.

第4の方法は、内視鏡画像中の領域をポイントすることによって選択範囲を指定するものである。すなわち、指の腹などでタッチパネルモニタ251をベタ押しし、ベタ押しされた領域を選択範囲とする。   The fourth method is to designate a selection range by pointing an area in the endoscopic image. That is, the touch panel monitor 251 is pressed solidly with the finger pad or the like, and the solid pressed area is set as the selection range.

上記第1〜第4の方法のいずれかによって選択範囲が指定された後、ステップS3に進む。   After the selection range is designated by any of the first to fourth methods, the process proceeds to step S3.

ステップS3では、ステップS2で選択された選択範囲に所定の画像処理を加えてタッチパネルモニタ251に表示させる。次に、ステップS4に進む。   In step S3, predetermined image processing is added to the selection range selected in step S2, and the touch panel monitor 251 displays the image. Next, the process proceeds to step S4.

ステップS4では、ステップS3でタッチパネルモニタ251に表示された画像に、所定の画像処理を行う範囲の再指定を行うための第1の選択ボタンと、所定の画像処理の終了を行うための第2の選択ボタンと、画像保存を行うための第3のボタンを表示させ、タッチパネルモニタ251の入力を受け付ける。なお、本ルーチンが実行される前に、ユーザ設定によって、第1の選択ボタンを表示させない(すなわち、選択範囲の再指定を受け付けない)ようにすることも可能である。   In step S4, the image displayed on the touch panel monitor 251 in step S3 is a first selection button for re-designating a range for performing predetermined image processing, and a second for ending predetermined image processing. And a third button for saving an image are displayed, and input from the touch panel monitor 251 is accepted. Note that the first selection button may not be displayed (that is, re-designation of the selection range is not accepted) according to user settings before this routine is executed.

ステップS4においてタッチパネル操作によって第1の選択ボタンが選択された場合は(S4:再指定)、ステップS1に戻る。すなわち、コントローラ211は、再度画像データメモリから最新の内視鏡画像の画像データを読み出して、タッチパネルモニタ251に表示させる。なお、本ルーチンが実行される前にユーザ設定によって設定された時間(例えば10分)第1の選択ボタンが操作されなかった場合に、自動的にステップS1が実行されるようになっている。また、ユーザ設定によって、自動的にステップS4からステップS1に分岐しないようにすることも可能である。   When the first selection button is selected by the touch panel operation in step S4 (S4: re-designation), the process returns to step S1. In other words, the controller 211 reads the latest endoscopic image data from the image data memory again and displays it on the touch panel monitor 251. Note that step S1 is automatically executed when the first selection button is not operated for a time (for example, 10 minutes) set by the user setting before this routine is executed. It is also possible not to automatically branch from step S4 to step S1 according to user settings.

なお、ステップS4において第1の選択ボタンを選択する代わりに、内視鏡画像中の任意の箇所に対してポイント又はドラッグ操作の開始を行うことによって、ステップS1に戻る構成としてもよい。   Note that instead of selecting the first selection button in step S4, a point or drag operation may be started at any location in the endoscopic image, and the process may return to step S1.

また、ステップS4においてタッチパネル操作によって第2の選択ボタンが選択された場合は(S4:終了)、ステップS5に進む。ステップS5では、タッチパネルモニタ251に表示されている内視鏡画像を消去した後、本ルーチンを終了する。   If the second selection button is selected by the touch panel operation in step S4 (S4: end), the process proceeds to step S5. In step S5, the endoscope image displayed on the touch panel monitor 251 is erased, and then this routine is terminated.

また、ステップS4において第3のボタンが選択された場合は(S4:画像保存)、ステップS6に進む。ステップS6では、所定の画像処理が施された内視鏡画像が、電子内視鏡用プロセッサ200に内蔵されたストレージ212に保存される。次いでステップS4に戻る。   If the third button is selected in step S4 (S4: save image), the process proceeds to step S6. In step S <b> 6, the endoscopic image on which the predetermined image processing has been performed is stored in the storage 212 built in the electronic endoscope processor 200. Next, the process returns to step S4.

なお、本実施形態においては、タッチパネル操作によって、選択範囲の再指定、所定の画像処理の終了、及び画像の保存を選択する構成となっているが、本発明は上記構成に限定されるものではなく、電子内視鏡100の操作ボタン141(図1)を操作することによって上記選択を行う構成としてもよい。   In the present embodiment, the selection range is specified again, the end of predetermined image processing, and the saving of the image are selected by touch panel operation. However, the present invention is not limited to the above configuration. Alternatively, the selection may be performed by operating the operation button 141 (FIG. 1) of the electronic endoscope 100.

また、ステップS4において一定時間(本実施形態では1秒)、タッチパネルモニタ251が操作されなかった場合は(S4:入力無し)、ステップS7に進む。ステップS7では、コントローラ211は画像処理部242を制御して、最新の内視鏡画像の画像データを画像データメモリ243から取得し、取得した画像データに対して所定の画像処理を加えた上でタッチパネルモニタ251に表示させる。次いでステップS4に戻る。   If the touch panel monitor 251 is not operated for a certain time (1 second in the present embodiment) in step S4 (S4: no input), the process proceeds to step S7. In step S <b> 7, the controller 211 controls the image processing unit 242 to acquire the latest endoscopic image image data from the image data memory 243, and after performing predetermined image processing on the acquired image data. It is displayed on the touch panel monitor 251. Next, the process returns to step S4.

上記のように、タッチパネルモニタ251の操作が一定時間以上無いと、タッチパネルモニタ251に表示される画像が更新され続ける。すなわち、タッチパネル操作を行わないままであれば、所定の画像処理が施された内視鏡画像が、動画としてタッチパネルモニタ251に表示される。   As described above, if the operation of the touch panel monitor 251 is not performed for a predetermined time or longer, the image displayed on the touch panel monitor 251 is continuously updated. That is, if the touch panel operation is not performed, an endoscopic image that has undergone predetermined image processing is displayed on the touch panel monitor 251 as a moving image.

また、本実施形態においては、所定の画像処理を行った内視鏡画像が表示されている間に、電子内視鏡100の挿入管先端部111の移動(例えば、挿入管110に対して湾曲動作を行う等)によって、電子内視鏡装置1の使用者が所定の画像処理を望む領域が、ステップS2で指定した範囲からはずれた場合に、電子内視鏡装置1の使用者が所定の画像処理を望む領域の移動にあわせて所定の画像処理を行う選択範囲の再指定を自動的に行うことができるようになっている。上記処理は、図2のステップS7において、図6のフローチャートに示されるサブルーチンをコントローラ211が実行することによって実現される。なお、図2のルーチンが実行される前になされたユーザ設定によって、上記の範囲自動再指定を行わないようにすることもできる。   Further, in the present embodiment, the movement of the insertion tube distal end portion 111 of the electronic endoscope 100 (for example, bending with respect to the insertion tube 110) is performed while an endoscopic image subjected to predetermined image processing is displayed. When the region where the user of the electronic endoscope apparatus 1 desires to perform predetermined image processing deviates from the range specified in step S2 by performing the operation etc., the user of the electronic endoscope apparatus 1 It is possible to automatically re-select a selection range for performing predetermined image processing in accordance with movement of a region where image processing is desired. The above process is realized by the controller 211 executing the subroutine shown in the flowchart of FIG. 6 in step S7 of FIG. It should be noted that the above-described range automatic re-designation can be prevented from being performed by a user setting made before the routine of FIG. 2 is executed.

図6のサブルーチンが開始すると、ステップS11が実行される。ステップS11では、ステップS2(図2)にて選択された領域内の内視鏡画像の特徴が抽出される。具体的には、内視鏡画像の輪郭を抽出し、これをさらに二値化した特徴抽出画像データを得る。なお、上記特徴抽出画像データは、ステップS3の所定の画像処理が行われる前の内視鏡画像から得られたものである。次いで、ステップS12に進む。   When the subroutine of FIG. 6 starts, step S11 is executed. In step S11, the features of the endoscopic image in the region selected in step S2 (FIG. 2) are extracted. Specifically, the contour of the endoscopic image is extracted, and feature-extracted image data obtained by binarizing this is obtained. The feature extraction image data is obtained from an endoscopic image before the predetermined image processing in step S3 is performed. Next, the process proceeds to step S12.

ステップS12では、電子内視鏡用プロセッサ200のコントローラ211は、画像データメモリ243に記憶された最新の内視鏡画像の画像データを取得する。次いで、ステップS13に進む。   In step S <b> 12, the controller 211 of the electronic endoscope processor 200 acquires the latest endoscopic image data stored in the image data memory 243. Next, the process proceeds to step S13.

ステップS13では、ステップS12で取得した画像データの、ステップS2にて選択された選択範囲内の特徴を抽出した特徴抽出画像データを得る。次いで、ステップS14に進む。   In step S13, feature-extracted image data obtained by extracting features in the selection range selected in step S2 of the image data acquired in step S12 is obtained. Next, the process proceeds to step S14.

ステップS14では、ステップS12で取得した最新の内視鏡画像の特徴抽出画像データと、ステップS11で取得した1フレーム前(1秒前)の内視鏡画像の特徴抽出画像データとの比較が行われる。例えば、最新の内視鏡画像の特徴抽出画像データと、1フレーム前の内視鏡画像の特徴抽出画像データとの排他的論理和を演算し、演算結果が“0”となる画素数の選択された領域内の画素数に対する比が所定の閾値を超えた場合に、両特徴抽出画像データが一致しているものと判断する。両特徴抽出画像データが一致しているものと判断された場合は(S14:YES)、ステップS25に進む。両特徴抽出画像データが一致していないものと判断された場合は(S14:NO)、ステップS15に進む。   In step S14, the feature extraction image data of the latest endoscope image acquired in step S12 is compared with the feature extraction image data of the endoscope image one frame before (one second ago) acquired in step S11. Is called. For example, the exclusive OR of the feature extraction image data of the latest endoscope image and the feature extraction image data of the endoscope image one frame before is calculated, and the number of pixels for which the calculation result is “0” is selected. When the ratio to the number of pixels in the specified area exceeds a predetermined threshold value, it is determined that both feature extraction image data match. If it is determined that both feature extraction image data match (S14: YES), the process proceeds to step S25. If it is determined that the two feature extraction image data do not match (S14: NO), the process proceeds to step S15.

ステップS15では、ステップS12で取得した最新の内視鏡画像全体の特徴抽出画像データを取得する。次いで、ステップS16に進む。   In step S15, feature extraction image data of the entire latest endoscopic image acquired in step S12 is acquired. Next, the process proceeds to step S16.

ステップS16では、ステップS11で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるかどうかのチェックが行われる。ステップS11で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるのであれば(S16:YES)、ステップS22に進む。   In step S16, it is checked whether or not the portion that matches the feature extraction image data acquired in step S11 is in the feature extraction image data acquired in step S15. If there is a portion that matches the feature extraction image data acquired in step S11 in the feature extraction image data acquired in step S15 (S16: YES), the process proceeds to step S22.

ステップS22では、ステップS15で取得した特徴抽出画像データ中の、ステップS11で取得した特徴抽出画像データと一致する領域を、新しい選択範囲とする。次いで、ステップS25に進む。   In step S22, an area that matches the feature extraction image data acquired in step S11 in the feature extraction image data acquired in step S15 is set as a new selection range. Next, the process proceeds to step S25.

一方、ステップS16において、ステップS11で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中に見つからなかった場合は(S16:NO)、ステップS17に進む。   On the other hand, in step S16, when a portion matching the feature extraction image data acquired in step S11 is not found in the feature extraction image data acquired in step S15 (S16: NO), the process proceeds to step S17.

ステップS17では、元の(すなわち1フレーム前の)画像の選択範囲部分を、回転させ、次いで回転後の画像の特徴抽出画像データを作成する。具体的には、±90°の範囲内で画像の選択範囲部分を5°刻みに回転させた上で、その夫々について特徴抽出画像データを作成する。次いで、ステップS18に進む。   In step S17, the selected range portion of the original image (that is, one frame before) is rotated, and then feature extracted image data of the rotated image is created. Specifically, after the selected range portion of the image is rotated in increments of 5 ° within a range of ± 90 °, feature extraction image data is created for each. Next, the process proceeds to step S18.

ステップS18では、ステップS17で取得した複数の特徴抽出画像データの夫々について、一致する部分がステップS15で取得した特徴抽出画像データの中にあるかどうかのチェックが行われる。ステップS17で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるのであれば(S18:YES)、ステップS23に進む。   In step S18, for each of the plurality of feature extraction image data acquired in step S17, a check is made as to whether or not there is a matching portion in the feature extraction image data acquired in step S15. If there is a portion that matches the feature extraction image data acquired in step S17 in the feature extraction image data acquired in step S15 (S18: YES), the process proceeds to step S23.

ステップS23では、ステップS15で取得した特徴抽出画像データ中の、ステップS17で取得した特徴抽出画像データと一致する領域を、新しい選択範囲とする。次いで、ステップS25に進む。   In step S23, a region that matches the feature extraction image data acquired in step S17 in the feature extraction image data acquired in step S15 is set as a new selection range. Next, the process proceeds to step S25.

一方、ステップS18において、ステップS17で取得した特徴抽出画像データのいずれに対しても、一致する部分がステップS15で取得した特徴抽出画像データの中に見つからなかった場合は(S18:NO)、ステップS19に進む。   On the other hand, if no matching part is found in the feature extraction image data acquired in step S15 for any of the feature extraction image data acquired in step S17 in step S18 (S18: NO), step Proceed to S19.

ステップS19では、元の(すなわち1フレーム前の)画像の選択範囲部分を、拡大及び縮小させ、次いで拡大及び縮小後の画像の特徴抽出画像データを作成する。具体的には、0.5〜2.0倍の拡大及び縮小範囲内で画像の選択範囲部分の拡大縮小率を0.1倍刻みで変化させた画像の夫々について、特徴抽出画像データを作成する。次いで、ステップS20に進む。   In step S19, the selected range portion of the original image (that is, one frame before) is enlarged and reduced, and then feature extracted image data of the enlarged and reduced image is created. Specifically, feature-extracted image data is created for each of the images in which the enlargement / reduction ratio of the selected area of the image is changed in increments of 0.1 within an enlargement / reduction range of 0.5 to 2.0 times. To do. Next, the process proceeds to step S20.

ステップS20では、ステップS19で取得した複数の特徴抽出画像データの夫々について、一致する部分がステップS15で取得した特徴抽出画像データの中にあるかどうかのチェックが行われる。ステップS19で取得した特徴抽出画像データに一致する部分がステップS15で取得した特徴抽出画像データの中にあるのであれば(S20:YES)、ステップS24に進む。   In step S20, for each of the plurality of feature extraction image data acquired in step S19, it is checked whether or not a matching portion is present in the feature extraction image data acquired in step S15. If there is a portion that matches the feature extraction image data acquired in step S19 in the feature extraction image data acquired in step S15 (S20: YES), the process proceeds to step S24.

ステップS24では、ステップS15で取得した特徴抽出画像データ中の、ステップS19で取得した特徴抽出画像データと一致する領域を、新しい選択範囲とする。次いで、ステップS25に進む。   In step S24, an area that matches the feature extraction image data acquired in step S19 in the feature extraction image data acquired in step S15 is set as a new selection range. Next, the process proceeds to step S25.

ステップS25では、最新の内視鏡画像の選択範囲に所定の画像処理を施し、これをタッチパネルモニタ251に表示させる。次いで、本サブルーチンを終了し、ステップS4(図2)に戻る。   In step S25, predetermined image processing is performed on the selection range of the latest endoscopic image, and this is displayed on the touch panel monitor 251. Next, this subroutine is terminated, and the process returns to step S4 (FIG. 2).

一方、ステップS20において、ステップS19で取得した特徴抽出画像データのいずれに対しても、一致する部分がステップS15で取得した特徴抽出画像データの中に見つからなかった場合は(S20:NO)、ステップS21に進む。   On the other hand, in step S20, if no matching part is found in the feature extraction image data acquired in step S15 for any of the feature extraction image data acquired in step S19 (S20: NO), step Proceed to S21.

ステップS21では、現在の内視鏡画像中には、電子内視鏡装置1の使用者が所定の画像処理を望む領域が含まれていない(該領域が内視鏡画像の外に移動した)ものと判断し、本ルーチンを終了する。なお、ステップS21が実行された直後にステップS4(図2)が実行される場合、ステップS4は電子内視鏡装置1の使用者からのタッチパネル操作を受け付けず、即座にステップS1に進み、選択範囲の再指定の入力を受け付ける。   In step S21, the current endoscopic image does not include an area where the user of the electronic endoscope apparatus 1 desires predetermined image processing (the area has moved out of the endoscopic image). This routine is terminated. When step S4 (FIG. 2) is executed immediately after step S21 is executed, step S4 does not accept a touch panel operation from the user of the electronic endoscope apparatus 1, and immediately proceeds to step S1 for selection. Accept input for re-specifying range.

上記のように、本実施形態の構成においては、電子内視鏡100の移動やズーム等によって電子内視鏡装置1の使用者が所定の画像処理を望む領域が移動した場合であっても、電子内視鏡装置1の使用者が所定の画像処理を望む領域のみに所定の画像処理が行われた状態が維持される。   As described above, in the configuration of the present embodiment, even when a region where the user of the electronic endoscope apparatus 1 desires predetermined image processing is moved by movement or zooming of the electronic endoscope 100, The state where the predetermined image processing is performed only in the region where the user of the electronic endoscope apparatus 1 desires the predetermined image processing is maintained.

以上説明した、本発明の実施形態の電子内視鏡装置1は、使用者によって指定された特定の領域のみに所定の画像処理を行うものである。しかしながら、本発明は上記の構成に限定されるものではない。すなわち、使用者によって指定された領域(選択範囲)内に所定の画像処理を行い、選択範囲外に所定の画像処理とは異なる画像処理を加える構成もまた、本発明に含まれる。   As described above, the electronic endoscope apparatus 1 according to the embodiment of the present invention performs predetermined image processing only on a specific area designated by the user. However, the present invention is not limited to the above configuration. That is, the present invention also includes a configuration in which predetermined image processing is performed within an area (selection range) designated by the user and image processing different from the predetermined image processing is performed outside the selection range.

1 電子内視鏡装置
100 電子内視鏡
200 電子内視鏡用プロセッサ
211 コントローラ
242 画像処理部
243 画像データメモリ
251 タッチパネルモニタ
300 モニタ
1 Electronic Endoscope 100 Electronic Endoscope 200 Electronic Endoscope Processor 211 Controller 242 Image Processing Unit 243 Image Data Memory 251 Touch Panel Monitor 300 Monitor

Claims (11)

電子内視鏡と接続され、該電子内視鏡から出力される内視鏡画像の映像信号を処理してモニタに表示可能なビデオ信号を生成する電子内視鏡用プロセッサであって、
前記内視鏡画像中の領域の指定を受け付ける入力手段と、
前記内視鏡画像の少なくとも一部の領域に所定の画像処理を行う画像処理手段と
を有し、
前記内視鏡画像の、前記入力手段を介して指定された領域内のみに、前記画像処理手段による所定の画像処理が行われることを特徴とする電子内視鏡用プロセッサ。
An electronic endoscope processor that is connected to an electronic endoscope and processes a video signal of an endoscope image output from the electronic endoscope to generate a video signal that can be displayed on a monitor;
Input means for accepting designation of a region in the endoscopic image;
Image processing means for performing predetermined image processing on at least a partial region of the endoscopic image,
A processor for electronic endoscope, wherein predetermined image processing by the image processing means is performed only within a region of the endoscopic image designated through the input means.
前記電子内視鏡用プロセッサが、前記所定の画像処理が行われた内視鏡画像を表示する表示手段を内蔵することを特徴とする請求項1に記載の電子内視鏡用プロセッサ。   2. The electronic endoscope processor according to claim 1, wherein the electronic endoscope processor includes display means for displaying an endoscope image on which the predetermined image processing has been performed. 前記表示手段が、前記入力手段としての機能を有するタッチパネルモニタであり、
前記タッチパネルモニタに所定の画像処理を行う前の内視鏡画像を表示させた状態で、前記タッチパネルモニタが操作されることによって内視鏡画像中の領域が指定される
ことを特徴とする請求項2に記載の電子内視鏡用プロセッサ。
The display means is a touch panel monitor having a function as the input means;
The region in the endoscopic image is designated by operating the touch panel monitor in a state where the endoscopic image before performing predetermined image processing is displayed on the touch panel monitor. The processor for electronic endoscopes of 2.
前記タッチパネルモニタがドラッグ操作された時に、該ドラッグ操作の軌跡によって形成される閉領域が、前記所定の画像処理が行われる領域として指定されることを特徴とする請求項3に記載の電子内視鏡用プロセッサ。   4. The electronic endoscope according to claim 3, wherein when the touch panel monitor is dragged, a closed area formed by a trajectory of the drag operation is designated as an area where the predetermined image processing is performed. Mirror processor. 前記タッチパネルモニタがドラッグ操作された時に、該ドラッグ操作の始点と終点を対角とする矩形が、前記所定の画像処理が行われる領域として指定されることを特徴とする請求項3に記載の電子内視鏡用プロセッサ。   4. The electronic device according to claim 3, wherein when the touch panel monitor is dragged, a rectangle whose diagonal is a start point and an end point of the drag operation is designated as an area where the predetermined image processing is performed. Endoscopy processor. 前記タッチパネルモニタ上の二点がポイントされた時に、該ポイントされた二点を対角とする矩形が、前記所定の画像処理が行われる領域として指定されることを特徴とする請求項3に記載の電子内視鏡用プロセッサ。   4. The rectangle according to claim 3, wherein when two points on the touch panel monitor are pointed, a rectangle having the two pointed points as diagonals is designated as an area where the predetermined image processing is performed. Processor for electronic endoscope. 前記タッチパネルモニタ上の一点がポイントされた時に、該ポイントされた一点を含む所定形状の領域が、前記所定の画像処理が行われる領域として指定されることを特徴とする請求項3に記載の電子内視鏡用プロセッサ。   The electronic device according to claim 3, wherein when a point on the touch panel monitor is pointed, an area having a predetermined shape including the pointed point is designated as an area on which the predetermined image processing is performed. Endoscopy processor. 前記タッチパネルモニタ上の領域がポイントされた時に、該ポイントされた領域が前記所定の画像処理が行われる領域として指定されることを特徴とする請求項3に記載の電子内視鏡用プロセッサ。   4. The electronic endoscope processor according to claim 3, wherein when the area on the touch panel monitor is pointed, the pointed area is designated as an area on which the predetermined image processing is performed. 前記表示手段上に表示される、所定の画像処理が行われた内視鏡画像は、自動的に更新されることを特徴とする請求項2から請求項8のいずれか一項に記載の電子内視鏡用プロセッサ。   The electronic image according to any one of claims 2 to 8, wherein the endoscope image displayed on the display means and subjected to predetermined image processing is automatically updated. Endoscopy processor. 前記内視鏡画像が自動的に更新される際に、所定の画像処理が行われる領域の更新前の内視鏡画像の特徴と、更新後の内視鏡画像の特徴とを比較し、更新後の内視鏡画像において所定の画像処理が行われる領域の更新前の内視鏡画像と特徴が一致する領域を、該更新後の内視鏡画像において所定の画像処理が行われる領域とすることを特徴とする請求項9に記載の電子内視鏡用プロセッサ。   When the endoscope image is automatically updated, the feature of the endoscope image before the update of the region where the predetermined image processing is performed is compared with the feature of the endoscope image after the update, and updated. An area in which the features of the endoscope image before the update of the area in which the predetermined image processing is performed in the subsequent endoscopic image is the area in which the predetermined image processing is performed in the endoscope image after the update The electronic endoscope processor according to claim 9. 前記入力手段を介して指定された領域の外側に、前記所定の画像処理とは異なる画像処理が行われることを特徴とする請求項1から請求項10のいずれか一項に記載の電子内視鏡用プロセッサ。
11. The electronic endoscope according to claim 1, wherein an image process different from the predetermined image process is performed outside a region designated via the input unit. Mirror processor.
JP2010161281A 2010-07-16 2010-07-16 Processor for electronic endoscope Pending JP2012020027A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010161281A JP2012020027A (en) 2010-07-16 2010-07-16 Processor for electronic endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010161281A JP2012020027A (en) 2010-07-16 2010-07-16 Processor for electronic endoscope

Publications (1)

Publication Number Publication Date
JP2012020027A true JP2012020027A (en) 2012-02-02

Family

ID=45774812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010161281A Pending JP2012020027A (en) 2010-07-16 2010-07-16 Processor for electronic endoscope

Country Status (1)

Country Link
JP (1) JP2012020027A (en)

Similar Documents

Publication Publication Date Title
US20170112356A1 (en) Image processing apparatus, image processing method, computer-readable recording medium, and endoscope system
US20230086972A1 (en) Medical image processing device, endoscope system, medical image processing method, and program
JP7135082B2 (en) Endoscope device, method of operating endoscope device, and program
US20180307933A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP5455550B2 (en) Processor for electronic endoscope
JP2004121372A (en) Apparatus for diagnostic assistance
JP2009213627A (en) Endoscopic examination system and examination method using the same
JP5927370B1 (en) Imaging apparatus and processing apparatus
US20210307587A1 (en) Endoscope system, image processing device, total processing time detection method, and processing device
JP2018139846A (en) Endoscope system and operation method thereof
JP2012020028A (en) Processor for electronic endoscope
JP2018139848A (en) Endoscope system and operation method thereof
JP5581122B2 (en) Electronic endoscope device
JP6774552B2 (en) Processor device, endoscopic system and how to operate the processor device
JP2006223850A (en) Electronic endoscope system
JPWO2020054255A1 (en) How to operate the endoscope device, the endoscope processor, and the endoscope device
US10462440B2 (en) Image processing apparatus
EP4285810A1 (en) Medical image processing device, method, and program
JP2007236598A (en) Processor and electronic endoscope system
JP2012020027A (en) Processor for electronic endoscope
JP6937902B2 (en) Endoscope system
JP2017123997A (en) Imaging system and processing device
JP4373726B2 (en) Auto fluorescence observation device
US20230347170A1 (en) Phototherapy device, phototherapy method, and computer-readable recording medium
US20230347168A1 (en) Phototherapy device, phototherapy method, and computer-readable recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130510