JP6027793B2 - Endoscope device - Google Patents

Endoscope device Download PDF

Info

Publication number
JP6027793B2
JP6027793B2 JP2012149700A JP2012149700A JP6027793B2 JP 6027793 B2 JP6027793 B2 JP 6027793B2 JP 2012149700 A JP2012149700 A JP 2012149700A JP 2012149700 A JP2012149700 A JP 2012149700A JP 6027793 B2 JP6027793 B2 JP 6027793B2
Authority
JP
Japan
Prior art keywords
image
unit
image processing
signal
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012149700A
Other languages
Japanese (ja)
Other versions
JP2014012037A (en
Inventor
正充 小笠原
正充 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012149700A priority Critical patent/JP6027793B2/en
Publication of JP2014012037A publication Critical patent/JP2014012037A/en
Application granted granted Critical
Publication of JP6027793B2 publication Critical patent/JP6027793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、内視鏡装置に関し、被写体の傷等をリアルタイムに計測する内視鏡装置に関する。   The present invention relates to an endoscope apparatus, and more particularly to an endoscope apparatus that measures a scratch or the like of a subject in real time.

従来、体腔内に細長の挿入部を挿入することにより、体腔内臓器等を観察したり、必要に応じ処置具チャンネル内に挿通した処置具を用いて各種治療処置のできる内視鏡が広く利用されている。また、工業用分野においても、ボイラ、タービン、エンジン、化学プラント等の内部の傷、腐食等の観察、検査に工業用内視鏡が広く用いられている。   Conventionally, endoscopes capable of observing organs in a body cavity by inserting an elongated insertion portion into a body cavity or performing various therapeutic treatments using a treatment instrument inserted into a treatment instrument channel as required are widely used. Has been. Also in the industrial field, industrial endoscopes are widely used for observing and inspecting internal scratches and corrosion of boilers, turbines, engines, chemical plants, and the like.

このような近年の工業用内視鏡には、内視鏡先端部に2つの光学系を搭載しそれぞれの光学系から得られた左右の視差画像を利用して3次元データを傷の長さ/面積などを数値化する画像計測機能があり、特にエンジン検査で用いられる。計測機能には静止画からの傷の長さ/面積を数値化する静止画計測、それを動画で行うリアルタイム計測がある。   In such a recent industrial endoscope, two optical systems are mounted at the distal end portion of the endoscope, and the left and right parallax images obtained from the respective optical systems are used to obtain the length of the scratches. / There is an image measurement function that digitizes the area, etc., and it is used especially for engine inspection. Measurement functions include still image measurement that digitizes the length / area of scratches from a still image, and real-time measurement that performs this with moving images.

例えば、特許文献1には、1対の対物レンズを有する光学アダプタにより得られる被計測物の左右2つの画像データをステレオ画像処理することにより3次元計測を行う計測内視鏡装置において、あらかじめフロッピディスクに記録された光学アダプタの光学データにより、上記2つの画像データの幾何学的歪み等の補正を行い、その補正後の画像データに基づいて3次元計測を行うものが記載されている。   For example, in Patent Document 1, a measurement endoscope apparatus that performs three-dimensional measurement by performing stereo image processing on two left and right image data of an object to be measured obtained by an optical adapter having a pair of objective lenses is pre-floppy. There is described a technique in which geometrical distortion or the like of the two image data is corrected by optical data of an optical adapter recorded on a disk, and three-dimensional measurement is performed based on the corrected image data.

また、このような計測技術には正確性が求められる。例えば、ジェット機のエンジン検査では、このような技術により得られた計測結果の情報を基に、エンジン内部の部品を交換すべきかどうかを判断しているためである。計測の精度を向上させるためには左右画像のマッチング精度を向上させることが必要で、その精度を向上させるために様々な発明がなされている。   In addition, such measurement technology requires accuracy. This is because, for example, in an engine inspection of a jet aircraft, it is determined whether or not parts inside the engine should be replaced based on information on measurement results obtained by such a technique. In order to improve the accuracy of measurement, it is necessary to improve the matching accuracy of left and right images, and various inventions have been made to improve the accuracy.

その計測精度を向上させる発明としては、例えば、参考文献2のような技術で、この技術は表示用画像(見やすいように画像処理済の画像)とは別の画像処理を行った計測用画像(計測上不要な画像処理を行っていない)を生成する。2つの画像を比較して、計測に適した画像を選択し、選択した画像を元に計測を行うことで、画像処理によって生じる計測精度の劣化を防止する発明がなされている。   As an invention for improving the measurement accuracy, for example, a technique such as Reference 2 is used, and this technique is an image for measurement (image that has been subjected to image processing different from an image for display (an image that has been processed for ease of viewing)). Image processing unnecessary for measurement is not performed). An invention has been made in which two images are compared, an image suitable for measurement is selected, and measurement is performed based on the selected image, thereby preventing deterioration in measurement accuracy caused by image processing.

特開平10−248806号公報Japanese Patent Laid-Open No. 10-248806 特開2009−15210号公報JP 2009-15210 A

映像信号処理部(例えばFPGA)から計測用画像選択部(例えばCPU)へ映像信号を伝送する場合、参考文献2では、2種類の映像を伝送しなくてはならない。ライブ画像をフリーズして計測を行う場合は、ユーザに対してフリーズした画像を表示しておき、その表示状態を保ったまま、計測に最適な画像を選択するという手法がとれる。   In the case of transmitting a video signal from a video signal processing unit (for example, FPGA) to a measurement image selection unit (for example, CPU), in Reference Document 2, two types of video must be transmitted. When performing measurement by freezing a live image, a method can be used in which the frozen image is displayed to the user, and an optimal image for measurement is selected while the display state is maintained.

しかしながら、ライブ画像を表示しながら、同時に計測を行うリアルタイム計測の場合には、第1の動画像(表示用画像)と第2の動画像(計測用画像)を同時に伝送するために、これらを時系列に切り替えて計測用画像選択部に伝送する必要がある。その場合には、表示用画像のフレームレートが低下、すなわち、表示画像の品質が低下するという問題がある。   However, in the case of real-time measurement in which measurement is performed simultaneously while displaying a live image, the first moving image (display image) and the second moving image (measurement image) are transmitted at the same time. It is necessary to switch to time series and transmit to the measurement image selection unit. In that case, there is a problem that the frame rate of the display image is lowered, that is, the quality of the display image is lowered.

フレームレートの低下を防ぐためには、計測用画像選択部に送信する映像信号の帯域あるいはバス幅を2倍にする必要があり、回路規模や消費電力の増加を招くという問題がある。   In order to prevent a decrease in the frame rate, it is necessary to double the bandwidth or bus width of the video signal transmitted to the measurement image selection unit, resulting in an increase in circuit scale and power consumption.

そこで、本発明は、画像伝送の帯域、若しくはバス幅を上げずに画像計測機能に最適な画像を伝送して計測機能のリアルタイム計測の精度を確保すると共に、表示画像の品質を確保することができる内視鏡装置を提供することを目的とする。   Therefore, the present invention can transmit the optimum image for the image measurement function without increasing the bandwidth or bus width of the image transmission to ensure the accuracy of the real-time measurement of the measurement function and ensure the quality of the display image. An object of the present invention is to provide an endoscopic device that can be used.

本発明の一態様の内視鏡装置は、細長な挿入部と、前記挿入部の先端に配置された対物レンズにより取り込んだ被写体像を撮像する撮像部と、前記撮像部で得られた信号を信号処理し、リアルタイム計測を行う際に、ガンマ補正処理及び輪郭補正処理が施されていない未処理画像信号と、前記ガンマ補正処理及び前記輪郭補正処理が施された通常画像信号とが並んだ動画像データを出力する画像処理部と、前記画像処理部から出力された前記未処理画像信号に対して画像計測処理を行う画像計測部と、前記画像処理部から出力された前記未処理画像信号に対してのみ、少なくともガンマ補正処理を含む追加画像処理を施す追加画像処理部と、前記追加画像処理部で前記追加画像処理が施された出力画像信号を表示する表示部と、前記撮像部で得られた前記信号の動き量を検出する動き検出部と、を有し、前記画像処理部は、前記動き検出部の検出結果に応じて、前記動画像データ内に挿入する前記未処理画像信号の割合を変更するAn endoscope apparatus according to an aspect of the present invention includes an elongated insertion unit, an imaging unit that captures a subject image captured by an objective lens disposed at a distal end of the insertion unit, and a signal obtained by the imaging unit. A video in which unprocessed image signals that have not been subjected to gamma correction processing and contour correction processing and normal image signals that have been subjected to gamma correction processing and contour correction processing are arranged when performing signal processing and real-time measurement . An image processing unit that outputs image data , an image measurement unit that performs image measurement processing on the unprocessed image signal output from the image processing unit, and the unprocessed image signal output from the image processing unit. only for, a display unit for displaying at least the additional image processing section for additional image processing performed including gamma correction processing, an output image signal the additional image processing in the additional image processing unit is performed in the image pickup unit Was anda motion detector for detecting the motion amount of the signal, the image processing unit according to the detection result of the motion detecting unit, of the raw image signal to be inserted into said video data Change the percentage .

本発明の内視鏡装置によれば、画像伝送の帯域、若しくはバス幅を上げずに画像計測機能に最適な画像を伝送して計測機能のリアルタイム計測の精度を確保すると共に、表示画像の品質を確保することができる。   According to the endoscope apparatus of the present invention, it is possible to transmit the optimum image for the image measurement function without increasing the image transmission band or bus width, and to ensure the accuracy of the real-time measurement of the measurement function, and to improve the quality of the display image. Can be secured.

第1の実施の形態に係る内視鏡装置の構成を示す図である。It is a figure which shows the structure of the endoscope apparatus which concerns on 1st Embodiment. 第1の実施の形態の本体部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the main-body part of 1st Embodiment. 第1の実施の形態のリアルタイム計測処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the real-time measurement process of 1st Embodiment. 第2の実施の形態の本体部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the main-body part of 2nd Embodiment. EEPROMに格納されているテーブルデータの例を説明するための図である。It is a figure for demonstrating the example of the table data stored in EEPROM. 画像処理部22aで生成される動画像データの例を説明するための図である。It is a figure for demonstrating the example of the moving image data produced | generated by the image process part 22a. 動き量が大きい場合に出力される動画像データのイメージを示す図である。It is a figure which shows the image of the moving image data output when a motion amount is large. 動き量が通常の場合に出力される動画像データのイメージを示す図である。It is a figure which shows the image of the moving image data output when a motion amount is normal. 動き量が小さい場合に出力される動画像データのイメージを示す図である。It is a figure which shows the image of the moving image data output when a motion amount is small. 第2の実施の形態のリアルタイム計測処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the real-time measurement process of 2nd Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)

まず、図1を用いて、本発明の第1の実施の形態の内視鏡装置の構成について説明する。   First, the configuration of the endoscope apparatus according to the first embodiment of the present invention will be described with reference to FIG.

図1は、第1の実施の形態に係る内視鏡装置の構成を示す図である。
(全体構成)
FIG. 1 is a diagram illustrating a configuration of an endoscope apparatus according to the first embodiment.
(overall structure)

図1に示すように、内視鏡装置1は、細長で可撓性を有する挿入部2と、この挿入部2が着脱自在に接続され、挿入部2に搭載された撮像素子に対する信号処理を行う本体部3と、この本体部3から出力される画像信号が入力されることにより撮像素子で撮像された画像を内視鏡画像として表示する表示部としてのLCD4とを有して構成されている。   As shown in FIG. 1, an endoscope apparatus 1 is a slender and flexible insertion section 2, and the insertion section 2 is detachably connected, and performs signal processing on an imaging device mounted on the insertion section 2. The main body unit 3 to be performed and the LCD 4 as a display unit that displays an image captured by the image sensor as an endoscopic image when an image signal output from the main body unit 3 is input. Yes.

本体部3には、記録媒体5が取り付け可能となっており、記録媒体5に静止画、動画記録が可能となっている。また、挿入部2と本体部3との着脱部分には、それぞれ電気的な接続を行うための着脱コネクタ6a及び6b、湾曲用ワイヤを接続する湾曲ワイヤ接続機構7a及び7bが配置されている。   A recording medium 5 can be attached to the main body 3, and still images and moving images can be recorded on the recording medium 5. In addition, detachable connectors 6a and 6b for electrical connection and bending wire connection mechanisms 7a and 7b for connecting a bending wire are arranged at the detachable portion between the insertion portion 2 and the main body portion 3, respectively.

挿入部2の先端部には、右目用レンズ8a及び左目用レンズ8bが取り付けてあり、その結像位置に撮像素子として例えば電荷結合素子(以下、CCDと略記)9が配置されている。また、挿入部2の先端部には、被検体を照明する照明用のLED10と、湾曲用ワイヤを固定するワイヤ固定部11と、先端部の温度を計測するサーミスタ12とが配置されている。なお、本実施の形態では、左右2つの画像データから計測を行うステレオ計測の場合について説明するが、例えば、1つの画像データから2点間の距離等の計測を行うスケーラ計測であっても適することができる。即ち、挿入部2は、右目用レンズ8a及び左目用レンズ8bを有する構成に限定されることなく、1つの対物レンズを有する構成であってもよい。   A right-eye lens 8a and a left-eye lens 8b are attached to the distal end portion of the insertion portion 2. For example, a charge-coupled device (hereinafter abbreviated as a CCD) 9 is disposed as an imaging device at the imaging position. Further, an illumination LED 10 that illuminates the subject, a wire fixing portion 11 that fixes a bending wire, and a thermistor 12 that measures the temperature of the tip portion are disposed at the distal end portion of the insertion portion 2. In the present embodiment, a case of stereo measurement in which measurement is performed from two left and right image data will be described. However, for example, scaler measurement in which a distance between two points is measured from one image data is also suitable. be able to. That is, the insertion portion 2 is not limited to the configuration having the right-eye lens 8a and the left-eye lens 8b, and may have a configuration having one objective lens.

また、本体部3は、プリアンプ20と、アナログフロントエンド(以下、AFEと略記)21と、画像処理部22と、タイミングジェネレータ23と、CCDドライブ回路24と、LEDドライブ回路25と、湾曲制御部26と、UD湾曲モータ27と、RL湾曲モータ28と、ユーザインターフェース29と、システム制御部30とを有して構成される。システム制御部30は、画像計測部31と、フリーズ部32と、画像記録部33と、追加画像処理部34とを有して構成される。
(LED制御)
The main body 3 includes a preamplifier 20, an analog front end (hereinafter abbreviated as AFE) 21, an image processing unit 22, a timing generator 23, a CCD drive circuit 24, an LED drive circuit 25, and a bending control unit. 26, a UD bending motor 27, an RL bending motor 28, a user interface 29, and a system control unit 30. The system control unit 30 includes an image measurement unit 31, a freeze unit 32, an image recording unit 33, and an additional image processing unit 34.
(LED control)

挿入部2の先端部に配置された照明用のLED10は、挿入部2内に挿通されたケーブルを介してLEDドライブ回路25と接続されている。このLEDドライブ回路25は、システム制御部30と接続されている。LEDドライブ回路25は、システム制御部30のLED点灯信号により、LED12の点灯/消灯を制御する。システム制御部30は、ユーザインターフェース29からの入力(LED12のON/OFF信号)を受け取り、LEDドライブ回路25を制御する。
(湾曲制御)
The illumination LED 10 disposed at the distal end portion of the insertion portion 2 is connected to the LED drive circuit 25 via a cable inserted into the insertion portion 2. The LED drive circuit 25 is connected to the system control unit 30. The LED drive circuit 25 controls the lighting / extinguishing of the LED 12 according to the LED lighting signal of the system control unit 30. The system control unit 30 receives an input (ON / OFF signal of the LED 12) from the user interface 29 and controls the LED drive circuit 25.
(Curvature control)

挿入部2の先端部にはワイヤ固定部11が配置されており、このワイヤ固定部11に4本のワイヤが接続されている。それらの4本のワイヤは、先端部を上下左右方向に湾曲させるものであり、上下方向を制御する2本のワイヤはUD湾曲モータ27に接続され、左右方向を制御する2本のワイヤはRL湾曲モータ28に接続されている。なお、図1においては、UD湾曲モータ27及びRL湾曲モータ28に接続されるワイヤをそれぞれ1本のみ記載している。   A wire fixing portion 11 is disposed at the distal end portion of the insertion portion 2, and four wires are connected to the wire fixing portion 11. These four wires curve the tip in the vertical and horizontal directions, the two wires that control the vertical direction are connected to the UD bending motor 27, and the two wires that control the horizontal direction are RL. The bending motor 28 is connected. In FIG. 1, only one wire connected to each of the UD bending motor 27 and the RL bending motor 28 is shown.

UD湾曲モータ27、及び、RL湾曲モータ28は、それぞれ湾曲制御部26に接続されている。この湾曲制御部26は、システム制御部30に接続さている。   The UD bending motor 27 and the RL bending motor 28 are each connected to the bending control unit 26. The bending control unit 26 is connected to the system control unit 30.

ユーザインターフェース29には、挿入部2の先端部を湾曲させる湾曲用ジョイスティックが搭載されており、その湾曲用ジョイスティックを上下方向に傾倒されると、システム制御部30は湾曲制御部26に上下方向湾曲指示信号を送信する。湾曲制御部26は、受信した上下方向湾曲指示信号に基づいて、UD湾曲モータ27を駆動制御してUD湾曲モータ27に接続さているワイヤを牽引する。それにより、挿入部2の先端部を上下方向に湾曲することができる。   The user interface 29 is equipped with a bending joystick that bends the distal end portion of the insertion unit 2. When the bending joystick is tilted up and down, the system control unit 30 causes the bending control unit 26 to bend up and down. An instruction signal is transmitted. The bending control unit 26 drives and controls the UD bending motor 27 based on the received vertical bending instruction signal, and pulls the wire connected to the UD bending motor 27. Thereby, the front-end | tip part of the insertion part 2 can be curved to an up-down direction.

左右方向の湾曲も同様に、挿入部2の先端部を湾曲させる湾曲用ジョイスティックが左右方向に傾倒されると、システム制御部30は湾曲制御部26に左右方向湾曲指示信号を送信する。湾曲制御部26は、受信した左右方向湾曲指示信号に基づいてRL湾曲モータ28を駆動制御してRL湾曲モータ28に接続さているワイヤを牽引する。それにより、挿入部2の先端部を左右方向に湾曲することができる。
(画像処理)
Similarly, when the bending joystick that bends the distal end portion of the insertion unit 2 is tilted in the left-right direction, the system control unit 30 transmits a left-right bending instruction signal to the bending control unit 26. The bending control unit 26 drives and controls the RL bending motor 28 based on the received left and right direction bending instruction signal, and pulls the wire connected to the RL bending motor 28. Thereby, the front-end | tip part of the insertion part 2 can be curved in the left-right direction.
(Image processing)

LED12により照明された被写体は、挿入部2の先端部に配置された右目用レンズ8a及び左目用レンズ8bによる結像位置に配置された、撮像部としてのCCD9に結像され、光電変換される。このCCD9に接続される複合同軸ケーブルは、CCDドライブ回路24及びプリアンプ20に接続される。   The subject illuminated by the LED 12 is imaged and photoelectrically converted on the CCD 9 as an imaging unit arranged at an imaging position by the right-eye lens 8a and the left-eye lens 8b arranged at the distal end of the insertion unit 2. . The composite coaxial cable connected to the CCD 9 is connected to the CCD drive circuit 24 and the preamplifier 20.

CCDドライブ回路24は、タイミングジェネレータ23から、CCD9を駆動するためのタイミング信号を受信する。そして、CCDドライブ回路24は、受信したタイミング信号に対して、CCD9までの伝送路長(複合同軸ケーブルの長さ)に応じたドライブ処理を施して、CCD駆動信号としてCCD9に伝送する。   The CCD drive circuit 24 receives a timing signal for driving the CCD 9 from the timing generator 23. Then, the CCD drive circuit 24 performs drive processing corresponding to the transmission path length to the CCD 9 (the length of the composite coaxial cable) on the received timing signal and transmits it to the CCD 9 as a CCD drive signal.

CCD9は、CCDドライブ回路24からのCCD駆動信号のタイミングに基づいて光電変換を行い、CCD出力信号を出力する。このCCD出力信号は、複合同軸ケーブルを介してプリアンプ20に入力される。プリアンプ20は、複合同軸ケーブルでの伝送により減衰した信号レベルを補うためにCCD出力信号を増幅する。   The CCD 9 performs photoelectric conversion based on the timing of the CCD drive signal from the CCD drive circuit 24 and outputs a CCD output signal. This CCD output signal is input to the preamplifier 20 via a composite coaxial cable. The preamplifier 20 amplifies the CCD output signal to compensate for the signal level attenuated by transmission through the composite coaxial cable.

プリアンプ20により増幅されたCCD出力信号は、AFE21に入力される。AFE21は、プリアンプ20により増幅されたCCD出力信号に、CDS処理(相関2重サンプリング処理)、AGC処理(オートゲインコントロール処理)、及びAD変換処理を施し、画像処理部22に出力する。   The CCD output signal amplified by the preamplifier 20 is input to the AFE 21. The AFE 21 performs a CDS process (correlated double sampling process), an AGC process (auto gain control process), and an AD conversion process on the CCD output signal amplified by the preamplifier 20 and outputs the result to the image processing unit 22.

画像処理部22は、ホワイトバランス、電子ZOOM、色補正、コントラスト補正、AE制御、フリーズ等の各種カメラ信号処理を行う。この画像処理部22は、計測を行うのに不適切な画像処理が施されていない画像を出力する。計測を行うのに不適切な画像処理とは、ガンマ補正及び輪郭補正である。なお、以下の説明では、ガンマ補正及び輪郭補正が行われていない画像を未処理画像ともいう。画像処理部22は、この未処理画像を画像計測部31及びフリーズ部32に出力する。   The image processing unit 22 performs various camera signal processes such as white balance, electronic ZOOM, color correction, contrast correction, AE control, and freeze. The image processing unit 22 outputs an image that has not been subjected to image processing inappropriate for measurement. Image processing inappropriate for performing measurement is gamma correction and contour correction. In the following description, an image that has not been subjected to gamma correction and contour correction is also referred to as an unprocessed image. The image processing unit 22 outputs the unprocessed image to the image measurement unit 31 and the freeze unit 32.

画像処理部22は、システム制御部30と通信を行い、システム制御部30がユーザインターフェース29からの入力(ZOOM信号、Brightness信号等)を受け取り、それぞれに対応した指示を画像処理部22に対して出力し、その指示に従って画像処理部22が各処理を行う。
(画像記録)
The image processing unit 22 communicates with the system control unit 30, and the system control unit 30 receives an input (ZOOM signal, Brightness signal, etc.) from the user interface 29, and gives instructions corresponding to each to the image processing unit 22. The image processing unit 22 performs each process according to the instruction.
(Image recording)

画像記録部33は、静止画記録、動画記録の制御を行う。画像記録部33にフリーズ部32を介して入力された画像信号は、画像記録部33内の図示しないエンコーダにより圧縮され、静止画、若しくは動画として記録媒体5に記録される。この画像記録動作は、システム制御部30がユーザインターフェース29からの入力に基づいて記録信号を送信して、それを画像記録部33が受信した場合に行われる。なお、画像記録部33は、一旦画面のフリーズが実施しされた後に記録をする場合には静止画撮影(静止画記録)を行い、フリーズが実施されずに記録をする場合には動画撮影(動画記録)を行う。   The image recording unit 33 controls still image recording and moving image recording. The image signal input to the image recording unit 33 via the freeze unit 32 is compressed by an encoder (not shown) in the image recording unit 33 and recorded on the recording medium 5 as a still image or a moving image. This image recording operation is performed when the system control unit 30 transmits a recording signal based on an input from the user interface 29 and the image recording unit 33 receives it. The image recording unit 33 performs still image shooting (still image recording) when recording is performed after the screen has been frozen once, and moving image shooting (still image recording when recording is performed without being frozen). Video recording).

また、記録媒体5に記録されている静止画、若しくは動画は、画像記録部33内の図示しないデコーダにより伸張され、後述するLCDコントローラ51(図2参照)に出力され、LCD4に出力される。この画像再生動作は、システム制御部30がユーザインターフェース29からの入力に基づいて再生信号を送信して、それを画像記録部33が受信した場合に行われる。
(画像計測)
Further, the still image or moving image recorded on the recording medium 5 is expanded by a decoder (not shown) in the image recording unit 33, output to an LCD controller 51 (see FIG. 2) described later, and output to the LCD 4. This image reproduction operation is performed when the system control unit 30 transmits a reproduction signal based on an input from the user interface 29 and the image recording unit 33 receives it.
(Image measurement)

画像計測部31には画像処理部22から出力された画像信号が入力される。画像計測部31は、その画像信号に対して3次元計測を行う。計測処理は動画像に対する計測(リアルタイム計測)と、静止画に対する計測(静止画計測)との2種類が存在する。まず、静止画に対する静止画計測について説明する。   The image measurement unit 31 receives the image signal output from the image processing unit 22. The image measurement unit 31 performs three-dimensional measurement on the image signal. There are two types of measurement processing: measurement for moving images (real-time measurement) and measurement for still images (still image measurement). First, still image measurement for a still image will be described.

画像処理部22は、ユーザからの計測指示があった場合、一旦、画像処理部22側でフリーズを行い、フリーズ画像を確定させる。その後、システム制御部30内にあるフリーズ部32でフリーズを行う。次に、画像処理部22は、側のフリーズを解除し、未処理画像を画像計測部31に出力する。画像計測部31は、この記未処理画像に対して計測を行い、その結果を追加画像処理部34に出力する。
(追加画像処理)
When there is a measurement instruction from the user, the image processing unit 22 once freezes the image processing unit 22 to determine the freeze image. Thereafter, the freeze is performed by the freeze unit 32 in the system control unit 30. Next, the image processing unit 22 cancels the side freeze and outputs an unprocessed image to the image measurement unit 31. The image measuring unit 31 measures the unprocessed image and outputs the result to the additional image processing unit 34.
(Additional image processing)

追加画像処理部34は、フリーズ部32でフリーズされたガンマ補正及び輪郭補正等の各画像処理が施されていない未処理画像に対して、ガンマ補正及び輪郭補正を施し、観察に最適な画像(LCD4に表示するのに最適な画像)を生成する。そして、追加画像処理部34は、この観察に最適な画像に画像計測部31から出力された計測結果を重畳し、LED4に出力する。   The additional image processing unit 34 performs gamma correction and contour correction on an unprocessed image that has not been subjected to image processing such as gamma correction and contour correction, which has been frozen by the freeze unit 32, and provides an optimal image for observation ( An optimal image to be displayed on the LCD 4 is generated. Then, the additional image processing unit 34 superimposes the measurement result output from the image measurement unit 31 on the image optimal for the observation, and outputs the result to the LED 4.

この処理により、ユーザに対しては、画像処理が施された観察に最適な画像を提供すると共に、画像計測部31では計測に最適な未処理画像で計測を行うことができる。
(LCD表示)
By this processing, the user can be provided with an image optimal for observation subjected to image processing, and the image measurement unit 31 can perform measurement with an unprocessed image optimal for measurement.
(LCD display)

画像記録部33より出力された画像信号は、LCDコントローラ51に出力される。LCDコントローラ51では、接続されているLCD4に最適な画像処理(ガンマ補正、輪郭補正、スケーリング、RGB変換、等)を画像信号に施し、LCD4に画像を出力する。LCD4は、入力された画像信号に基づき画像信号を表示画像として表示する。
(温度制御)
The image signal output from the image recording unit 33 is output to the LCD controller 51. The LCD controller 51 performs image processing (gamma correction, contour correction, scaling, RGB conversion, etc.) optimal for the connected LCD 4 on the image signal, and outputs an image to the LCD 4. The LCD 4 displays the image signal as a display image based on the input image signal.
(Temperature control)

挿入部2の先端部に配置されたサーミスタ12は、ケーブルを介してシステム制御部30と接続されている。システム制御部30は、サーミスタ12からの情報を基づき、挿入部2の先端の温度情報をLCD4に表示する。また、システム制御部30は、挿入部2の先端部の温度が所定の温度以上になった場合、温度上昇の警告をLCD4に表示する。   The thermistor 12 disposed at the distal end of the insertion unit 2 is connected to the system control unit 30 via a cable. Based on information from the thermistor 12, the system control unit 30 displays temperature information at the tip of the insertion unit 2 on the LCD 4. In addition, when the temperature of the distal end portion of the insertion unit 2 becomes equal to or higher than a predetermined temperature, the system control unit 30 displays a temperature increase warning on the LCD 4.

次に、本体部の詳細な構成と、リアルタイム計測について説明する。図2は、第1の実施の形態の本体部の詳細な構成を示すブロック図である。   Next, a detailed configuration of the main body and real-time measurement will be described. FIG. 2 is a block diagram illustrating a detailed configuration of the main body according to the first embodiment.

図2に示すように、画像処理部22は、色差変換部40と、色信号処理部41と、重畳回路42とを有して構成されている。また、追加画像処理部34は、LCDコントローラ51を有し、このLEDコントローラ51は、少なくともガンマ補正部52と、輪郭補正部53と、重畳回路54とを有して構成されている。   As shown in FIG. 2, the image processing unit 22 includes a color difference conversion unit 40, a color signal processing unit 41, and a superimposing circuit 42. The additional image processing unit 34 includes an LCD controller 51. The LED controller 51 includes at least a gamma correction unit 52, a contour correction unit 53, and a superimposing circuit 54.

AFE21から出力されたCCD9のRAWデータは、画像処理部22の色差変換部40に入力される。入力されたRAWデータは、色差変換部40によりY(輝度)/CbCr(色差)信号に分離される。CbCr信号は、色信号処理部41に入力され、Y信号は、重畳回路42に出力される。色信号処理部41は、入力されたCbCr信号に色信号処理を施し、重畳回路42に出力する。   The raw data of the CCD 9 output from the AFE 21 is input to the color difference conversion unit 40 of the image processing unit 22. The input RAW data is separated into Y (luminance) / CbCr (color difference) signals by the color difference conversion unit 40. The CbCr signal is input to the color signal processing unit 41, and the Y signal is output to the superimposing circuit 42. The color signal processing unit 41 performs color signal processing on the input CbCr signal and outputs it to the superimposing circuit 42.

重畳回路42は、色差変換部40からのY信号と、色信号処理部41で色信号処理が施されたCbCr信号とを重畳し、画像計測部31及びLCDコントローラ51に出力する。このように、画像処理部22では、計測を行うのに影響のある画像処理(すなわち、計測を行うのに不適切な画像処理であるガンマ補正及び輪郭補正)が施されず、計測を行うのに影響のない画像処理(例えば色信号処理)のみが施される。これにより、計測を行うのに不適切な画像処理が施されていない未処理画像が、画像計測部31及びLCDコントローラ51に出力されることになる。   The superimposing circuit 42 superimposes the Y signal from the color difference conversion unit 40 and the CbCr signal subjected to the color signal processing by the color signal processing unit 41, and outputs the superimposed signal to the image measurement unit 31 and the LCD controller 51. As described above, the image processing unit 22 performs measurement without performing image processing (that is, gamma correction and contour correction, which are image processing inappropriate for performing measurement), which affects measurement. Only image processing (for example, color signal processing) that does not affect the color is performed. As a result, an unprocessed image that has not been subjected to image processing inappropriate for measurement is output to the image measurement unit 31 and the LCD controller 51.

画像計測部31は、計測を行うのに不適切な画像処理が施されていない未処理画像を用いて3次元計測を行い、その計測結果をLCDコントローラ51に出力する。   The image measurement unit 31 performs three-dimensional measurement using an unprocessed image that has not been subjected to image processing inappropriate for measurement, and outputs the measurement result to the LCD controller 51.

一方、重畳回路42から出力された未処理画像は、ガンマ補正部52でガンマ補正処理が施された後、輪郭補正部53で輪郭補正処理が施され、重畳回路54に出力される。重畳回路54は、ガンマ補正処理及び輪郭補正処理が施された観察に適した画像に計測結果を重畳し、LCD4に出力する。   On the other hand, the unprocessed image output from the superimposing circuit 42 is subjected to gamma correction processing by the gamma correction unit 52, subjected to contour correction processing by the contour correction unit 53, and output to the superimposing circuit 54. The superimposing circuit 54 superimposes the measurement result on an image suitable for observation subjected to gamma correction processing and contour correction processing, and outputs the result to the LCD 4.

次に、このように構成された内視鏡装置の動作について説明する。   Next, the operation of the endoscope apparatus configured as described above will be described.

図3は、第1の実施の形態のリアルタイム計測処理の流れの例を示すフローチャートである。   FIG. 3 is a flowchart illustrating an example of a flow of real-time measurement processing according to the first embodiment.

まず、内視鏡装置1の電源がONされると(ステップS1)、通常画像処理が実行される(ステップS2)。次に、ユーザからのリアルタイム計測指示があるか否かが判定される(ステップS3)。リアルタイム計測指示がないと判定された場合、NOとなり、ステップS2に戻り、通常画像表示を行いながらリアルタイム計測指示の待ち状態となる。一方、リアルタイム計測指示があると判定された場合、YESとなり、画像計測部31が未処理画像を用いて3次元計測を行う(ステップS4)。   First, when the power of the endoscope apparatus 1 is turned on (step S1), normal image processing is executed (step S2). Next, it is determined whether or not there is a real-time measurement instruction from the user (step S3). If it is determined that there is no real-time measurement instruction, the determination is NO, and the process returns to step S2 to wait for a real-time measurement instruction while displaying a normal image. On the other hand, if it is determined that there is a real-time measurement instruction, the determination is YES, and the image measurement unit 31 performs three-dimensional measurement using the unprocessed image (step S4).

次に、LCDコントローラ51が未処理画像に対して画像処理を施し(ステップS5)、画像計測部31で計測した計測結果をLCDコントローラ51内で画像に重畳する(ステップS6)。最後に、LCDコントローラ51がLCD4に対して重畳した画像を出力する(ステップS7)。その後は、リアルタイム計測指示が解除されるまで、ステップS4に戻り、同様の処理を繰り返す。   Next, the LCD controller 51 performs image processing on the unprocessed image (step S5), and the measurement result measured by the image measuring unit 31 is superimposed on the image in the LCD controller 51 (step S6). Finally, the LCD controller 51 outputs an image superimposed on the LCD 4 (step S7). Thereafter, the process returns to step S4 and the same processing is repeated until the real-time measurement instruction is canceled.

以上のように、内視鏡装置1は、計測を行うのに不適切な画像処理が施されていない未処理画像を画像処理部22から出力し、画像計測部31で計測を行うとともに、追加画像処理部34で表示に最適な画像となるように画像処理を行うようにした。この結果、画像処理部22からシステム制御部30への画像伝送の帯域やバス幅を上げずに計測に適した未処理画像が伝送でき、かつ、表示には適していない未処理画像を表示に適した画像にすることができる。   As described above, the endoscope apparatus 1 outputs an unprocessed image that has not been subjected to image processing inappropriate for measurement from the image processing unit 22, performs measurement by the image measurement unit 31, and adds The image processing unit 34 performs image processing so as to obtain an optimal image for display. As a result, an unprocessed image suitable for measurement can be transmitted without increasing the image transmission band and bus width from the image processing unit 22 to the system control unit 30, and an unprocessed image not suitable for display can be displayed. A suitable image can be obtained.

よって、本実施の形態の内視鏡装置によれば、画像伝送の帯域、若しくはバス幅を上げずに画像計測機能に最適な画像を伝送して計測機能のリアルタイム計測の精度を確保すると共に、表示画像の品質を確保することができる。
(第2の実施の形態)
Therefore, according to the endoscope apparatus of the present embodiment, while ensuring the accuracy of real-time measurement of the measurement function by transmitting an image optimal for the image measurement function without increasing the bandwidth of the image transmission or the bus width, The quality of the display image can be ensured.
(Second Embodiment)

次に、第2の実施の形態について説明する。   Next, a second embodiment will be described.

第1の実施の形態の内視鏡装置1は、画像処理部22から未処理画像を常に出力し、システム制御部30の追加画像処理部34で表示に適した画像となるような画像処理(ガンマ補正及び輪郭補正)を行っているため、システム制御部30の負荷が大きくなってしまう。システム制御部30は、内視鏡装置1全体の制御を行っているため、画像処理による負荷を小さくするのが望ましい。そこで、第2の実施の形態では、システム制御部30の負荷を小さくすることができる内視鏡装置について説明する。   The endoscope apparatus 1 according to the first embodiment always outputs an unprocessed image from the image processing unit 22 and performs image processing (an image suitable for display) by the additional image processing unit 34 of the system control unit 30 ( (Gamma correction and contour correction), the load on the system control unit 30 increases. Since the system control unit 30 controls the entire endoscope apparatus 1, it is desirable to reduce the load caused by image processing. Therefore, in the second embodiment, an endoscope apparatus that can reduce the load on the system control unit 30 will be described.

図4は、第2の実施の形態の本体部の詳細な構成を示すブロック図である。なお、図4において、図2と同様の構成については、同一の符号を付して説明を省略する。   FIG. 4 is a block diagram illustrating a detailed configuration of the main body according to the second embodiment. In FIG. 4, the same components as those in FIG. 2 are denoted by the same reference numerals and description thereof is omitted.

図4に示すように、第2の実施の形態の本体部3は、第1の実施の形態の画像処理部22及び追加画像処理部34に代わり、それぞれ画像処理部22a及び追加画像処理部34aを用いて構成されている。   As shown in FIG. 4, the main body unit 3 of the second embodiment is replaced with an image processing unit 22a and an additional image processing unit 34a, respectively, instead of the image processing unit 22 and the additional image processing unit 34 of the first embodiment. It is comprised using.

画像処理部22aは、図2の色差変換部40、色信号処理部41及び重畳回路42に加え、動き検出部43、ガンマ補正部44、輪郭補正部45、補正制御部46及びEEPROM47を追加して構成されている。また、追加画像処理部34aは、図2のLCDコントローラ51に加え、未処理画像判別部50を追加して構成されている。   The image processing unit 22a adds a motion detection unit 43, a gamma correction unit 44, a contour correction unit 45, a correction control unit 46, and an EEPROM 47 in addition to the color difference conversion unit 40, the color signal processing unit 41, and the superposition circuit 42 shown in FIG. Configured. The additional image processing unit 34a is configured by adding an unprocessed image determination unit 50 in addition to the LCD controller 51 of FIG.

AFE21から出力されたCCD9のRAWデータは、画像処理部22の色差変換部40に入力される。入力されたRAWデータは、色差変換部40によりY(輝度)/CbCr(色差)信号に分離され、動き検出部43に入力される。   The raw data of the CCD 9 output from the AFE 21 is input to the color difference conversion unit 40 of the image processing unit 22. The input RAW data is separated into Y (luminance) / CbCr (color difference) signals by the color difference conversion unit 40 and input to the motion detection unit 43.

動き検出部43は、入力された画像の動き量を算出し、算出した動き量情報を補正制御部46に出力する。なお、本実施の形態では、動き量を検出する動き検出部43を設ける構成であるが、例えば、挿入部2の先端部にジャイロセンサを設けて動きを検出するようにしてもよい。だたし、挿入部2の先端部にジャイロセンサを設ける構成の場合、挿入部2の太径化を招く虞があるため、画像データから動きを検出する動き検出部43を用いて動きを検出している。   The motion detection unit 43 calculates a motion amount of the input image and outputs the calculated motion amount information to the correction control unit 46. In the present embodiment, the motion detection unit 43 that detects the amount of motion is provided. However, for example, a gyro sensor may be provided at the distal end of the insertion unit 2 to detect the motion. However, in the case where the gyro sensor is provided at the distal end portion of the insertion portion 2, there is a possibility that the diameter of the insertion portion 2 may be increased. Therefore, the motion is detected using the motion detection unit 43 that detects the motion from the image data. doing.

また、動き検出部43から出力されたCbCr信号は、色信号処理部41で色信号処理が施されて、重畳回路42に出力される。一方、動き検出部43から出力されたY信号は、ガンマ補正部44でガンマ補正処理が施された後、輪郭補正部45で輪郭補正処理が施され、重畳回路42に出力される。このとき、ガンマ補正部44及び輪郭補正部45は、補正制御部46からの制御に基づき、ガンマ補正及び輪郭補正を行うか否かを決定する。   The CbCr signal output from the motion detection unit 43 is subjected to color signal processing by the color signal processing unit 41 and output to the superimposing circuit 42. On the other hand, the Y signal output from the motion detection unit 43 is subjected to gamma correction processing by the gamma correction unit 44, subjected to contour correction processing by the contour correction unit 45, and output to the superimposing circuit 42. At this time, the gamma correction unit 44 and the contour correction unit 45 determine whether to perform gamma correction and contour correction based on the control from the correction control unit 46.

補正制御部46は、動き検出部43から受信した動き量情報に基づいて、未処理画像を挿入する頻度をEEPROM47に格納されているテーブルデータを参照して決定する。   The correction control unit 46 determines the frequency of inserting an unprocessed image with reference to the table data stored in the EEPROM 47 based on the motion amount information received from the motion detection unit 43.

図5は、EEPROMに格納されているテーブルデータの例を説明するための図である。   FIG. 5 is a diagram for explaining an example of table data stored in the EEPROM.

図5に示すように、テーブルデータ47aには、動き量が大きい場合(例えば、動き量が第1の閾値以上)、5フレームに1フレームの割合で未処理画像を挿入するように対応付けられている。また、動き量が小さい(動きが全くない場合を含む)場合(例えば、動き量が第2の閾値以下)、30フレームに1フレームの未処理画像を挿入するように対応付けられている。さらに、動き量が通常の場合(例えば、動き量が第1の閾値と第2の閾値との間)、15フレームに1フレームの未処理画像を挿入するように対応付けられている。   As shown in FIG. 5, when the amount of motion is large (for example, the amount of motion is equal to or greater than the first threshold value), the table data 47a is associated with an unprocessed image inserted at a rate of 1 frame per 5 frames. ing. Further, when the amount of motion is small (including the case where there is no motion) (for example, the amount of motion is equal to or less than the second threshold), the unprocessed image of one frame is associated with 30 frames. Furthermore, when the amount of motion is normal (for example, the amount of motion is between the first threshold value and the second threshold value), the unprocessed image of one frame is associated with 15 frames.

補正制御部46は、このテーブルデータ47aに基づいて決定された頻度により、ガンマ補正及び輪郭補正の処理を切るように制御を行う。即ち、補正制御部46は、決定された頻度により、ガンマ補正及び輪郭補正を行わないように、ガンマ補正部44及び輪郭補正部45を制御する。   The correction control unit 46 performs control such that the gamma correction and the contour correction processing are turned off at a frequency determined based on the table data 47a. That is, the correction control unit 46 controls the gamma correction unit 44 and the contour correction unit 45 so as not to perform the gamma correction and the contour correction at the determined frequency.

例えば、補正制御部46は、動き量が大きいと判定した場合、テーブルデータ47aを参照し、5フレームに1フレームの割合でガンマ補正及び輪郭補正の処理を行わないように、ガンマ補正部44及び輪郭補正部45を制御する。このような制御により、時系列(所定のフレーム毎)に通常画像(ガンマ補正及び輪郭補正が施された表示に適した画像)、未処理画像(ガンマ補正及び輪郭補正が施されていない計測に適した画像)が並んだ動画像データを作成することができる。補正制御部46は、動き検出部43からの動き量情報に加え、未処理画像を判別するための未処理画像フラグを重畳回路42に出力する。   For example, when it is determined that the amount of motion is large, the correction control unit 46 refers to the table data 47a, and the gamma correction unit 44 and the contour correction process are performed so as not to perform the gamma correction and contour correction processing at a rate of 1 frame per 5 frames. The contour correction unit 45 is controlled. By such control, normal images (images suitable for display subjected to gamma correction and contour correction) and unprocessed images (measurements not subjected to gamma correction and contour correction) in time series (for each predetermined frame). It is possible to create moving image data in which suitable images are arranged. In addition to the motion amount information from the motion detector 43, the correction controller 46 outputs an unprocessed image flag for determining an unprocessed image to the superimposing circuit 42.

重畳回路42は、このように生成された動画像データに対して、画像データがない期間、例えば、垂直ブランキング期間に、未処理画像フラグと動き量のデータを重畳した動画像データを生成する。   The superimposing circuit 42 generates moving image data in which the unprocessed image flag and the motion amount data are superimposed on the moving image data generated as described above in a period in which there is no image data, for example, in a vertical blanking period. .

図6は、画像処理部22aで生成される動画像データの例を説明するための図である。   FIG. 6 is a diagram for explaining an example of moving image data generated by the image processing unit 22a.

図6に示すように、重畳回路42では、動画像データの画像データがない垂直ブランキング期間に、未処理画像フラグと動き量情報のデータが重畳される。そして、未処理画像フラグと動き量情報のデータが重畳された動画像データは、画像計測部31及び未処理画像判別部50に出力される。   As shown in FIG. 6, in the superimposing circuit 42, the unprocessed image flag and the motion amount information data are superimposed in the vertical blanking period in which there is no image data of moving image data. The moving image data on which the unprocessed image flag and the motion amount information data are superimposed is output to the image measurement unit 31 and the unprocessed image determination unit 50.

画像計測部31は、垂直ブランキング期間に重畳(挿入)された未処理画像判別フラグに基づき、計測処理に必要な未処理画像のデータのみを抜き出して計測処理を行う。この計測結果は、LCDコントローラ51に出力される。   Based on the unprocessed image discrimination flag superimposed (inserted) in the vertical blanking period, the image measurement unit 31 extracts only the unprocessed image data necessary for the measurement process and performs the measurement process. The measurement result is output to the LCD controller 51.

一方、未処理画像判別部50は、垂直ブランキング期間に重畳(挿入)された未処理画像判別フラグに基づき、ガンマ補正及び輪郭補正等の追加画像処理が必要な未処理画像の特定を行う。   On the other hand, the unprocessed image determination unit 50 identifies an unprocessed image that needs additional image processing such as gamma correction and contour correction based on the unprocessed image determination flag superimposed (inserted) in the vertical blanking period.

また、未処理画像判別部50は、垂直ブランキング期間に重畳された動き量情報に基づき、その未処理画像に対して施すべき画像処理を特定する。未処理画像判別部50は例えば、動き量が大きい場合、ガンマ補正部52及び輪郭補正部53でガンマ補正及び輪郭補正を行い、動き量が通常の場合、ガンマ補正部52でガンマ補正のみを行い、動き量が小さい場合、ガンマ補正部52及び輪郭補正部53によるガンマ補正及び輪郭補正を行わずに、前のフレームのコピーを行うようにLCDコントローラ51に指示する。   Further, the unprocessed image determination unit 50 specifies image processing to be performed on the unprocessed image based on the motion amount information superimposed in the vertical blanking period. For example, the unprocessed image determination unit 50 performs gamma correction and contour correction by the gamma correction unit 52 and the contour correction unit 53 when the motion amount is large, and performs only gamma correction by the gamma correction unit 52 when the motion amount is normal. When the amount of motion is small, the LCD controller 51 is instructed to copy the previous frame without performing gamma correction and contour correction by the gamma correction unit 52 and the contour correction unit 53.

LCDコントローラ51は、未処理画像判別部50からの指示に基づいて追加画像処理を行い、LCD4に画像データを出力する。   The LCD controller 51 performs additional image processing based on an instruction from the unprocessed image discrimination unit 50 and outputs image data to the LCD 4.

これらの処理を行うことで、LCD4には観察に最適な画像を表示しながら、計測処理に最適な未処理画像を用いての計測をリアルタイムに実現することができる。当然ながら、画像処理部22aから画像計測部31への画像伝送の帯域、バス幅を上げることなく、実現できている。   By performing these processes, it is possible to realize real-time measurement using an unprocessed image optimal for measurement processing while displaying an image optimal for observation on the LCD 4. Naturally, this can be realized without increasing the bandwidth and bus width of the image transmission from the image processing unit 22a to the image measurement unit 31.

ここで、図7〜図9を用いて、画像処理部22a及び追加画像処理部34aから出力される動画像データについて説明する。   Here, the moving image data output from the image processing unit 22a and the additional image processing unit 34a will be described with reference to FIGS.

図7は、動き量が大きい場合に出力される動画像データのイメージを示す図であり、図8は、動き量が通常の場合に出力される動画像データのイメージを示す図であり、図9は、動き量が小さい場合に出力される動画像データのイメージを示す図である。   7 is a diagram illustrating an image of moving image data output when the amount of motion is large, and FIG. 8 is a diagram illustrating an image of moving image data output when the amount of motion is normal. FIG. 9 is a diagram illustrating an image of moving image data output when the amount of motion is small.

図7に示すように、動き量が大きい場合には、補正制御部46の制御により、5フレームに1フレームの割合で未処理画像が挿入されている状態で画像処理部22aから出力される。この場合、LCDコントローラ51では、未処理画像に対してガンマ補正処理及び輪郭補正を行ってLCD4に出力する。   As shown in FIG. 7, when the amount of motion is large, the image is output from the image processing unit 22a in a state where an unprocessed image is inserted at a rate of 1 frame per 5 frames under the control of the correction control unit 46. In this case, the LCD controller 51 performs gamma correction processing and contour correction on the unprocessed image and outputs the processed image to the LCD 4.

人の目の特性として一般的に明るさに関する情報を最も敏感に感じることができるといわれている。それに基づいて最低限の処理を行って出力するとすれば、ガンマ補正処理のみを未処理画像に対して施した上でLCD4に出力するようにしてもよい。ただし、本実施の形態では、動き量が大きい場合には、未処理画像の挿入割合が高くなるため、輪郭補正の処理も追加して行うことで最適な画像を出力するようにしている。   It is said that brightness information can be felt most sensitively as a characteristic of the human eye. If the minimum process is performed based on the output, only the gamma correction process may be performed on the unprocessed image and then output to the LCD 4. However, in the present embodiment, when the amount of motion is large, the insertion ratio of unprocessed images increases, so that an optimal image is output by performing additional contour correction processing.

また、図8に示すように、動き量が通常の場合には、補正制御部46の制御により、15フレームに1フレームの割合で未処理画像が挿入されている状態で画像処理部22aから出力される。この場合、LCDコントローラ51では、未処理画像に対してガンマ補正処理を行ってLCD4に出力する。   Also, as shown in FIG. 8, when the amount of motion is normal, output from the image processing unit 22a in a state where unprocessed images are inserted at a rate of 1 frame per 15 frames under the control of the correction control unit 46. Is done. In this case, the LCD controller 51 performs a gamma correction process on the unprocessed image and outputs it to the LCD 4.

また、図9に示すように、動き量が小さい場合には、補正制御部46の制御により、30フレームに1フレームの割合で未処理画像が挿入されている状態で画像処理部22aから出力される。この場合、LCDコントローラ51では未処理画像が前のフレームに対して動きが少ないことから1フレーム前のフレームと同一の画像、即ち、前のフレームをコピーしてLCD4に対して出力する。   Also, as shown in FIG. 9, when the amount of motion is small, the correction control unit 46 outputs the unprocessed image at a rate of 1 frame per 30 frames. The In this case, since the unprocessed image moves less with respect to the previous frame in the LCD controller 51, the same image as the previous frame, ie, the previous frame is copied and output to the LCD 4.

なお、動き量がゼロの場合、1フレームだけ未処理画像を出力し、計測処理を行えば、その後は未処理画像を出力することも、その画像に対して計測処理を行う必要もない。   When the amount of motion is zero, if an unprocessed image is output for one frame and measurement processing is performed, it is not necessary to output an unprocessed image or perform measurement processing on the image thereafter.

このように、画像処理部22aにおいて動的に未処理画像を挿入する頻度を変更し、さらに、その頻度に応じて追加画像処理部34aでの追加画像処理の内容を変更する。これにより、動き量が小さいときには画像計測をする頻度を少なくすることができるので、消費電力を抑えつつ観察に最適な画像を出力することができる。   Thus, the frequency of dynamically inserting an unprocessed image in the image processing unit 22a is changed, and the content of the additional image processing in the additional image processing unit 34a is changed according to the frequency. As a result, when the amount of motion is small, the frequency of image measurement can be reduced, so that an image optimal for observation can be output while suppressing power consumption.

次に、このように構成された内視鏡装置の動作について説明する。   Next, the operation of the endoscope apparatus configured as described above will be described.

図10は、第2の実施の形態のリアルタイム計測処理の流れの例を示すフローチャートである。なお、図10において、図3と同様の処理については、同一の符号を付して説明を省略する。   FIG. 10 is a flowchart illustrating an example of a flow of real-time measurement processing according to the second embodiment. In FIG. 10, the same processing as in FIG.

まず、ステップS1において、内視鏡装置1の電源がONされると、動き検出部43がOFFされる(ステップS11)。そして、ステップS4において、リアルタイム計測指示があると判定されると、未処理画像が一枚出力される(ステップS12)。その後、動き検出部43がONされて動き検出を行い(ステップS13)、検出した動き量に応じて未処理画像を挿入する頻度が決定される(ステップS14)。   First, in step S1, when the power of the endoscope apparatus 1 is turned on, the motion detection unit 43 is turned off (step S11). If it is determined in step S4 that there is a real-time measurement instruction, one unprocessed image is output (step S12). Thereafter, the motion detection unit 43 is turned on to perform motion detection (step S13), and the frequency of inserting an unprocessed image is determined according to the detected amount of motion (step S14).

次に、未処理画像を出力するタイミングでガンマ補正及び輪郭補正等の輝度信号に対する補正が切られる(ステップS15)。このステップS15の処理では、補正制御部46が未処理画像を出力すべきタイミングでガンマ補正及び輪郭補正等の輝度信号に対する補正をしないように、ガンマ補正部44及び輪郭補正部45を制御する。次に、動画像データのブランキング期間に未処理画像フラグ及び動き量情報が重畳される(ステップS16)。   Next, corrections for luminance signals such as gamma correction and contour correction are cut off at the timing of outputting an unprocessed image (step S15). In the process of step S15, the gamma correction unit 44 and the contour correction unit 45 are controlled so that the correction control unit 46 does not correct the luminance signal such as gamma correction and contour correction at the timing when the unprocessed image should be output. Next, the unprocessed image flag and the motion amount information are superimposed in the blanking period of the moving image data (step S16).

次に、未処理画像判別部50がブランキング期間に重畳された情報を基に、LCDコントローラ51に対して、どの画像にどの画像処理を施すかを指示する(ステップS17)。このステップS17の処理では、動き量に応じて、前のフレームと同一画像出力、ガンマ補正のみ、あるいは、ガンマ補正及び輪郭補正のいずれかが指示される。そして、LCDコントローラ51がこの指示に応じて、未処理画像に対して画像処理を施す(ステップS18)。最後に、ステップS6において計測結果が画像に重畳され、ステップS7においてLCD4に計測結果が重畳された画像が出力される。その後は、リアルタイム計測指示が解除されるまで、ステップS14に戻り、同様の処理を繰り返す。   Next, the unprocessed image discriminating unit 50 instructs the LCD controller 51 which image processing is to be performed based on the information superimposed in the blanking period (step S17). In the process of step S17, either the same image output as the previous frame, only gamma correction, or gamma correction and contour correction is instructed according to the amount of motion. Then, the LCD controller 51 performs image processing on the unprocessed image in response to this instruction (step S18). Finally, in step S6, the measurement result is superimposed on the image, and in step S7, an image with the measurement result superimposed on the LCD 4 is output. Thereafter, the process returns to step S14 and the same processing is repeated until the real-time measurement instruction is canceled.

第1の実施の形態のシステム制御部30の追加画像処理部34では、全ての未処理画像に対して追加画像処理(ガンマ補正及び輪郭補正)が施されていた。   In the additional image processing unit 34 of the system control unit 30 of the first embodiment, additional image processing (gamma correction and contour correction) is performed on all unprocessed images.

これに対し、本実施の形態のシステム制御部30の追加画像処理部34aでは、動き量に応じた頻度で挿入されている未処理画像のみに追加画像処理を施すようにしている。さらに、追加画像処理部34aでは、動き量に応じて、追加画像処理の内容を変更する(前のフレームと同一画像出力、ガンマ補正のみ、あるいは、ガンマ補正及び輪郭補正)ようにしている。   On the other hand, the additional image processing unit 34a of the system control unit 30 according to the present embodiment performs additional image processing only on unprocessed images inserted at a frequency corresponding to the amount of motion. Further, the additional image processing unit 34a changes the content of the additional image processing according to the amount of motion (same image output as the previous frame, only gamma correction, or gamma correction and contour correction).

そのため、本実施の形態の内視鏡装置1は、第1の実施の形態と同様の効果を得るとともに、第1の実施の形態に比べ、システム制御部30の負荷を小さくすることできるとう効果を有する。   Therefore, the endoscope apparatus 1 of the present embodiment obtains the same effects as those of the first embodiment, and the effect that the load on the system control unit 30 can be reduced as compared with the first embodiment. Have

なお、本明細書におけるフローチャート中の各ステップは、その性質に反しない限り、実行順序を変更し、複数同時に実行し、あるいは実行毎に異なった順序で実行してもよい。   Note that the steps in the flowchart in this specification may be executed in a different order for each execution by changing the execution order and executing a plurality of steps at the same time as long as it does not contradict its nature.

本発明は、上述した実施の形態及び変形例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments and modifications, and various changes and modifications can be made without departing from the scope of the present invention.

1…内視鏡装置、2…挿入部、3…本体部、4…LCD、5…記録媒体、9…CCD、10…LED、20…プリアンプ、21…AFE、22,22a…画像処理部、23…タイミングジェネレータ、24…CCDドライブ回路、25…LEDドライブ回路、26…湾曲制御部、27…UD湾曲モータ、28…RL湾曲モータ、29…ユーザインターフェース、30…システム制御部、31…画像計測部、32…フリーズ部、33…画像記録部、34,34a…追加画像処理部、40…色差変換部、41…色信号処理部、42,54…重畳回路、43…動き検出部、44,52…ガンマ補正部、45,53…輪郭補正部、46…補正制御部、47…EEPROM、50…未処理画像判別部、51…LCDコントローラ。   DESCRIPTION OF SYMBOLS 1 ... Endoscope apparatus, 2 ... Insertion part, 3 ... Main-body part, 4 ... LCD, 5 ... Recording medium, 9 ... CCD, 10 ... LED, 20 ... Preamplifier, 21 ... AFE, 22, 22a ... Image processing part, DESCRIPTION OF SYMBOLS 23 ... Timing generator, 24 ... CCD drive circuit, 25 ... LED drive circuit, 26 ... Curve control part, 27 ... UD curve motor, 28 ... RL curve motor, 29 ... User interface, 30 ... System control part, 31 ... Image measurement , 32 ... Freeze part, 33 ... Image recording part, 34, 34a ... Additional image processing part, 40 ... Color difference conversion part, 41 ... Color signal processing part, 42, 54 ... Superimposition circuit, 43 ... Motion detection part, 44, 52 ... Gamma correction unit, 45, 53 ... Contour correction unit, 46 ... Correction control unit, 47 ... EEPROM, 50 ... Unprocessed image discrimination unit, 51 ... LCD controller.

Claims (4)

細長な挿入部と、
前記挿入部の先端に配置された対物レンズにより取り込んだ被写体像を撮像する撮像部と、
前記撮像部で得られた信号を信号処理し、リアルタイム計測を行う際に、ガンマ補正処理及び輪郭補正処理が施されていない未処理画像信号と、前記ガンマ補正処理及び前記輪郭補正処理が施された通常画像信号とが並んだ動画像データを出力する画像処理部と、
前記画像処理部から出力された前記未処理画像信号に対して画像計測処理を行う画像計測部と、
前記画像処理部から出力された前記未処理画像信号に対してのみ、少なくともガンマ補正処理を含む追加画像処理を施す追加画像処理部と、
前記追加画像処理部で前記追加画像処理が施された出力画像信号を表示する表示部と、
前記撮像部で得られた前記信号の動き量を検出する動き検出部と、
を有し、
前記画像処理部は、前記動き検出部の検出結果に応じて、前記動画像データ内に挿入する前記未処理画像信号の割合を変更することを特徴とする内視鏡装置。
An elongated insert,
An imaging unit that captures a subject image captured by an objective lens disposed at a distal end of the insertion unit;
When the signal obtained by the imaging unit is signal-processed and real-time measurement is performed, an unprocessed image signal not subjected to gamma correction processing and contour correction processing, and the gamma correction processing and contour correction processing are performed. An image processing unit that outputs moving image data in which normal image signals are arranged ;
An image measurement unit that performs image measurement processing on the unprocessed image signal output from the image processing unit;
An additional image processing unit that performs additional image processing including at least gamma correction processing only on the unprocessed image signal output from the image processing unit;
A display unit for displaying an output image signal subjected to the additional image processing in the additional image processing unit;
A motion detector that detects the amount of motion of the signal obtained by the imaging unit;
Have
The endoscope apparatus, wherein the image processing unit changes a ratio of the unprocessed image signal to be inserted into the moving image data according to a detection result of the motion detection unit.
前記追加画像処理部は、前記動き検出部の検出結果に応じて、前記追加画像処理の内容を変更することを特徴とする請求項1に記載の内視鏡装置。   The endoscope apparatus according to claim 1, wherein the additional image processing unit changes contents of the additional image processing according to a detection result of the motion detection unit. 前記追加画像処理部は、前記動き検出部により前記信号の動き量が小さいと判定された場合、前記追加画像処理を行わず、1フレーム前の画像を複写することを特徴とする請求項1または2に記載の内視鏡装置。   2. The additional image processing unit, when the motion detection unit determines that the amount of motion of the signal is small, copies the image one frame before without performing the additional image processing. The endoscope apparatus according to 2. 前記画像処理部は、前記動き検出部が前記信号の動き量が大きいと検出した場合に、前記信号の動き量が小さいと検出した場合に比べて、前記動画像データ内に挿入する前記未処理画像信号の割合を多くすることを特徴とする請求項1に記載の内視鏡装置。 When the motion detection unit detects that the amount of motion of the signal is large, the image processing unit inserts the unprocessed image data into the moving image data as compared to a case where the motion amount of the signal is detected to be small The endoscope apparatus according to claim 1, wherein the ratio of the image signal is increased .
JP2012149700A 2012-07-03 2012-07-03 Endoscope device Active JP6027793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149700A JP6027793B2 (en) 2012-07-03 2012-07-03 Endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149700A JP6027793B2 (en) 2012-07-03 2012-07-03 Endoscope device

Publications (2)

Publication Number Publication Date
JP2014012037A JP2014012037A (en) 2014-01-23
JP6027793B2 true JP6027793B2 (en) 2016-11-16

Family

ID=50108206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149700A Active JP6027793B2 (en) 2012-07-03 2012-07-03 Endoscope device

Country Status (1)

Country Link
JP (1) JP6027793B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018138139A (en) 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Medical imaging device and medical observation system
JP2018138142A (en) 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Medical signal processing device and medical observation system
KR102584741B1 (en) * 2022-10-05 2023-10-05 주식회사 메디인테크 Method, apparatus and computer program for controlling endoscope based on medical image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07313447A (en) * 1994-05-24 1995-12-05 Asahi Optical Co Ltd Electronic endoscope system
JP5214185B2 (en) * 2007-07-09 2013-06-19 オリンパス株式会社 Image measuring apparatus and method

Also Published As

Publication number Publication date
JP2014012037A (en) 2014-01-23

Similar Documents

Publication Publication Date Title
JP6045760B2 (en) Imaging system
JP3271838B2 (en) Image processing device for endoscope
US10966592B2 (en) 3D endoscope apparatus and 3D video processing apparatus
US11419482B2 (en) Endoscope apparatus, control method of endoscope apparatus, and recording medium
JP6027793B2 (en) Endoscope device
JP5851656B2 (en) Image signal output apparatus and image signal transmission / reception system
EP3247113B1 (en) Image processing device, image processing method, program, and endoscope system
JP6489644B2 (en) Imaging system
US10390688B2 (en) Image pickup system
US10729309B2 (en) Endoscope system
JP5959331B2 (en) Endoscope device
US9247863B2 (en) Endoscope apparatus which controls clamping of optical black included in an image pickup signal
JP2008093174A (en) Endoscope apparatus
US10326944B2 (en) Image pickup system and signal processing apparatus
JP5941758B2 (en) Endoscope device
JP2018023612A (en) Endoscope system
JP6640378B2 (en) Endoscope apparatus and control method of endoscope apparatus
JP5818265B2 (en) Stereoscopic endoscope device
WO2016047563A1 (en) Transmission system and processing device
JP2009056205A (en) Capsule type endoscope and compact diagnostic apparatus
JP2008048269A (en) Observation device mounted with stereoscopic imaging device, and stereoscopic imaging method
JP2007117153A (en) Electronic endoscope system
JP2007202951A (en) Endoscopic image signal processor and electronic endoscope system
JP2017026721A (en) Endoscope device
JP2017228936A (en) Image processing system and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R151 Written notification of patent or utility model registration

Ref document number: 6027793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250