JP2009240531A - Photographic equipment - Google Patents

Photographic equipment Download PDF

Info

Publication number
JP2009240531A
JP2009240531A JP2008090674A JP2008090674A JP2009240531A JP 2009240531 A JP2009240531 A JP 2009240531A JP 2008090674 A JP2008090674 A JP 2008090674A JP 2008090674 A JP2008090674 A JP 2008090674A JP 2009240531 A JP2009240531 A JP 2009240531A
Authority
JP
Japan
Prior art keywords
image
subject
focus
focus position
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008090674A
Other languages
Japanese (ja)
Inventor
Atsushi Kagaya
淳 加賀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008090674A priority Critical patent/JP2009240531A/en
Publication of JP2009240531A publication Critical patent/JP2009240531A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image focused in any area of it without inhibiting a size reduction of a scope part. <P>SOLUTION: An endoscope equipment to photograph an object illuminated with an illumination light at a predetermined focusing position of a plurality of focusing positions includes a control part 210, which determines whether the image is focused at almost all areas of the image based on a brightness of each pixel area of a first image photographed at a first focusing position. When the control part 210 determines that the image is not focused at almost all areas, the object is photographed at a second focusing position different from the first focusing position so that the focused areas in the first and second images can be composed to generate a composite image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、体腔内などの被写体の画像を取得する内視鏡装置に関するものである。   The present invention relates to an endoscope apparatus that acquires an image of a subject such as a body cavity.

従来から、医療の分野においては、先端にCCDなどが取り付けられた細長いスコープ部を被検体の体腔内に挿入し、被検体の体腔内を撮影して腫瘍や血栓などを観察する内視鏡装置が広く利用されている。このような内視鏡装置によれば、被検体の体腔内を直接撮影することによって、被検体に外的なダメージを与えることなく、放射線画像では分かりにくい病巣の色や形状などを把握することができ、治療方針の決定などに必要な情報を手軽に得ることができる。このような内視鏡装置では、被検体の体腔内を照明により照らし、その照明下で撮影が行われる。   2. Description of the Related Art Conventionally, in the medical field, an endoscopic device for observing a tumor, a thrombus, etc. by inserting an elongated scope portion having a CCD attached at the tip into the body cavity of the subject and photographing the inside of the body cavity of the subject. Is widely used. According to such an endoscope apparatus, by directly photographing the inside of the body cavity of the subject, it is possible to grasp the color or shape of a lesion that is difficult to understand in a radiographic image without causing external damage to the subject. It is possible to easily obtain information necessary for determining a treatment policy. In such an endoscope apparatus, the inside of the body cavity of the subject is illuminated with illumination, and imaging is performed under the illumination.

一方、内視鏡では細長い体腔内を撮影する場合も多く、そのような場合には、一枚の画像の中に、近距離から遠距離までの画像が含まれ、画像の一部、例えば中距離に対応する部分のみがピントが合い、近距離や遠距離に対応する部分はピントが合っていない場合がある。   On the other hand, endoscopes often take images of elongated body cavities, and in such a case, an image from a short distance to a long distance is included in one image, and a part of the image, for example, the middle Only the part corresponding to the distance may be in focus, and the part corresponding to the short distance or the far distance may not be in focus.

通常のカメラにおいては、一枚の画像内の複数の被写体について、撮影距離の異なる複数の被写体に関して、それぞれ撮影距離を測定し、撮影光学系のピント位置をずらしながら複数回撮影を繰り返し、それらの複数の撮影駒から、それぞれピントが合っている部分を選択して、複数の被写体のピントが全て合っている1枚の画像を合成する方法が提案されている。(特許文献1参照)しかし、このようなカメラでは測距手段が必要であり、製造コストが増加する。また、この技術を内視鏡装置へ適用する場合、内視鏡のスコープ部の先端に、測距手段を設置するためのスペースが必要となるので、少しでも細いスコープ部を使用したいという医師の要望にも応えられなくなる。さらに、画像を合成する場合においてピントを合わせたい被写体を指定する必要があり煩わしい。内視鏡装置では、通常観察するのは胃等の内部であるため、カメラで風景シーンや、人物シーンを写すのとは異なり、画像は、1つ1つの被写体で構成されるような画像ではないので、複数の被写体の撮影距離を得るにも、画像のどの部分の撮影距離を測定してよいか不明瞭である、
また、異なる焦点距離をもって撮影された複数枚の画像から1枚の画像を合成する機能を有し、撮影済み画像のそれぞれをお互いに対応する複数の画像領域に分割したうえ、高周波成分量の多い画像領域を優先的に選択することにより、対応する画像領域同士のうちから合焦している画像領域のみを選択して組み合わせること特徴とする電子スチルカメラも提案されている。(特許文献2参照)このカメラには、測距手段も必要でなく、合成時にピントを合わせたい被写体を指定する必要もない。
特開平10−10805号公報 特開平10−210341号公報
In a normal camera, for a plurality of subjects in a single image, the shooting distance is measured for each of a plurality of subjects having different shooting distances, and shooting is repeated a plurality of times while shifting the focus position of the shooting optical system. A method has been proposed in which a portion in focus is selected from a plurality of photographing frames and a single image in which all the subjects are in focus is combined. However, such a camera requires distance measuring means, which increases the manufacturing cost. In addition, when this technology is applied to an endoscope apparatus, a space for installing a distance measuring means is required at the distal end of the scope part of the endoscope. Therefore, a doctor who wants to use a thin scope part as much as possible. It becomes impossible to respond to the request. Furthermore, when compositing images, it is necessary to specify a subject to be focused, which is troublesome. In an endoscopic device, since the inside of the stomach or the like is usually observed, unlike a landscape scene or a person scene captured by a camera, an image is an image composed of individual subjects. Because it is not clear, it is unclear which part of the image can be measured to obtain the shooting distance of multiple subjects.
In addition, it has a function to synthesize one image from a plurality of images photographed at different focal lengths, and divides each photographed image into a plurality of image regions corresponding to each other and has a large amount of high frequency components There has also been proposed an electronic still camera characterized by selecting and combining only focused image areas from corresponding image areas by preferentially selecting image areas. (Refer to Patent Document 2) This camera does not require distance measuring means, and it is not necessary to designate a subject to be focused at the time of synthesis.
Japanese Patent Laid-Open No. 10-10805 Japanese Patent Laid-Open No. 10-210341

しかしながら、内視鏡で通常観察する画像は、胃などの粘膜の画像であるため、局所領域においては、画像のコントラストが小さく、ノイズ等の影響もあり高周波成分量では合焦している画像領域をうまく抽出できない場合がある。このため、上記特許文献2に記載の技術を内視鏡装置へ適用した場合、合成した画像が不自然になる場合がある。   However, since an image normally observed with an endoscope is an image of a mucous membrane such as the stomach, in a local region, an image region in which the contrast of the image is small, and there is an influence of noise or the like, the high-frequency component amount is in focus. May not be extracted successfully. For this reason, when the technique described in Patent Document 2 is applied to an endoscope apparatus, the synthesized image may become unnatural.

本発明は、上記事情に鑑み、スコープ部の細径化を妨げることなく、画像の全領域において合焦している画像を取得することのできる内視鏡装置を提供することを目的とするものである。   In view of the above circumstances, an object of the present invention is to provide an endoscope apparatus that can acquire an image that is in focus in the entire region of an image without preventing the diameter of the scope portion from being reduced. It is.

本発明の内視鏡装置は、照明光を射出する光源手段と、前記照明光が照射された被写体の画像を、複数のピント位置の中から所定のピント位置で撮像する撮像手段と、前記画像の撮像動作を制御する制御手段とを有する内視鏡装置において、
前記制御手段が、第1のピント位置で撮像した第1の画像の各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定し、
前記画像のほぼ全領域において合焦してはいないと判定した場合には、前記撮像手段により、前記第1のピント位置とは異なる第2のピント位置で前記被写体の第2の画像を撮像させ、
前記第1の画像内の合焦している領域と、前記第2の画像内の合焦している領域とを合成して、合成画像を生成することを特徴とするものである。
The endoscope apparatus according to the present invention includes a light source unit that emits illumination light, an imaging unit that captures an image of a subject irradiated with the illumination light at a predetermined focus position from a plurality of focus positions, and the image. In an endoscope apparatus having a control means for controlling the imaging operation of
The control means determines whether or not the entire area of the image is in focus based on the brightness of each pixel area of the first image captured at the first focus position;
If it is determined that the entire area of the image is not in focus, the imaging means causes the second image of the subject to be captured at a second focus position different from the first focus position. ,
A synthesized image is generated by synthesizing a focused area in the first image and a focused area in the second image.

なお、ここで「画素領域の明るさ」とは、一つの画素の明るさであってもよいし、あるいは隣接する複数個の画素の明るさであってもよい。具体的には、一つの画素の輝度値や、あるいは隣接する複数個の画素の平均輝度値などを「画素領域の明るさ」として用いることができる。また、「画像のほぼ全領域」とは、画像の80%以上の領域、好ましくは90%以上、より好ましくは95%以上の領域を意味している。   Here, the “brightness of the pixel region” may be the brightness of a single pixel or the brightness of a plurality of adjacent pixels. Specifically, the luminance value of one pixel or the average luminance value of a plurality of adjacent pixels can be used as the “brightness of the pixel region”. The “substantially the entire area of the image” means an area of 80% or more, preferably 90% or more, more preferably 95% or more of the image.

前記制御手段は、前記第1の画像を、各画素領域の明るさに基づいて、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割し、
前記第1の領域では、前記第1の画像を用い、前記第2の領域では第2の画像を用いることにより、合成画像を生成するものであってもよい。
The control means includes a first area corresponding to the first focus position and a second area corresponding to the second focus position based on the brightness of each pixel area. Divided into
The first image may be generated by using the first image in the first region and the second image in the second region.

さらに、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備える場合であれば、
前記制御手段は、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記被写体の被写体距離範囲を算出し、該被写体距離範囲と前記複数のピント位置毎の被写界深度とから、前記画像のほぼ全領域において合焦しているか否かを判定するものであってもよい。
Further, reference brightness information that is the brightness of a pixel area of an image captured by placing a simulated subject having substantially the same light reflection characteristics as the subject at a predetermined subject distance and irradiating a predetermined amount of illumination light, and If it is provided with storage means for storing the depth of field for each of a plurality of focus positions,
The control means calculates a subject distance range of the subject based on the brightness of each pixel region of the first image and the reference brightness information, and sets the subject distance range and each of the plurality of focus positions. It may be determined from the depth of field whether or not the entire area of the image is in focus.

また、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備えるものであれば、
前記制御手段は、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記各画素領域毎に、前記被写体の被写体距離を算出し、算出した各画素領域毎の前記被写体の被写体距離と前記複数のピント位置毎の被写界深度とに基づいて、前記第1の画像を、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割するものであってもよい。
Further, the reference brightness information, which is the brightness of the pixel area of the image captured by illuminating a predetermined amount of illumination light with a simulated subject having light reflection characteristics substantially equal to that of the subject and illuminating with a predetermined amount of illumination light, If it has a storage means for storing the depth of field for each of a plurality of focus positions,
The control means calculates the subject distance of the subject for each pixel area based on the brightness of each pixel area of the first image and the reference brightness information, and calculates each calculated pixel area. A first area corresponding to the first focus position and the second focus based on a subject distance of the subject and a depth of field for each of the plurality of focus positions. You may divide | segment into the 2nd area | region corresponding to a position.

本発明の内視鏡装置は、第1のピント位置で撮像した第1の画像の各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定し、前記画像のほぼ全領域において合焦してはいないと判定した場合には、前記撮像手段により、前記第1のピント位置とは異なる第2のピント位置で前記被写体の第2の画像を撮像させ、前記第1の画像内の合焦している領域と、前記第2の画像内の合焦している領域とを合成して、合成画像を生成するため、従来必要であった測距手段を備える必要がないので、スコープ部の細径化が妨げられることがなく、また、各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定するため、画像のコントラストが少ない場合であっても、良好な精度で前記画像のほぼ全領域において合焦しているか否かを判定することができ、合焦していない場合のみ、複数のピント位置において画像を取得して、合成画像を生成するので、装置の利便性が向上する。   The endoscope apparatus of the present invention determines whether or not the entire area of the image is in focus based on the brightness of each pixel area of the first image captured at the first focus position, If it is determined that the entire area of the image is not in focus, the imaging means causes the second image of the subject to be captured at a second focus position different from the first focus position. Ranging means conventionally required for synthesizing the in-focus area in the first image and the in-focus area in the second image to generate a composite image In order to determine whether or not the entire area of the image is in focus on the basis of the brightness of each pixel area. Even if the image contrast is low, the front with good accuracy Since it is possible to determine whether or not the entire area of the image is in focus, and only when the image is not in focus, images are acquired at a plurality of focus positions and a composite image is generated. Will improve.

前記制御手段が、前記第1の画像を、各画素領域の明るさに基づいて、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割し、
前記第1の領域では、前記第1の画像を用い、前記第2の領域では第2の画像を用いることにより、合成画像を生成するものであれば、容易に合成画像を生成することができる。
The control means includes a first area corresponding to the first focus position and a second area corresponding to the second focus position based on the brightness of each pixel area. Divided into
A composite image can be easily generated as long as a composite image is generated by using the first image in the first region and the second image in the second region. .

さらに、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備え、前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記被写体の被写体距離範囲を算出し、該被写体距離範囲と前記複数のピント位置毎の被写界深度とから、前記画像のほぼ全領域において合焦しているか否かを判定する場合には、より良好な精度で、前記画像のほぼ全領域において合焦しているか否かを判定することができる。   Further, reference brightness information that is the brightness of a pixel area of an image captured by placing a simulated subject having substantially the same light reflection characteristics as the subject at a predetermined subject distance and irradiating a predetermined amount of illumination light, and Storage means for storing depth of field for each of a plurality of focus positions, wherein the control means is configured to control the subject based on the brightness of each pixel area of the first image and the reference brightness information. When the subject distance range is calculated, and it is determined from the subject distance range and the depth of field for each of the plurality of focus positions whether or not the entire area of the image is in focus, it is better. With accuracy, it can be determined whether or not the entire area of the image is in focus.

また、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備え、前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記各画素領域毎に、前記被写体の被写体距離を算出し、算出した各画素領域毎の前記被写体の被写体距離と前記複数のピント位置毎の被写界深度とに基づいて、前記第1の画像を、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割するものであれば、ピント位置が異なる画像の中から、それぞれの領域で合焦している画像を確実に選択することができ、より自然な合成画像を生成することができる。   Further, the reference brightness information, which is the brightness of the pixel area of the image captured by illuminating a predetermined amount of illumination light with a simulated subject having light reflection characteristics substantially equal to that of the subject and illuminating with a predetermined amount of illumination light, Storage means for storing depth of field for each of a plurality of focus positions, and the control means is configured to control each pixel based on the brightness of each pixel area of the first image and the reference brightness information. For each region, calculate the subject distance of the subject, and based on the calculated subject distance of the subject for each pixel region and the depth of field for each of the plurality of focus positions, the first image, If the image is to be divided into a first area corresponding to the first focus position and a second area corresponding to the second focus position, the respective areas of the images having different focus positions may be combined. You can select the image that is in focus A more natural composite image can be generated.

以下図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態である内視鏡装置を示す図である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an endoscope apparatus according to an embodiment of the present invention.

この図1に示す内視鏡装置10は、動作を表示する動画表示モードまたは静止画を表示する静止画表示モードにより動作するものであり、照明光を伝播する光ファイバからなるライトガイド110が内部に配置され、また先端近傍にCCD120が設けられており、被検者の体腔内、例えば食道等に挿入されるスコープ部100と、CCD120で撮像された画像に各種の画像処理等を施し、動画用の画像データまたは静止画用の画像データを生成するプロセッサ部200と、ライトガイド110へ照明光を供給する光源装置300と、プロセッサ部200において生成された画像データを表示するモニタ400とを備えている。   The endoscope apparatus 10 shown in FIG. 1 operates in a moving image display mode for displaying an operation or a still image display mode for displaying a still image, and includes a light guide 110 made of an optical fiber that propagates illumination light. In addition, a CCD 120 is provided in the vicinity of the tip, and the scope unit 100 inserted into the body cavity of the subject, for example, the esophagus, etc. A processor unit 200 that generates image data for still images or image data for still images, a light source device 300 that supplies illumination light to the light guide 110, and a monitor 400 that displays image data generated in the processor unit 200. ing.

スコープ部100は、プロセッサ部200および光源装置300に着脱自在に装着されるものであり、CCD120の先端には該CCD120へ被写体像を結像させるための撮像光学系180とピント位置変更手段170とが設けられている。ライトガイド110は、光源装置300から射出される照明光を、被検体の体腔内にある被写体に導き、CCD120は、その照明光下で、被写体で反射された光を受光することでその被写体の像をあらわすアナログ画像データを生成する。CCD120には、相関二重サンプリング(CDS)を行うとともに、アナログデータを適宜に増幅する自動利得制御(AGC)を行うCDS/AGC回路130が接続され、該CDS/AGC回路130には、A/D変換回路140が接続されている。CCD120で生成されたアナログ画像データは、CDS/AGC回路130を経てA/D変換回路140に渡され、デジタル画像データに変換される。そして、そのデジタル画像データが、プロセッサ部200に渡される。スコープ部100の根元部分には、表示モードを動画表示モードから静止画表示モードへ切り換えるための静止画指定ボタン160が設けられている。また、スコープ部100には、このスコープ部100の型番等の各種情報を記憶するEEPROM150も備えられている。   The scope unit 100 is detachably attached to the processor unit 200 and the light source device 300, and an imaging optical system 180 for forming a subject image on the CCD 120 and a focus position changing unit 170 at the tip of the CCD 120. Is provided. The light guide 110 guides the illumination light emitted from the light source device 300 to the subject in the body cavity of the subject, and the CCD 120 receives the light reflected by the subject under the illumination light to thereby detect the subject. Analog image data representing an image is generated. Connected to the CCD 120 is a CDS / AGC circuit 130 for performing correlated double sampling (CDS) and performing automatic gain control (AGC) for appropriately amplifying analog data. A D conversion circuit 140 is connected. Analog image data generated by the CCD 120 passes through the CDS / AGC circuit 130 to the A / D conversion circuit 140 and is converted into digital image data. The digital image data is passed to the processor unit 200. A still image designation button 160 for switching the display mode from the moving image display mode to the still image display mode is provided at the base portion of the scope unit 100. The scope unit 100 also includes an EEPROM 150 that stores various types of information such as the model number of the scope unit 100.

プロセッサ部200は、スコープ100の各構成要素の動作を含む、この内視鏡装置10全体の制御を行い、また静止画像表示モードが指示された場合には、静止画像データを生成する制御部210と、動画表示モードが選択されている場合には、スコープ部100から出力される動画画像データを後段へ出力し、静止画表示モードが選択されている場合には、制御部210から出力される静止画像データを後段へ出力する切換部220と、該切換部220から出力された画像データに対してホワイトバランス補正、ガンマ補正や彩度補正等といった各種画像処理を行う信号処理回路230と、該信号処理回路230により画像処理が施された表示画像データをモニタ400に表示させる表示制御部240とを備えている。また、制御部210には、各種制御プログラム、制御に必要な各種情報、を記憶するメモリ250が接続されている。   The processor unit 200 controls the entire endoscope apparatus 10 including the operation of each component of the scope 100, and generates a still image data when the still image display mode is instructed. When the moving image display mode is selected, the moving image data output from the scope unit 100 is output to the subsequent stage, and when the still image display mode is selected, it is output from the control unit 210. A switching unit 220 that outputs still image data to the subsequent stage, a signal processing circuit 230 that performs various image processing such as white balance correction, gamma correction, and saturation correction on the image data output from the switching unit 220; And a display control unit 240 that causes the monitor 400 to display display image data that has been subjected to image processing by the signal processing circuit 230. The control unit 210 is connected to a memory 250 that stores various control programs and various information necessary for control.

制御部210には、ヒストグラム生成手段211、画像領域分割手段212および画像合成手段213を有している。なお、ヒストグラム生成手段211、画像領域分割手段212および画像合成手段213の詳細については後述する。   The control unit 210 includes a histogram generation unit 211, an image region division unit 212, and an image composition unit 213. Details of the histogram generation unit 211, the image region division unit 212, and the image composition unit 213 will be described later.

また、メモリ250には、ピント位置・被写界深度情報と後述する基準輝度情報が記憶されている。ピント位置・被写界深度情報は、各ピント位置と、被写界深度前端Dnと被写界深度後端Dfとの関係を示すものであり、テーブルとして記憶されている。本実施形態において、このメモリ250に格納されているマトリクスデータの一例は次の表1のようになる。
The memory 250 stores focus position / depth of field information and reference luminance information described later. The focus position / depth of field information indicates the relationship between each focus position, the depth of field front end Dn, and the depth of field rear end Df, and is stored as a table. In the present embodiment, an example of matrix data stored in the memory 250 is as shown in Table 1 below.

光源装置300は、光源310と、該光源310とスコープ部100のライトガイド110の入射端の間に配置された絞り320と、この光源部装置300全体の動作制御を行う光源制御部330と、各種制御プログラムや制御に必要な各種情報を記憶する光源装置側のメモリ340とが備えられている。光源制御部330は、絞り320の開閉量を制御することにより、光源装置300から射出される照明光の射出光量を制御する。なお、本装置においては、動画表示モードが選択されている場合には、被写体に照射される照明光の照度が適切な値となるように、光源装置300から射出される照明光の照射光量が自動的に調整される。   The light source device 300 includes a light source 310, a diaphragm 320 disposed between the light source 310 and the incident end of the light guide 110 of the scope unit 100, a light source control unit 330 that controls the operation of the entire light source unit device 300, A memory 340 on the light source device side that stores various control programs and various information necessary for control is provided. The light source controller 330 controls the amount of illumination light emitted from the light source device 300 by controlling the opening / closing amount of the diaphragm 320. In the present apparatus, when the moving image display mode is selected, the amount of illumination light emitted from the light source device 300 is set so that the illuminance of illumination light applied to the subject has an appropriate value. Adjusted automatically.

以下、まず動画表示モードが選択されている場合の撮影動作および照明光の照射光量の自動調整動作について説明する。   Hereinafter, first, the photographing operation and the automatic adjustment operation of the illumination light irradiation amount when the moving image display mode is selected will be described.

まず、動画表示モードにおいては、スコープ部100から出力される画像データは、切換部220と制御部210の両方へ送られる。切換部220は、スコープ部100から出力される動画画像データを信号処理回路230へ出力する。信号処理回路230では、順次おくられてくる各フレームの動画画像データに対して、ホワイトバランス補正、ガンマ補正および彩度補正を施し、表示制御部240に出力する。なお、信号処理回路230においては、その他、シャープネス処理や、ノイズ抑制処理など、既知の画像処理を適宜施しても良い。     First, in the moving image display mode, image data output from the scope unit 100 is sent to both the switching unit 220 and the control unit 210. The switching unit 220 outputs the moving image image data output from the scope unit 100 to the signal processing circuit 230. The signal processing circuit 230 performs white balance correction, gamma correction, and saturation correction on the moving image data of each frame that is sequentially sent, and outputs the result to the display control unit 240. In the signal processing circuit 230, other known image processing such as sharpness processing and noise suppression processing may be appropriately performed.

また、上記の信号処理動作と平行して、プロセッサ部200の制御部210内のヒスとグラム生成手段211では、送られてくる各フレームの画像データについて、まず画素毎の輝度値を取得する。制御部210のヒストグラム生成手段211では、この輝度値を用いて図2に示すようなヒストグラムを作成する。なお、輝度値Yとしては、例えば画素データが、RGBからなる場合であれば、Y=(R+G+B)/3 あるいはY=(R+2B+B)/4として求めることができる。このヒストグラムの縦軸は度数、横軸は輝度値である。制御部210では、このヒストグラムから、ヒストグラム特徴量である下記のピーク輝度値Yp、平均輝度値Yaおよびボトム輝度値Ybを算出する。   In parallel with the signal processing operation described above, the hiss and gram generation unit 211 in the control unit 210 of the processor unit 200 first obtains a luminance value for each pixel of the image data of each frame transmitted. The histogram generation means 211 of the control unit 210 creates a histogram as shown in FIG. 2 using this luminance value. The luminance value Y can be obtained as Y = (R + G + B) / 3 or Y = (R + 2B + B) / 4 if the pixel data is composed of RGB, for example. The vertical axis of this histogram is the frequency, and the horizontal axis is the luminance value. The control unit 210 calculates the following peak luminance value Yp, average luminance value Ya, and bottom luminance value Yb, which are histogram feature amounts, from this histogram.

ピーク輝度値Yp:ヒストグラムの高輝度側からカウントして所定の相対累積度数(3%〜20%程度が望ましい)になる輝度値
平均輝度値Ya:ヒストグラムの平均値となる輝度値
ボトム輝度値Yb:ヒストグラムの低輝度側からカウントして所定の相対累積度数(3%〜20%程度が望ましい)になる輝度値
ピーク輝度値Ypは画像データの高輝度側代表値であり、ボトム輝度値Ybは画像データの低輝度側代表値である。画像データの輝度値は、ボトム輝度値Yb〜ピーク輝度値Ypの範囲に分布しているとみなすことができる。
Peak luminance value Yp: luminance value counted from the high luminance side of the histogram to obtain a predetermined relative cumulative frequency (preferably about 3% to 20%) Average luminance value Ya: luminance value serving as the average value of the histogram Bottom luminance value Yb : Luminance value counted from the low luminance side of the histogram to become a predetermined relative cumulative frequency (preferably about 3% to 20%) The peak luminance value Yp is a representative value on the high luminance side of the image data, and the bottom luminance value Yb is This is the low luminance side representative value of the image data. The luminance value of the image data can be regarded as being distributed in the range from the bottom luminance value Yb to the peak luminance value Yp.

次に、制御部210は、平均輝度値Yaとあらかじめ設定されている基準平均輝度値Yiとを比較し、次フレームの画像を撮像する際の照明光の射出光量Iを算出し、光源制御部330へ出力する。制御部210は、平均輝度値Yaが基準平均輝度値Yiよりも小さい場合は、次フレームの画像を取得する際の照明光の射出光量を増大させ、平均輝度値Yaが基準平均輝度値Yiよりも大きい場合は、次フレームの画像を取得する際の照明光の射出光量を減少させ、平均輝度値Yaと基準平均輝度値Yiとが同じ値である場合には、照明光の射出光量を変化させない。   Next, the control unit 210 compares the average luminance value Ya with a preset reference average luminance value Yi, calculates an emission light amount I of illumination light when an image of the next frame is captured, and a light source control unit To 330. When the average luminance value Ya is smaller than the reference average luminance value Yi, the control unit 210 increases the amount of illumination light emitted when acquiring the next frame image, and the average luminance value Ya is larger than the reference average luminance value Yi. If the average luminance value Ya is equal to the reference average luminance value Yi, the amount of emitted light emitted from the illumination light is changed. I won't let you.

光源制御部330では、予めメモリ340に記憶されている照明光の射出光量と絞りの開閉量との関係に基づいて、光源装置300から所定の射出光量Iの照明光が射出されるように、絞り320の開閉量を制御する。   In the light source control unit 330, based on the relationship between the illumination light emission amount stored in the memory 340 in advance and the opening / closing amount of the aperture, illumination light with a predetermined emission light amount I is emitted from the light source device 300. The opening / closing amount of the diaphragm 320 is controlled.

なお、本実施の形態においては、平均輝度値Yaを用いて照明光の射出光量を制御したが、これに限定されるものではなく、他の輝度値、例えばヒストグラムの高輝度側からカウントして20の相対累積度数になる高域輝度値Ycと、予め設定されている基準高域輝度値Yiとが等しくなるように、照明光の射出光量を制御してもよい。あるいは、使用者が、平均輝度値Yaまたは高域輝度値Ycの一方を選択できるようにしてもよい。   In the present embodiment, the emission light amount of illumination light is controlled using the average luminance value Ya, but the present invention is not limited to this, and other luminance values, for example, counting from the high luminance side of the histogram are used. The emitted light quantity of the illumination light may be controlled so that the high-frequency luminance value Yc having a relative cumulative frequency of 20 is equal to a preset reference high-frequency luminance value Yi. Alternatively, the user may be able to select either the average luminance value Ya or the high frequency luminance value Yc.

次に、静止画表示モードが選択された場合の動作について説明する。使用者はモニタ400に表示されている動画を観察しながら、所望のタイミングで、スコープ部100に設けられている静止画指定ボタン160を押圧する。静止画指定ボタン160が押圧されると、該静止画指定ボタン160からプロセッサ200の制御部210内へ表示モードを静止画表示モードへ切り替える静止画表示モード信号が送信される。制御部210では、この静止画表示モード信号を受信すると、受信したタイミングにおいて、CCD120から出力されてくる動画用の画像データから、静止画表示モード信号を受信したタイミングで取得された画像データに関して、前述した各画素領域毎の輝度値のヒストグラムを生成すると同時に、この画像データ(以下画像データMsと記載)をメモリ250内に取り込む。なお、
静止画表示モードにおいては、切換部220は、制御部210の画像合成手段213から出力される画像データを信号処理回路230へ出力する。
Next, the operation when the still image display mode is selected will be described. The user presses the still image designation button 160 provided on the scope unit 100 at a desired timing while observing the moving image displayed on the monitor 400. When the still image designation button 160 is pressed, a still image display mode signal for switching the display mode to the still image display mode is transmitted from the still image designation button 160 into the control unit 210 of the processor 200. When the control unit 210 receives this still image display mode signal, the image data acquired at the timing when the still image display mode signal is received from the moving image image data output from the CCD 120 at the received timing. At the same time as generating a histogram of luminance values for each pixel area described above, this image data (hereinafter referred to as image data Ms) is taken into the memory 250. In addition,
In the still image display mode, the switching unit 220 outputs the image data output from the image composition unit 213 of the control unit 210 to the signal processing circuit 230.

制御部210では、まず画像データMsのヒストグラムと、該画像データMsを取得した際の照明光の射出光量Isと、メモリ250に記憶されている基準輝度値情報とから、被写体距離範囲Dsp〜Dsbを算出する。   In the control unit 210, first, from the histogram of the image data Ms, the emission light amount Is of the illumination light when the image data Ms is acquired, and the reference luminance value information stored in the memory 250, the subject distance range Dsp to Dsb. Is calculated.

なお、基準輝度値情報は、基準輝度値Yo、基準被写体距離Doおよび基準射出光量Ioとからなる。基準輝度値Yoとは、被写体と略同一の反射率を有する粘膜を、基準被写体距離Doに配置し、基準射出光量Ioの照明光を照射して撮像した画像の所定画素の輝度値であり、予め実測により求められて、メモリ250に記憶されている。   The reference luminance value information includes a reference luminance value Yo, a reference subject distance Do, and a reference emitted light amount Io. The reference luminance value Yo is a luminance value of a predetermined pixel of an image captured by placing a mucous membrane having substantially the same reflectance as the subject at a reference subject distance Do and irradiating illumination light of a reference emission light amount Io, It is obtained in advance by actual measurement and stored in the memory 250.

内視鏡においては、被写体に照射される照明光の照度がM倍になると画素の輝度値YはM倍になり、被写体の被写体距離DがN倍になると被写体に照射される照明光の照度は1/N倍になると考えることができる。また、観察される被写体は胃等の粘膜であり、反射率はほぼ一定であるとみなすことができる。 In an endoscope, the luminance value Y of a pixel increases M times when the illuminance of the illumination light applied to the subject increases M times, and the illuminance of the illumination light applied to the subject when the subject distance D of the subject increases N times it can be considered that doubles 1 / N. The observed subject is the mucous membrane such as the stomach, and it can be considered that the reflectance is almost constant.

このため、画像データMsの所定の画素の被写体距離Dは下記式(1)を用いて算出することができる。
Therefore, the subject distance D of a predetermined pixel of the image data Ms can be calculated using the following formula (1).

なお、式(1)において、Yoは基準輝度値、Doは基準被写体距離、Ioは照明光の基準射出光量、Yは画像データMsの所定の画素の輝度値、Iは画像データMsを撮像した際の照明光の射出光量である。   In Equation (1), Yo is a reference luminance value, Do is a reference subject distance, Io is a reference emission amount of illumination light, Y is a luminance value of a predetermined pixel of image data Ms, and I is image data Ms. This is the amount of emitted light of the illumination light.

上述したように、画像データMsの輝度値は、ボトム輝度値Yb〜ピーク輝度値Ypの範囲に分布しているとみなすことができるので、画像データMsの被写体距離範囲をDp〜Dbとすると、DpおよびDbは下記の式(2)により求めることができる。
As described above, since the luminance value of the image data Ms can be regarded as being distributed in the range of the bottom luminance value Yb to the peak luminance value Yp, if the subject distance range of the image data Ms is Dp to Db, Dp and Db can be obtained by the following equation (2).

制御部210では、画像データMsを撮像した際のピント位置と、メモリ250に予め記憶されているピント位置・被写界深度情報とから、画像データMsを撮像した際の被写界深度範囲Dn〜Dfを求め、被写体距離範囲Dp〜Dbと比較する。   In the control unit 210, the depth of field range Dn when the image data Ms is imaged from the focus position when the image data Ms is imaged and the focus position / depth of field information stored in advance in the memory 250. ˜Df is obtained and compared with the subject distance range Dp˜Db.

もし、被写体距離範囲Dp〜Dbが被写界深度範囲Dn〜Dfに含まれる場合には、被写体距離の全範囲にわたって合焦しているとみなすことができる。制御部210は、メモリ250内に取り込んだ画像データMsを、画像合成手段213へ読み込み、切換部220へ出力する。切換部220は、画像合成手段213から出力された画像データMsを信号処理回路230へ出力する。信号処理回路230では、この画像データMsに対して、ホワイトバランス補正、ガンマ補正および彩度補正を施し、表示制御部240に出力する。表示制御部240では、この画像データMsを静止画としてモニタ400へ表示する。   If the subject distance range Dp to Db is included in the depth of field range Dn to Df, it can be considered that the subject is in focus over the entire range of the subject distance. The control unit 210 reads the image data Ms captured in the memory 250 into the image composition unit 213 and outputs it to the switching unit 220. The switching unit 220 outputs the image data Ms output from the image composition unit 213 to the signal processing circuit 230. The signal processing circuit 230 performs white balance correction, gamma correction, and saturation correction on the image data Ms, and outputs the image data Ms to the display control unit 240. The display control unit 240 displays the image data Ms on the monitor 400 as a still image.

一方、被写体距離範囲Dp〜Dbが被写界深度範囲Dn〜Dfに含まれない場合には、被写体範囲の全範囲にわたっては合焦していないことになる。この場合には、制御部210は、メモリ250に記憶した被写界深度情報を参照して、被写体距離範囲の全範囲で合焦させるために必要なピント位置を決定する。   On the other hand, when the subject distance range Dp to Db is not included in the depth of field range Dn to Df, the entire range of the subject range is not in focus. In this case, the control unit 210 refers to the depth of field information stored in the memory 250 and determines a focus position necessary for focusing on the entire subject distance range.

まず、制御部210は、各ピント位置P1〜P5において、被写界深度情報後端Df、被写界深度前端Dn、基準輝度値Yo、基準被写体距離Do、基準射出光量Ioおよび画像データMsを撮像時の照明光の射出光量Isを用いて、被写界深度後端Dfに相当する輝度値(後端)Yfと被写界深度前端Dnに相当する輝度値(前端)Ynとを算出する。   First, at each focus position P1 to P5, the control unit 210 obtains the depth-of-field information rear end Df, the depth-of-field front end Dn, the reference luminance value Yo, the reference subject distance Do, the reference emitted light amount Io, and the image data Ms. A luminance value (rear end) Yf corresponding to the depth of field rear end Df and a luminance value (front end) Yn corresponding to the depth of field front end Dn are calculated using the emitted light amount Is of the illumination light at the time of imaging. .

各ピント位置P1〜P5に対する輝度値(後端)Yfおよび輝度値(前端)Ynは、次の表2のようになる。
The luminance value (rear end) Yf and the luminance value (front end) Yn for each focus position P1 to P5 are as shown in Table 2 below.

すなわち、画像データMsの所定画素の輝度値Yが、例えばYf3より小さく、Yf4<Y<Yn4であれば、この画素に対応する被写体の画像はピント位置4で撮像することにより合焦することがわかる。また、各ピント位置毎の被写界深度範囲はそれぞれ重なりがあるため、各ピント位置での合焦する輝度値の範囲も重なりが生じる。このため、制御部210は、各ピント位置に対応する被写界の合焦輝度値範囲の境界を表3に示すように、重なっている範囲の中間に設定する。
That is, if the luminance value Y of a predetermined pixel of the image data Ms is smaller than, for example, Yf3 and Yf4 <Y <Yn4, the image of the subject corresponding to this pixel can be focused by capturing at the focus position 4. Recognize. In addition, since the depth of field range for each focus position overlaps, the range of the brightness value to be focused at each focus position also overlaps. For this reason, the control unit 210 sets the boundary of the focused luminance value range of the object scene corresponding to each focus position to the middle of the overlapping range as shown in Table 3.

制御部210では、表3に示す各ピント位置に対応する被写界の合焦輝度値範囲と、画像データMsのボトム輝度値Yb〜ピーク輝度値Ypとを比較し、ボトム輝度値Yb〜ピーク輝度値Ypの範囲をカバーするために必要なピント位置を決定し、そのピント位置での撮像が行われていないピント位置での画像の撮像を行い、その画像データをメモリ250へ記憶する。   The control unit 210 compares the focus luminance value range of the object scene corresponding to each focus position shown in Table 3 with the bottom luminance value Yb to the peak luminance value Yp of the image data Ms, and the bottom luminance value Yb to the peak. A focus position necessary to cover the range of the luminance value Yp is determined, an image is captured at a focus position where imaging is not performed at the focus position, and the image data is stored in the memory 250.

例えば、ボトム輝度値Yb〜ピーク輝度値Ypの範囲が、ピント位置P3、ピント位置P4およびピント位置P5に該当するものであり、画像データMsがピント位置P3で撮像された画像であった場合には、制御部210は、ピント位置変更手段170によりピンと位置を変更し、ピント位置P4およびピント位置P5での画像を撮像し、その画像データをメモリ250へ記憶する。   For example, when the range of the bottom luminance value Yb to the peak luminance value Yp corresponds to the focus position P3, the focus position P4, and the focus position P5, and the image data Ms is an image captured at the focus position P3. The control unit 210 changes the focus and position by the focus position changing unit 170, takes images at the focus position P4 and the focus position P5, and stores the image data in the memory 250.

制御部210の画像領域分割手段212では、画像データMsに対して、表3に示した合焦輝度範囲と、画像データMsの各画素の輝度値とに基づいて、領域分割を行い、領域データとする。これは、撮影した複数枚の画像の中で、画像データの局所的な領域ごとに、どのピント位置で撮影した画像が合焦しているかを示すものである。図3Aは画像データMsを表示した画面の一例であり、図3Bは画像データMsを領域分割した領域データの一例である。P3と記載されている領域は、ピント位置P3で撮影した画像で合焦している領域であり、P4およびP5と記載されている領域は、それぞれ、ピント位置P4およびP5で合焦する領域である。   The image area dividing unit 212 of the control unit 210 performs area division on the image data Ms based on the focused luminance range shown in Table 3 and the luminance value of each pixel of the image data Ms, thereby obtaining area data. And This indicates at which focus position the image taken is in focus for each local region of the image data among the plurality of taken images. FIG. 3A is an example of a screen displaying the image data Ms, and FIG. 3B is an example of area data obtained by dividing the image data Ms into areas. The area described as P3 is an area focused on the image taken at the focus position P3, and the areas described as P4 and P5 are areas focused at the focus positions P4 and P5, respectively. is there.

画像合成手段213では、図3Bに示す領域データに基づいて、領域P3はピント位置P3で撮像された画像データMsを用い、領域P4はピント位置P4で撮像された画像データを用い、領域P5はピント位置P5で撮像された画像データを用いて、合成画像データを生成し、切換部220へ出力する。   In the image composition means 213, based on the area data shown in FIG. 3B, the area P3 uses the image data Ms imaged at the focus position P3, the area P4 uses the image data imaged at the focus position P4, and the area P5 Using the image data captured at the focus position P5, composite image data is generated and output to the switching unit 220.

切換部220は、画像合成手段213から出力された合成画像データを信号処理回路230へ出力する。信号処理回路230では、この画像データMsに対して、ホワイトバランス補正、ガンマ補正および彩度補正を施し、表示制御部240に出力する。表示制御部240では、この合成画像データを静止画としてモニタ400へ表示する。モニタ400には、近景から遠景まで合焦した静止画像が表示される。なお、ピント位置P3で撮像した画像データMsを用いる領域とピント位置P4で撮像した画像データを用いる領域との境界など、領域の境界付近では合成結果が不自然とならないように、両方の画像データの重み付け平均をとるなどの処理を行っても良い。   The switching unit 220 outputs the combined image data output from the image combining unit 213 to the signal processing circuit 230. The signal processing circuit 230 performs white balance correction, gamma correction, and saturation correction on the image data Ms, and outputs the result to the display control unit 240. The display control unit 240 displays the composite image data on the monitor 400 as a still image. On the monitor 400, a still image focused from a near view to a distant view is displayed. It should be noted that both the image data are set so that the combined result does not become unnatural near the boundary of the region, such as the boundary between the region using the image data Ms captured at the focus position P3 and the region using the image data captured at the focus position P4. Processing such as taking a weighted average of may be performed.

なお、使用者が、スコープ部100に設けられている静止画指定ボタン160を再度押圧すると、表示モードは静止画表示モードから動画表示モードに戻る。あるいは、静止画表示モードから所定時間経過後した場合に、動画表示モードに自動的に戻ってもよい。   When the user presses the still image designation button 160 provided on the scope unit 100 again, the display mode returns from the still image display mode to the moving image display mode. Alternatively, when a predetermined time has elapsed from the still image display mode, the mode may automatically return to the moving image display mode.

以上の説明で明らかなように、本内視鏡装置では、従来必要であった測距手段を備える必要がないので、スコープ部の細径化が妨げられることなく、画像全体が合焦している画像を取得することができる。また、各画素領域の明るさに基づいて、画像のほぼ全領域において合焦しているか否かを判定するため、画像のコントラストが少ない場合であっても、良好な精度で前記画像のほぼ全領域において合焦しているか否かを判定することができる。さらに、合焦していない場合のみ、複数のピント位置において画像を取得して、合成画像を生成するので、装置の利便性が向上する。   As is clear from the above description, the endoscope apparatus does not need to include a distance measuring unit that has been necessary in the past, so that the entire image is focused without hindering the diameter reduction of the scope portion. Images can be acquired. Further, since it is determined based on the brightness of each pixel area whether or not the entire area of the image is in focus, even when the contrast of the image is low, the entire area of the image can be obtained with good accuracy. It can be determined whether or not the region is in focus. Furthermore, only when not in focus, images are acquired at a plurality of focus positions and a composite image is generated, so that the convenience of the apparatus is improved.

なお、基準輝度情報や各ピント位置における被写界深度情報は、スコープ部100に設けられたCCD120の感度や、撮像光学系180の特性等により変化するので、異なる特性のスコープ部100がプロセッサ部200へ接続されて使用される場合は、スコープ部100の機種別にこれらの情報を設定する必要がある。このため、例えば、スコープ部100に設けられEEPROM150へこれらの情報を記憶し、スコープ部100とプロセッサ部200との接続時にプロセッサ部200がこれらの情報を読み出して、用いてもよい。   The reference luminance information and depth-of-field information at each focus position vary depending on the sensitivity of the CCD 120 provided in the scope unit 100, the characteristics of the imaging optical system 180, and the like. In the case of being used by being connected to 200, it is necessary to set these pieces of information for each model of the scope unit 100. Therefore, for example, these pieces of information may be stored in the EEPROM 150 provided in the scope unit 100, and the processor unit 200 may read and use these pieces of information when the scope unit 100 and the processor unit 200 are connected.

また、プロセッサ部200のメモリ250に、複数の機種別のスコープ部100に対応する基準輝度情報や各ピント位置における被写界深度情報が記憶されている場合であれば、スコープ部100とプロセッサ部200との接続時に、スコープ部100に設けられEEPROM150に保存されたスコープ部100の機種情報を読み出し、プロセッサ内200のメモリ250に機種別に保存された基準輝度情報と被写界深度情報から該当機種のものを読み出し用いても良い。   Further, if the memory 250 of the processor unit 200 stores reference luminance information corresponding to a plurality of scope units 100 and depth-of-field information at each focus position, the scope unit 100 and the processor unit 200, the model information of the scope unit 100 provided in the scope unit 100 and stored in the EEPROM 150 is read out, and the corresponding model is obtained from the reference luminance information and depth-of-field information stored for each model in the memory 250 of the processor 200. Those may be read out and used.

また、上記実施例では基準輝度情報は「基準射出光量で模擬被写体を基準被写体距離で撮像した場合の輝度」として一つの値が設定されており、照明光の射出光量が調整されることは考慮されているが、シャッタースピード設定や、アナログゲイン設定が変更されることは考慮していない。これらの変更機能を搭載する場合は、各設定組合せにおける基準輝度情報を保持しておき、該当設定の基準輝度情報を読み出して用いるか、基準輝度情報Yoを「基準シャッタースピードTo、基準アナログゲイン設定値Go、基準射出光量Ioで、模擬被写体を基準被写体距離Doで撮影した場合の輝度値」として記憶しておき、式(1)の代わりに下記式を適用して、被写体距離を算出することができる。
In the above embodiment, the reference luminance information is set to one value as “the luminance when the simulated subject is imaged at the reference subject distance with the reference emission amount”, and it is considered that the emission amount of the illumination light is adjusted. However, it does not consider changing the shutter speed setting or analog gain setting. When these change functions are installed, the reference luminance information in each setting combination is held and the reference luminance information of the corresponding setting is read and used, or the reference luminance information Yo is set to “reference shutter speed To, reference analog gain setting”. The luminance value when a simulated subject is photographed at the reference subject distance Do with the value Go and the reference emission light amount Io ”is stored, and the subject distance is calculated by applying the following formula instead of the formula (1). Can do.

ただし、Tはシャッタースピード設定値、Gはアナログゲイン設定値である。他の式も同様に変形して用いることができる。   However, T is a shutter speed setting value and G is an analog gain setting value. Other equations can be similarly modified and used.

また、静止画像表示モードにおいては、上記実施例のように、画像データのほぼ全域にわたり合焦していないと判断された場合に、複数のピント位置で撮影した画像から合焦している画像を合成する処理を有効にする場合と、無効にする場合とをスイッチ等で任意に切り替えられようにしてもよい。   In the still image display mode, as in the above-described embodiment, when it is determined that the image data is not in focus over almost the entire area, an image in focus from images taken at a plurality of focus positions is displayed. The case where the processing to be combined is made valid and the case where it is made invalid may be arbitrarily switched by a switch or the like.

さらに、静止画像データをメディア等に画像ファイルとして保存する場合には、合成画像データと、合成されていない画像データとの双方を保存するようにしてもよい。   Further, when still image data is saved as an image file on a medium or the like, both the synthesized image data and the unsynthesized image data may be saved.

本発明の一実施形態である内視鏡装置の概略構成図。1 is a schematic configuration diagram of an endoscope apparatus according to an embodiment of the present invention. ヒストグラムを示す図Figure showing a histogram 画面の模式図Schematic diagram of the screen 画像データを領域分割した領域データの模式図Schematic diagram of area data obtained by dividing image data into areas

符号の説明Explanation of symbols

10 内視鏡装置
100 スコープ部
110 ライトガイド
120 CCD
130 CDS/AGC回路
140 A/D変換回路
150 EEPROM
160 静止画指定ボタン
170 ピント位置変更部
180 撮像光学系
200 プロセッサ部
210 制御部
211 ヒストグラム生成手段
212 画像領域分割手段
213 画像合成手段
220 切換部
230 信号処理回路
240 表示制御部
250 メモリ
300 光源装置
310 光源
320 絞り
330 光源装置側CPU
340 光源装置側メモリ
400 モニタ
DESCRIPTION OF SYMBOLS 10 Endoscope apparatus 100 Scope part 110 Light guide 120 CCD
130 CDS / AGC circuit 140 A / D conversion circuit 150 EEPROM
160 Still image designation button 170 Focus position changing unit 180 Imaging optical system 200 Processor unit 210 Control unit 211 Histogram generating unit 212 Image region dividing unit 213 Image compositing unit 220 Switching unit 230 Signal processing circuit 240 Display control unit 250 Memory 300 Light source device 310 Light source 320 Aperture 330 Light source device side CPU
340 Light source device side memory 400 Monitor

Claims (4)

照明光を射出する光源手段と、前記照明光が照射された被写体の画像を、複数のピント位置の中から所定のピント位置で撮像する撮像手段と、前記画像の撮像動作を制御する制御手段とを有する内視鏡装置において、
前記制御手段が、第1のピント位置で撮像した第1の画像の各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定し、
前記画像のほぼ全領域において合焦してはいないと判定した場合には、前記撮像手段により、前記第1のピント位置とは異なる第2のピント位置で前記被写体の第2の画像を撮像させ、
前記第1の画像内の合焦している領域と、前記第2の画像内の合焦している領域とを合成して、合成画像を生成することを特徴とする内視鏡装置。
A light source unit that emits illumination light; an image capturing unit that captures an image of a subject irradiated with the illumination light at a predetermined focus position from a plurality of focus positions; and a control unit that controls an image capturing operation of the image. In an endoscope apparatus having
The control means determines whether or not the entire area of the image is in focus based on the brightness of each pixel area of the first image captured at the first focus position;
If it is determined that the entire area of the image is not in focus, the imaging means causes the second image of the subject to be captured at a second focus position different from the first focus position. ,
An endoscope apparatus, wherein a focused area in the first image and a focused area in the second image are synthesized to generate a synthesized image.
前記制御手段が、前記第1の画像を、各画素領域の明るさに基づいて、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割し、
前記第1の領域では、前記第1の画像を用い、前記第2の領域では前記第2の画像を用いることにより、合成画像を生成することを特徴とする請求項1記載の内視鏡装置。
The control means includes a first area corresponding to the first focus position and a second area corresponding to the second focus position based on the brightness of each pixel area. Divided into
The endoscope apparatus according to claim 1, wherein a composite image is generated by using the first image in the first region and using the second image in the second region. .
前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備え、
前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記被写体の被写体距離範囲を算出し、該被写体距離範囲と前記複数のピント位置毎の被写界深度とから、前記画像のほぼ全領域において合焦しているか否かを判定するものであることを特徴とする請求項1または2記載の内視鏡装置。
Reference brightness information, which is the brightness of a pixel area of an image captured by illuminating a predetermined amount of illumination light and illuminating a predetermined amount of a simulated subject having substantially the same light reflection characteristics as the subject, Storage means for storing the depth of field for each focus position;
The control means calculates a subject distance range of the subject based on the brightness of each pixel area of the first image and the reference brightness information, and sets the subject distance range and each of the plurality of focus positions. 3. The endoscope apparatus according to claim 1, wherein it is determined whether or not the entire area of the image is in focus based on a depth of field.
前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備え、
前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記各画素領域毎に、前記被写体の被写体距離を算出し、算出した各画素領域毎の前記被写体の被写体距離と前記複数のピント位置毎の被写界深度とに基づいて、前記第1の画像を、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割することを特徴とする請求項2または3記載の内視鏡装置。
Reference brightness information, which is the brightness of a pixel area of an image captured by illuminating a predetermined amount of illumination light and illuminating a predetermined amount of a simulated subject having substantially the same light reflection characteristics as the subject, Storage means for storing the depth of field for each focus position;
The control means calculates the subject distance of the subject for each pixel area based on the brightness of each pixel area of the first image and the reference brightness information, and for each calculated pixel area A first area corresponding to the first focus position and the second focus based on a subject distance of the subject and a depth of field for each of the plurality of focus positions. The endoscope apparatus according to claim 2, wherein the endoscope apparatus is divided into a second region corresponding to the position.
JP2008090674A 2008-03-31 2008-03-31 Photographic equipment Withdrawn JP2009240531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008090674A JP2009240531A (en) 2008-03-31 2008-03-31 Photographic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008090674A JP2009240531A (en) 2008-03-31 2008-03-31 Photographic equipment

Publications (1)

Publication Number Publication Date
JP2009240531A true JP2009240531A (en) 2009-10-22

Family

ID=41303173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008090674A Withdrawn JP2009240531A (en) 2008-03-31 2008-03-31 Photographic equipment

Country Status (1)

Country Link
JP (1) JP2009240531A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012095828A (en) * 2010-11-02 2012-05-24 Olympus Corp Imaging apparatus, endoscope apparatus, and image generation method
JP2012157416A (en) * 2011-01-31 2012-08-23 Olympus Corp Controller, endoscope device, aperture control method, and program
JP2013074929A (en) * 2011-09-29 2013-04-25 Gc Corp Oral cavity interior observation device and oral cavity interior observation system
JPWO2016185763A1 (en) * 2015-05-15 2018-03-01 ソニー株式会社 Light source control device, light source control method, and imaging system
JP2018202104A (en) * 2017-06-09 2018-12-27 株式会社Okファイバーテクノロジー Endoscope system, and endoscopic image acquisition method
JP2020014807A (en) * 2018-07-27 2020-01-30 富士フイルム株式会社 Endoscope apparatus, operation method for the same, and program for endoscope apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012095828A (en) * 2010-11-02 2012-05-24 Olympus Corp Imaging apparatus, endoscope apparatus, and image generation method
JP2012157416A (en) * 2011-01-31 2012-08-23 Olympus Corp Controller, endoscope device, aperture control method, and program
US9345391B2 (en) 2011-01-31 2016-05-24 Olympus Corporation Control device, endoscope apparatus, aperture control method, and information storage medium
JP2013074929A (en) * 2011-09-29 2013-04-25 Gc Corp Oral cavity interior observation device and oral cavity interior observation system
JPWO2016185763A1 (en) * 2015-05-15 2018-03-01 ソニー株式会社 Light source control device, light source control method, and imaging system
JP2018202104A (en) * 2017-06-09 2018-12-27 株式会社Okファイバーテクノロジー Endoscope system, and endoscopic image acquisition method
JP7290245B2 (en) 2017-06-09 2023-06-13 株式会社Okファイバーテクノロジー Endoscope system, data creation method, and operation method of endoscope system
JP2020014807A (en) * 2018-07-27 2020-01-30 富士フイルム株式会社 Endoscope apparatus, operation method for the same, and program for endoscope apparatus
JP7029359B2 (en) 2018-07-27 2022-03-03 富士フイルム株式会社 Endoscope device and its operation method as well as programs for endoscope devices

Similar Documents

Publication Publication Date Title
JP5864880B2 (en) Endoscope apparatus and method for operating endoscope apparatus
EP2926718B1 (en) Endoscope system
JP5326065B2 (en) Endoscope device
JP4575720B2 (en) Electronic endoscope system
WO2012033200A1 (en) Image capture device
WO2013027455A1 (en) Automatic exposure control device, control device, endoscope device and automatic exposure control method
US20070223797A1 (en) Image processing device
JP2012213612A (en) Electronic endoscope system, and calibration method of the same
KR20040069332A (en) Endoscope image processing apparatus
JPWO2016185763A1 (en) Light source control device, light source control method, and imaging system
JP2009240531A (en) Photographic equipment
JPWO2019087557A1 (en) Endoscope system
JP5244164B2 (en) Endoscope device
JP2006223446A (en) Image processor
JP5747362B2 (en) Endoscope device
JP2002360510A (en) Endoscopic apparatus and control method for the same
JP2010279579A (en) Image obtaining method and endoscopic apparatus
EP3934236A1 (en) Signal processing device, imaging device, and signal processing method
JP5498335B2 (en) Imaging apparatus and endoscope diagnostic apparatus
JP5592715B2 (en) Image processing apparatus and image processing method
JP2008256515A (en) Chart deterioration detecting method
US10091480B2 (en) Driving method of imaging element, imaging device with read-out time and accumulation period
JP2006116153A (en) Image processing apparatus for endoscope and endoscope apparatus
JP2013074929A (en) Oral cavity interior observation device and oral cavity interior observation system
JP4648535B2 (en) Electronic endoscope device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607