JP2009240531A - Photographic equipment - Google Patents
Photographic equipment Download PDFInfo
- Publication number
- JP2009240531A JP2009240531A JP2008090674A JP2008090674A JP2009240531A JP 2009240531 A JP2009240531 A JP 2009240531A JP 2008090674 A JP2008090674 A JP 2008090674A JP 2008090674 A JP2008090674 A JP 2008090674A JP 2009240531 A JP2009240531 A JP 2009240531A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- focus
- focus position
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、体腔内などの被写体の画像を取得する内視鏡装置に関するものである。 The present invention relates to an endoscope apparatus that acquires an image of a subject such as a body cavity.
従来から、医療の分野においては、先端にCCDなどが取り付けられた細長いスコープ部を被検体の体腔内に挿入し、被検体の体腔内を撮影して腫瘍や血栓などを観察する内視鏡装置が広く利用されている。このような内視鏡装置によれば、被検体の体腔内を直接撮影することによって、被検体に外的なダメージを与えることなく、放射線画像では分かりにくい病巣の色や形状などを把握することができ、治療方針の決定などに必要な情報を手軽に得ることができる。このような内視鏡装置では、被検体の体腔内を照明により照らし、その照明下で撮影が行われる。 2. Description of the Related Art Conventionally, in the medical field, an endoscopic device for observing a tumor, a thrombus, etc. by inserting an elongated scope portion having a CCD attached at the tip into the body cavity of the subject and photographing the inside of the body cavity of the subject. Is widely used. According to such an endoscope apparatus, by directly photographing the inside of the body cavity of the subject, it is possible to grasp the color or shape of a lesion that is difficult to understand in a radiographic image without causing external damage to the subject. It is possible to easily obtain information necessary for determining a treatment policy. In such an endoscope apparatus, the inside of the body cavity of the subject is illuminated with illumination, and imaging is performed under the illumination.
一方、内視鏡では細長い体腔内を撮影する場合も多く、そのような場合には、一枚の画像の中に、近距離から遠距離までの画像が含まれ、画像の一部、例えば中距離に対応する部分のみがピントが合い、近距離や遠距離に対応する部分はピントが合っていない場合がある。 On the other hand, endoscopes often take images of elongated body cavities, and in such a case, an image from a short distance to a long distance is included in one image, and a part of the image, for example, the middle Only the part corresponding to the distance may be in focus, and the part corresponding to the short distance or the far distance may not be in focus.
通常のカメラにおいては、一枚の画像内の複数の被写体について、撮影距離の異なる複数の被写体に関して、それぞれ撮影距離を測定し、撮影光学系のピント位置をずらしながら複数回撮影を繰り返し、それらの複数の撮影駒から、それぞれピントが合っている部分を選択して、複数の被写体のピントが全て合っている1枚の画像を合成する方法が提案されている。(特許文献1参照)しかし、このようなカメラでは測距手段が必要であり、製造コストが増加する。また、この技術を内視鏡装置へ適用する場合、内視鏡のスコープ部の先端に、測距手段を設置するためのスペースが必要となるので、少しでも細いスコープ部を使用したいという医師の要望にも応えられなくなる。さらに、画像を合成する場合においてピントを合わせたい被写体を指定する必要があり煩わしい。内視鏡装置では、通常観察するのは胃等の内部であるため、カメラで風景シーンや、人物シーンを写すのとは異なり、画像は、1つ1つの被写体で構成されるような画像ではないので、複数の被写体の撮影距離を得るにも、画像のどの部分の撮影距離を測定してよいか不明瞭である、
また、異なる焦点距離をもって撮影された複数枚の画像から1枚の画像を合成する機能を有し、撮影済み画像のそれぞれをお互いに対応する複数の画像領域に分割したうえ、高周波成分量の多い画像領域を優先的に選択することにより、対応する画像領域同士のうちから合焦している画像領域のみを選択して組み合わせること特徴とする電子スチルカメラも提案されている。(特許文献2参照)このカメラには、測距手段も必要でなく、合成時にピントを合わせたい被写体を指定する必要もない。
In addition, it has a function to synthesize one image from a plurality of images photographed at different focal lengths, and divides each photographed image into a plurality of image regions corresponding to each other and has a large amount of high frequency components There has also been proposed an electronic still camera characterized by selecting and combining only focused image areas from corresponding image areas by preferentially selecting image areas. (Refer to Patent Document 2) This camera does not require distance measuring means, and it is not necessary to designate a subject to be focused at the time of synthesis.
しかしながら、内視鏡で通常観察する画像は、胃などの粘膜の画像であるため、局所領域においては、画像のコントラストが小さく、ノイズ等の影響もあり高周波成分量では合焦している画像領域をうまく抽出できない場合がある。このため、上記特許文献2に記載の技術を内視鏡装置へ適用した場合、合成した画像が不自然になる場合がある。 However, since an image normally observed with an endoscope is an image of a mucous membrane such as the stomach, in a local region, an image region in which the contrast of the image is small, and there is an influence of noise or the like, the high-frequency component amount is in focus. May not be extracted successfully. For this reason, when the technique described in Patent Document 2 is applied to an endoscope apparatus, the synthesized image may become unnatural.
本発明は、上記事情に鑑み、スコープ部の細径化を妨げることなく、画像の全領域において合焦している画像を取得することのできる内視鏡装置を提供することを目的とするものである。 In view of the above circumstances, an object of the present invention is to provide an endoscope apparatus that can acquire an image that is in focus in the entire region of an image without preventing the diameter of the scope portion from being reduced. It is.
本発明の内視鏡装置は、照明光を射出する光源手段と、前記照明光が照射された被写体の画像を、複数のピント位置の中から所定のピント位置で撮像する撮像手段と、前記画像の撮像動作を制御する制御手段とを有する内視鏡装置において、
前記制御手段が、第1のピント位置で撮像した第1の画像の各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定し、
前記画像のほぼ全領域において合焦してはいないと判定した場合には、前記撮像手段により、前記第1のピント位置とは異なる第2のピント位置で前記被写体の第2の画像を撮像させ、
前記第1の画像内の合焦している領域と、前記第2の画像内の合焦している領域とを合成して、合成画像を生成することを特徴とするものである。
The endoscope apparatus according to the present invention includes a light source unit that emits illumination light, an imaging unit that captures an image of a subject irradiated with the illumination light at a predetermined focus position from a plurality of focus positions, and the image. In an endoscope apparatus having a control means for controlling the imaging operation of
The control means determines whether or not the entire area of the image is in focus based on the brightness of each pixel area of the first image captured at the first focus position;
If it is determined that the entire area of the image is not in focus, the imaging means causes the second image of the subject to be captured at a second focus position different from the first focus position. ,
A synthesized image is generated by synthesizing a focused area in the first image and a focused area in the second image.
なお、ここで「画素領域の明るさ」とは、一つの画素の明るさであってもよいし、あるいは隣接する複数個の画素の明るさであってもよい。具体的には、一つの画素の輝度値や、あるいは隣接する複数個の画素の平均輝度値などを「画素領域の明るさ」として用いることができる。また、「画像のほぼ全領域」とは、画像の80%以上の領域、好ましくは90%以上、より好ましくは95%以上の領域を意味している。 Here, the “brightness of the pixel region” may be the brightness of a single pixel or the brightness of a plurality of adjacent pixels. Specifically, the luminance value of one pixel or the average luminance value of a plurality of adjacent pixels can be used as the “brightness of the pixel region”. The “substantially the entire area of the image” means an area of 80% or more, preferably 90% or more, more preferably 95% or more of the image.
前記制御手段は、前記第1の画像を、各画素領域の明るさに基づいて、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割し、
前記第1の領域では、前記第1の画像を用い、前記第2の領域では第2の画像を用いることにより、合成画像を生成するものであってもよい。
The control means includes a first area corresponding to the first focus position and a second area corresponding to the second focus position based on the brightness of each pixel area. Divided into
The first image may be generated by using the first image in the first region and the second image in the second region.
さらに、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備える場合であれば、
前記制御手段は、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記被写体の被写体距離範囲を算出し、該被写体距離範囲と前記複数のピント位置毎の被写界深度とから、前記画像のほぼ全領域において合焦しているか否かを判定するものであってもよい。
Further, reference brightness information that is the brightness of a pixel area of an image captured by placing a simulated subject having substantially the same light reflection characteristics as the subject at a predetermined subject distance and irradiating a predetermined amount of illumination light, and If it is provided with storage means for storing the depth of field for each of a plurality of focus positions,
The control means calculates a subject distance range of the subject based on the brightness of each pixel region of the first image and the reference brightness information, and sets the subject distance range and each of the plurality of focus positions. It may be determined from the depth of field whether or not the entire area of the image is in focus.
また、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備えるものであれば、
前記制御手段は、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記各画素領域毎に、前記被写体の被写体距離を算出し、算出した各画素領域毎の前記被写体の被写体距離と前記複数のピント位置毎の被写界深度とに基づいて、前記第1の画像を、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割するものであってもよい。
Further, the reference brightness information, which is the brightness of the pixel area of the image captured by illuminating a predetermined amount of illumination light with a simulated subject having light reflection characteristics substantially equal to that of the subject and illuminating with a predetermined amount of illumination light, If it has a storage means for storing the depth of field for each of a plurality of focus positions,
The control means calculates the subject distance of the subject for each pixel area based on the brightness of each pixel area of the first image and the reference brightness information, and calculates each calculated pixel area. A first area corresponding to the first focus position and the second focus based on a subject distance of the subject and a depth of field for each of the plurality of focus positions. You may divide | segment into the 2nd area | region corresponding to a position.
本発明の内視鏡装置は、第1のピント位置で撮像した第1の画像の各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定し、前記画像のほぼ全領域において合焦してはいないと判定した場合には、前記撮像手段により、前記第1のピント位置とは異なる第2のピント位置で前記被写体の第2の画像を撮像させ、前記第1の画像内の合焦している領域と、前記第2の画像内の合焦している領域とを合成して、合成画像を生成するため、従来必要であった測距手段を備える必要がないので、スコープ部の細径化が妨げられることがなく、また、各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定するため、画像のコントラストが少ない場合であっても、良好な精度で前記画像のほぼ全領域において合焦しているか否かを判定することができ、合焦していない場合のみ、複数のピント位置において画像を取得して、合成画像を生成するので、装置の利便性が向上する。 The endoscope apparatus of the present invention determines whether or not the entire area of the image is in focus based on the brightness of each pixel area of the first image captured at the first focus position, If it is determined that the entire area of the image is not in focus, the imaging means causes the second image of the subject to be captured at a second focus position different from the first focus position. Ranging means conventionally required for synthesizing the in-focus area in the first image and the in-focus area in the second image to generate a composite image In order to determine whether or not the entire area of the image is in focus on the basis of the brightness of each pixel area. Even if the image contrast is low, the front with good accuracy Since it is possible to determine whether or not the entire area of the image is in focus, and only when the image is not in focus, images are acquired at a plurality of focus positions and a composite image is generated. Will improve.
前記制御手段が、前記第1の画像を、各画素領域の明るさに基づいて、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割し、
前記第1の領域では、前記第1の画像を用い、前記第2の領域では第2の画像を用いることにより、合成画像を生成するものであれば、容易に合成画像を生成することができる。
The control means includes a first area corresponding to the first focus position and a second area corresponding to the second focus position based on the brightness of each pixel area. Divided into
A composite image can be easily generated as long as a composite image is generated by using the first image in the first region and the second image in the second region. .
さらに、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備え、前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記被写体の被写体距離範囲を算出し、該被写体距離範囲と前記複数のピント位置毎の被写界深度とから、前記画像のほぼ全領域において合焦しているか否かを判定する場合には、より良好な精度で、前記画像のほぼ全領域において合焦しているか否かを判定することができる。 Further, reference brightness information that is the brightness of a pixel area of an image captured by placing a simulated subject having substantially the same light reflection characteristics as the subject at a predetermined subject distance and irradiating a predetermined amount of illumination light, and Storage means for storing depth of field for each of a plurality of focus positions, wherein the control means is configured to control the subject based on the brightness of each pixel area of the first image and the reference brightness information. When the subject distance range is calculated, and it is determined from the subject distance range and the depth of field for each of the plurality of focus positions whether or not the entire area of the image is in focus, it is better. With accuracy, it can be determined whether or not the entire area of the image is in focus.
また、前記被写体と光の反射特性がほぼ等しい模擬被写体を所定被写体距離へ配置し、所定の光量の照明光を照射して撮像した画像の画素領域の明るさである基準明るさ情報と、前記複数のピント位置毎の被写界深度とを記憶する記憶手段を備え、前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記各画素領域毎に、前記被写体の被写体距離を算出し、算出した各画素領域毎の前記被写体の被写体距離と前記複数のピント位置毎の被写界深度とに基づいて、前記第1の画像を、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割するものであれば、ピント位置が異なる画像の中から、それぞれの領域で合焦している画像を確実に選択することができ、より自然な合成画像を生成することができる。 Further, the reference brightness information, which is the brightness of the pixel area of the image captured by illuminating a predetermined amount of illumination light with a simulated subject having light reflection characteristics substantially equal to that of the subject and illuminating with a predetermined amount of illumination light, Storage means for storing depth of field for each of a plurality of focus positions, and the control means is configured to control each pixel based on the brightness of each pixel area of the first image and the reference brightness information. For each region, calculate the subject distance of the subject, and based on the calculated subject distance of the subject for each pixel region and the depth of field for each of the plurality of focus positions, the first image, If the image is to be divided into a first area corresponding to the first focus position and a second area corresponding to the second focus position, the respective areas of the images having different focus positions may be combined. You can select the image that is in focus A more natural composite image can be generated.
以下図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態である内視鏡装置を示す図である。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an endoscope apparatus according to an embodiment of the present invention.
この図1に示す内視鏡装置10は、動作を表示する動画表示モードまたは静止画を表示する静止画表示モードにより動作するものであり、照明光を伝播する光ファイバからなるライトガイド110が内部に配置され、また先端近傍にCCD120が設けられており、被検者の体腔内、例えば食道等に挿入されるスコープ部100と、CCD120で撮像された画像に各種の画像処理等を施し、動画用の画像データまたは静止画用の画像データを生成するプロセッサ部200と、ライトガイド110へ照明光を供給する光源装置300と、プロセッサ部200において生成された画像データを表示するモニタ400とを備えている。 The endoscope apparatus 10 shown in FIG. 1 operates in a moving image display mode for displaying an operation or a still image display mode for displaying a still image, and includes a light guide 110 made of an optical fiber that propagates illumination light. In addition, a CCD 120 is provided in the vicinity of the tip, and the scope unit 100 inserted into the body cavity of the subject, for example, the esophagus, etc. A processor unit 200 that generates image data for still images or image data for still images, a light source device 300 that supplies illumination light to the light guide 110, and a monitor 400 that displays image data generated in the processor unit 200. ing.
スコープ部100は、プロセッサ部200および光源装置300に着脱自在に装着されるものであり、CCD120の先端には該CCD120へ被写体像を結像させるための撮像光学系180とピント位置変更手段170とが設けられている。ライトガイド110は、光源装置300から射出される照明光を、被検体の体腔内にある被写体に導き、CCD120は、その照明光下で、被写体で反射された光を受光することでその被写体の像をあらわすアナログ画像データを生成する。CCD120には、相関二重サンプリング(CDS)を行うとともに、アナログデータを適宜に増幅する自動利得制御(AGC)を行うCDS/AGC回路130が接続され、該CDS/AGC回路130には、A/D変換回路140が接続されている。CCD120で生成されたアナログ画像データは、CDS/AGC回路130を経てA/D変換回路140に渡され、デジタル画像データに変換される。そして、そのデジタル画像データが、プロセッサ部200に渡される。スコープ部100の根元部分には、表示モードを動画表示モードから静止画表示モードへ切り換えるための静止画指定ボタン160が設けられている。また、スコープ部100には、このスコープ部100の型番等の各種情報を記憶するEEPROM150も備えられている。 The scope unit 100 is detachably attached to the processor unit 200 and the light source device 300, and an imaging optical system 180 for forming a subject image on the CCD 120 and a focus position changing unit 170 at the tip of the CCD 120. Is provided. The light guide 110 guides the illumination light emitted from the light source device 300 to the subject in the body cavity of the subject, and the CCD 120 receives the light reflected by the subject under the illumination light to thereby detect the subject. Analog image data representing an image is generated. Connected to the CCD 120 is a CDS / AGC circuit 130 for performing correlated double sampling (CDS) and performing automatic gain control (AGC) for appropriately amplifying analog data. A D conversion circuit 140 is connected. Analog image data generated by the CCD 120 passes through the CDS / AGC circuit 130 to the A / D conversion circuit 140 and is converted into digital image data. The digital image data is passed to the processor unit 200. A still image designation button 160 for switching the display mode from the moving image display mode to the still image display mode is provided at the base portion of the scope unit 100. The scope unit 100 also includes an EEPROM 150 that stores various types of information such as the model number of the scope unit 100.
プロセッサ部200は、スコープ100の各構成要素の動作を含む、この内視鏡装置10全体の制御を行い、また静止画像表示モードが指示された場合には、静止画像データを生成する制御部210と、動画表示モードが選択されている場合には、スコープ部100から出力される動画画像データを後段へ出力し、静止画表示モードが選択されている場合には、制御部210から出力される静止画像データを後段へ出力する切換部220と、該切換部220から出力された画像データに対してホワイトバランス補正、ガンマ補正や彩度補正等といった各種画像処理を行う信号処理回路230と、該信号処理回路230により画像処理が施された表示画像データをモニタ400に表示させる表示制御部240とを備えている。また、制御部210には、各種制御プログラム、制御に必要な各種情報、を記憶するメモリ250が接続されている。 The processor unit 200 controls the entire endoscope apparatus 10 including the operation of each component of the scope 100, and generates a still image data when the still image display mode is instructed. When the moving image display mode is selected, the moving image data output from the scope unit 100 is output to the subsequent stage, and when the still image display mode is selected, it is output from the control unit 210. A switching unit 220 that outputs still image data to the subsequent stage, a signal processing circuit 230 that performs various image processing such as white balance correction, gamma correction, and saturation correction on the image data output from the switching unit 220; And a display control unit 240 that causes the monitor 400 to display display image data that has been subjected to image processing by the signal processing circuit 230. The control unit 210 is connected to a memory 250 that stores various control programs and various information necessary for control.
制御部210には、ヒストグラム生成手段211、画像領域分割手段212および画像合成手段213を有している。なお、ヒストグラム生成手段211、画像領域分割手段212および画像合成手段213の詳細については後述する。 The control unit 210 includes a histogram generation unit 211, an image region division unit 212, and an image composition unit 213. Details of the histogram generation unit 211, the image region division unit 212, and the image composition unit 213 will be described later.
また、メモリ250には、ピント位置・被写界深度情報と後述する基準輝度情報が記憶されている。ピント位置・被写界深度情報は、各ピント位置と、被写界深度前端Dnと被写界深度後端Dfとの関係を示すものであり、テーブルとして記憶されている。本実施形態において、このメモリ250に格納されているマトリクスデータの一例は次の表1のようになる。
光源装置300は、光源310と、該光源310とスコープ部100のライトガイド110の入射端の間に配置された絞り320と、この光源部装置300全体の動作制御を行う光源制御部330と、各種制御プログラムや制御に必要な各種情報を記憶する光源装置側のメモリ340とが備えられている。光源制御部330は、絞り320の開閉量を制御することにより、光源装置300から射出される照明光の射出光量を制御する。なお、本装置においては、動画表示モードが選択されている場合には、被写体に照射される照明光の照度が適切な値となるように、光源装置300から射出される照明光の照射光量が自動的に調整される。 The light source device 300 includes a light source 310, a diaphragm 320 disposed between the light source 310 and the incident end of the light guide 110 of the scope unit 100, a light source control unit 330 that controls the operation of the entire light source unit device 300, A memory 340 on the light source device side that stores various control programs and various information necessary for control is provided. The light source controller 330 controls the amount of illumination light emitted from the light source device 300 by controlling the opening / closing amount of the diaphragm 320. In the present apparatus, when the moving image display mode is selected, the amount of illumination light emitted from the light source device 300 is set so that the illuminance of illumination light applied to the subject has an appropriate value. Adjusted automatically.
以下、まず動画表示モードが選択されている場合の撮影動作および照明光の照射光量の自動調整動作について説明する。 Hereinafter, first, the photographing operation and the automatic adjustment operation of the illumination light irradiation amount when the moving image display mode is selected will be described.
まず、動画表示モードにおいては、スコープ部100から出力される画像データは、切換部220と制御部210の両方へ送られる。切換部220は、スコープ部100から出力される動画画像データを信号処理回路230へ出力する。信号処理回路230では、順次おくられてくる各フレームの動画画像データに対して、ホワイトバランス補正、ガンマ補正および彩度補正を施し、表示制御部240に出力する。なお、信号処理回路230においては、その他、シャープネス処理や、ノイズ抑制処理など、既知の画像処理を適宜施しても良い。 First, in the moving image display mode, image data output from the scope unit 100 is sent to both the switching unit 220 and the control unit 210. The switching unit 220 outputs the moving image image data output from the scope unit 100 to the signal processing circuit 230. The signal processing circuit 230 performs white balance correction, gamma correction, and saturation correction on the moving image data of each frame that is sequentially sent, and outputs the result to the display control unit 240. In the signal processing circuit 230, other known image processing such as sharpness processing and noise suppression processing may be appropriately performed.
また、上記の信号処理動作と平行して、プロセッサ部200の制御部210内のヒスとグラム生成手段211では、送られてくる各フレームの画像データについて、まず画素毎の輝度値を取得する。制御部210のヒストグラム生成手段211では、この輝度値を用いて図2に示すようなヒストグラムを作成する。なお、輝度値Yとしては、例えば画素データが、RGBからなる場合であれば、Y=(R+G+B)/3 あるいはY=(R+2B+B)/4として求めることができる。このヒストグラムの縦軸は度数、横軸は輝度値である。制御部210では、このヒストグラムから、ヒストグラム特徴量である下記のピーク輝度値Yp、平均輝度値Yaおよびボトム輝度値Ybを算出する。 In parallel with the signal processing operation described above, the hiss and gram generation unit 211 in the control unit 210 of the processor unit 200 first obtains a luminance value for each pixel of the image data of each frame transmitted. The histogram generation means 211 of the control unit 210 creates a histogram as shown in FIG. 2 using this luminance value. The luminance value Y can be obtained as Y = (R + G + B) / 3 or Y = (R + 2B + B) / 4 if the pixel data is composed of RGB, for example. The vertical axis of this histogram is the frequency, and the horizontal axis is the luminance value. The control unit 210 calculates the following peak luminance value Yp, average luminance value Ya, and bottom luminance value Yb, which are histogram feature amounts, from this histogram.
ピーク輝度値Yp:ヒストグラムの高輝度側からカウントして所定の相対累積度数(3%〜20%程度が望ましい)になる輝度値
平均輝度値Ya:ヒストグラムの平均値となる輝度値
ボトム輝度値Yb:ヒストグラムの低輝度側からカウントして所定の相対累積度数(3%〜20%程度が望ましい)になる輝度値
ピーク輝度値Ypは画像データの高輝度側代表値であり、ボトム輝度値Ybは画像データの低輝度側代表値である。画像データの輝度値は、ボトム輝度値Yb〜ピーク輝度値Ypの範囲に分布しているとみなすことができる。
Peak luminance value Yp: luminance value counted from the high luminance side of the histogram to obtain a predetermined relative cumulative frequency (preferably about 3% to 20%) Average luminance value Ya: luminance value serving as the average value of the histogram Bottom luminance value Yb : Luminance value counted from the low luminance side of the histogram to become a predetermined relative cumulative frequency (preferably about 3% to 20%) The peak luminance value Yp is a representative value on the high luminance side of the image data, and the bottom luminance value Yb is This is the low luminance side representative value of the image data. The luminance value of the image data can be regarded as being distributed in the range from the bottom luminance value Yb to the peak luminance value Yp.
次に、制御部210は、平均輝度値Yaとあらかじめ設定されている基準平均輝度値Yiとを比較し、次フレームの画像を撮像する際の照明光の射出光量Iを算出し、光源制御部330へ出力する。制御部210は、平均輝度値Yaが基準平均輝度値Yiよりも小さい場合は、次フレームの画像を取得する際の照明光の射出光量を増大させ、平均輝度値Yaが基準平均輝度値Yiよりも大きい場合は、次フレームの画像を取得する際の照明光の射出光量を減少させ、平均輝度値Yaと基準平均輝度値Yiとが同じ値である場合には、照明光の射出光量を変化させない。 Next, the control unit 210 compares the average luminance value Ya with a preset reference average luminance value Yi, calculates an emission light amount I of illumination light when an image of the next frame is captured, and a light source control unit To 330. When the average luminance value Ya is smaller than the reference average luminance value Yi, the control unit 210 increases the amount of illumination light emitted when acquiring the next frame image, and the average luminance value Ya is larger than the reference average luminance value Yi. If the average luminance value Ya is equal to the reference average luminance value Yi, the amount of emitted light emitted from the illumination light is changed. I won't let you.
光源制御部330では、予めメモリ340に記憶されている照明光の射出光量と絞りの開閉量との関係に基づいて、光源装置300から所定の射出光量Iの照明光が射出されるように、絞り320の開閉量を制御する。 In the light source control unit 330, based on the relationship between the illumination light emission amount stored in the memory 340 in advance and the opening / closing amount of the aperture, illumination light with a predetermined emission light amount I is emitted from the light source device 300. The opening / closing amount of the diaphragm 320 is controlled.
なお、本実施の形態においては、平均輝度値Yaを用いて照明光の射出光量を制御したが、これに限定されるものではなく、他の輝度値、例えばヒストグラムの高輝度側からカウントして20の相対累積度数になる高域輝度値Ycと、予め設定されている基準高域輝度値Yiとが等しくなるように、照明光の射出光量を制御してもよい。あるいは、使用者が、平均輝度値Yaまたは高域輝度値Ycの一方を選択できるようにしてもよい。 In the present embodiment, the emission light amount of illumination light is controlled using the average luminance value Ya, but the present invention is not limited to this, and other luminance values, for example, counting from the high luminance side of the histogram are used. The emitted light quantity of the illumination light may be controlled so that the high-frequency luminance value Yc having a relative cumulative frequency of 20 is equal to a preset reference high-frequency luminance value Yi. Alternatively, the user may be able to select either the average luminance value Ya or the high frequency luminance value Yc.
次に、静止画表示モードが選択された場合の動作について説明する。使用者はモニタ400に表示されている動画を観察しながら、所望のタイミングで、スコープ部100に設けられている静止画指定ボタン160を押圧する。静止画指定ボタン160が押圧されると、該静止画指定ボタン160からプロセッサ200の制御部210内へ表示モードを静止画表示モードへ切り替える静止画表示モード信号が送信される。制御部210では、この静止画表示モード信号を受信すると、受信したタイミングにおいて、CCD120から出力されてくる動画用の画像データから、静止画表示モード信号を受信したタイミングで取得された画像データに関して、前述した各画素領域毎の輝度値のヒストグラムを生成すると同時に、この画像データ(以下画像データMsと記載)をメモリ250内に取り込む。なお、
静止画表示モードにおいては、切換部220は、制御部210の画像合成手段213から出力される画像データを信号処理回路230へ出力する。
Next, the operation when the still image display mode is selected will be described. The user presses the still image designation button 160 provided on the scope unit 100 at a desired timing while observing the moving image displayed on the monitor 400. When the still image designation button 160 is pressed, a still image display mode signal for switching the display mode to the still image display mode is transmitted from the still image designation button 160 into the control unit 210 of the processor 200. When the control unit 210 receives this still image display mode signal, the image data acquired at the timing when the still image display mode signal is received from the moving image image data output from the CCD 120 at the received timing. At the same time as generating a histogram of luminance values for each pixel area described above, this image data (hereinafter referred to as image data Ms) is taken into the memory 250. In addition,
In the still image display mode, the switching unit 220 outputs the image data output from the image composition unit 213 of the control unit 210 to the signal processing circuit 230.
制御部210では、まず画像データMsのヒストグラムと、該画像データMsを取得した際の照明光の射出光量Isと、メモリ250に記憶されている基準輝度値情報とから、被写体距離範囲Dsp〜Dsbを算出する。 In the control unit 210, first, from the histogram of the image data Ms, the emission light amount Is of the illumination light when the image data Ms is acquired, and the reference luminance value information stored in the memory 250, the subject distance range Dsp to Dsb. Is calculated.
なお、基準輝度値情報は、基準輝度値Yo、基準被写体距離Doおよび基準射出光量Ioとからなる。基準輝度値Yoとは、被写体と略同一の反射率を有する粘膜を、基準被写体距離Doに配置し、基準射出光量Ioの照明光を照射して撮像した画像の所定画素の輝度値であり、予め実測により求められて、メモリ250に記憶されている。 The reference luminance value information includes a reference luminance value Yo, a reference subject distance Do, and a reference emitted light amount Io. The reference luminance value Yo is a luminance value of a predetermined pixel of an image captured by placing a mucous membrane having substantially the same reflectance as the subject at a reference subject distance Do and irradiating illumination light of a reference emission light amount Io, It is obtained in advance by actual measurement and stored in the memory 250.
内視鏡においては、被写体に照射される照明光の照度がM倍になると画素の輝度値YはM倍になり、被写体の被写体距離DがN倍になると被写体に照射される照明光の照度は1/N2倍になると考えることができる。また、観察される被写体は胃等の粘膜であり、反射率はほぼ一定であるとみなすことができる。 In an endoscope, the luminance value Y of a pixel increases M times when the illuminance of the illumination light applied to the subject increases M times, and the illuminance of the illumination light applied to the subject when the subject distance D of the subject increases N times it can be considered that doubles 1 / N. The observed subject is the mucous membrane such as the stomach, and it can be considered that the reflectance is almost constant.
このため、画像データMsの所定の画素の被写体距離Dは下記式(1)を用いて算出することができる。
なお、式(1)において、Yoは基準輝度値、Doは基準被写体距離、Ioは照明光の基準射出光量、Yは画像データMsの所定の画素の輝度値、Iは画像データMsを撮像した際の照明光の射出光量である。 In Equation (1), Yo is a reference luminance value, Do is a reference subject distance, Io is a reference emission amount of illumination light, Y is a luminance value of a predetermined pixel of image data Ms, and I is image data Ms. This is the amount of emitted light of the illumination light.
上述したように、画像データMsの輝度値は、ボトム輝度値Yb〜ピーク輝度値Ypの範囲に分布しているとみなすことができるので、画像データMsの被写体距離範囲をDp〜Dbとすると、DpおよびDbは下記の式(2)により求めることができる。
制御部210では、画像データMsを撮像した際のピント位置と、メモリ250に予め記憶されているピント位置・被写界深度情報とから、画像データMsを撮像した際の被写界深度範囲Dn〜Dfを求め、被写体距離範囲Dp〜Dbと比較する。 In the control unit 210, the depth of field range Dn when the image data Ms is imaged from the focus position when the image data Ms is imaged and the focus position / depth of field information stored in advance in the memory 250. ˜Df is obtained and compared with the subject distance range Dp˜Db.
もし、被写体距離範囲Dp〜Dbが被写界深度範囲Dn〜Dfに含まれる場合には、被写体距離の全範囲にわたって合焦しているとみなすことができる。制御部210は、メモリ250内に取り込んだ画像データMsを、画像合成手段213へ読み込み、切換部220へ出力する。切換部220は、画像合成手段213から出力された画像データMsを信号処理回路230へ出力する。信号処理回路230では、この画像データMsに対して、ホワイトバランス補正、ガンマ補正および彩度補正を施し、表示制御部240に出力する。表示制御部240では、この画像データMsを静止画としてモニタ400へ表示する。 If the subject distance range Dp to Db is included in the depth of field range Dn to Df, it can be considered that the subject is in focus over the entire range of the subject distance. The control unit 210 reads the image data Ms captured in the memory 250 into the image composition unit 213 and outputs it to the switching unit 220. The switching unit 220 outputs the image data Ms output from the image composition unit 213 to the signal processing circuit 230. The signal processing circuit 230 performs white balance correction, gamma correction, and saturation correction on the image data Ms, and outputs the image data Ms to the display control unit 240. The display control unit 240 displays the image data Ms on the monitor 400 as a still image.
一方、被写体距離範囲Dp〜Dbが被写界深度範囲Dn〜Dfに含まれない場合には、被写体範囲の全範囲にわたっては合焦していないことになる。この場合には、制御部210は、メモリ250に記憶した被写界深度情報を参照して、被写体距離範囲の全範囲で合焦させるために必要なピント位置を決定する。 On the other hand, when the subject distance range Dp to Db is not included in the depth of field range Dn to Df, the entire range of the subject range is not in focus. In this case, the control unit 210 refers to the depth of field information stored in the memory 250 and determines a focus position necessary for focusing on the entire subject distance range.
まず、制御部210は、各ピント位置P1〜P5において、被写界深度情報後端Df、被写界深度前端Dn、基準輝度値Yo、基準被写体距離Do、基準射出光量Ioおよび画像データMsを撮像時の照明光の射出光量Isを用いて、被写界深度後端Dfに相当する輝度値(後端)Yfと被写界深度前端Dnに相当する輝度値(前端)Ynとを算出する。 First, at each focus position P1 to P5, the control unit 210 obtains the depth-of-field information rear end Df, the depth-of-field front end Dn, the reference luminance value Yo, the reference subject distance Do, the reference emitted light amount Io, and the image data Ms. A luminance value (rear end) Yf corresponding to the depth of field rear end Df and a luminance value (front end) Yn corresponding to the depth of field front end Dn are calculated using the emitted light amount Is of the illumination light at the time of imaging. .
各ピント位置P1〜P5に対する輝度値(後端)Yfおよび輝度値(前端)Ynは、次の表2のようになる。
すなわち、画像データMsの所定画素の輝度値Yが、例えばYf3より小さく、Yf4<Y<Yn4であれば、この画素に対応する被写体の画像はピント位置4で撮像することにより合焦することがわかる。また、各ピント位置毎の被写界深度範囲はそれぞれ重なりがあるため、各ピント位置での合焦する輝度値の範囲も重なりが生じる。このため、制御部210は、各ピント位置に対応する被写界の合焦輝度値範囲の境界を表3に示すように、重なっている範囲の中間に設定する。
制御部210では、表3に示す各ピント位置に対応する被写界の合焦輝度値範囲と、画像データMsのボトム輝度値Yb〜ピーク輝度値Ypとを比較し、ボトム輝度値Yb〜ピーク輝度値Ypの範囲をカバーするために必要なピント位置を決定し、そのピント位置での撮像が行われていないピント位置での画像の撮像を行い、その画像データをメモリ250へ記憶する。 The control unit 210 compares the focus luminance value range of the object scene corresponding to each focus position shown in Table 3 with the bottom luminance value Yb to the peak luminance value Yp of the image data Ms, and the bottom luminance value Yb to the peak. A focus position necessary to cover the range of the luminance value Yp is determined, an image is captured at a focus position where imaging is not performed at the focus position, and the image data is stored in the memory 250.
例えば、ボトム輝度値Yb〜ピーク輝度値Ypの範囲が、ピント位置P3、ピント位置P4およびピント位置P5に該当するものであり、画像データMsがピント位置P3で撮像された画像であった場合には、制御部210は、ピント位置変更手段170によりピンと位置を変更し、ピント位置P4およびピント位置P5での画像を撮像し、その画像データをメモリ250へ記憶する。 For example, when the range of the bottom luminance value Yb to the peak luminance value Yp corresponds to the focus position P3, the focus position P4, and the focus position P5, and the image data Ms is an image captured at the focus position P3. The control unit 210 changes the focus and position by the focus position changing unit 170, takes images at the focus position P4 and the focus position P5, and stores the image data in the memory 250.
制御部210の画像領域分割手段212では、画像データMsに対して、表3に示した合焦輝度範囲と、画像データMsの各画素の輝度値とに基づいて、領域分割を行い、領域データとする。これは、撮影した複数枚の画像の中で、画像データの局所的な領域ごとに、どのピント位置で撮影した画像が合焦しているかを示すものである。図3Aは画像データMsを表示した画面の一例であり、図3Bは画像データMsを領域分割した領域データの一例である。P3と記載されている領域は、ピント位置P3で撮影した画像で合焦している領域であり、P4およびP5と記載されている領域は、それぞれ、ピント位置P4およびP5で合焦する領域である。 The image area dividing unit 212 of the control unit 210 performs area division on the image data Ms based on the focused luminance range shown in Table 3 and the luminance value of each pixel of the image data Ms, thereby obtaining area data. And This indicates at which focus position the image taken is in focus for each local region of the image data among the plurality of taken images. FIG. 3A is an example of a screen displaying the image data Ms, and FIG. 3B is an example of area data obtained by dividing the image data Ms into areas. The area described as P3 is an area focused on the image taken at the focus position P3, and the areas described as P4 and P5 are areas focused at the focus positions P4 and P5, respectively. is there.
画像合成手段213では、図3Bに示す領域データに基づいて、領域P3はピント位置P3で撮像された画像データMsを用い、領域P4はピント位置P4で撮像された画像データを用い、領域P5はピント位置P5で撮像された画像データを用いて、合成画像データを生成し、切換部220へ出力する。 In the image composition means 213, based on the area data shown in FIG. 3B, the area P3 uses the image data Ms imaged at the focus position P3, the area P4 uses the image data imaged at the focus position P4, and the area P5 Using the image data captured at the focus position P5, composite image data is generated and output to the switching unit 220.
切換部220は、画像合成手段213から出力された合成画像データを信号処理回路230へ出力する。信号処理回路230では、この画像データMsに対して、ホワイトバランス補正、ガンマ補正および彩度補正を施し、表示制御部240に出力する。表示制御部240では、この合成画像データを静止画としてモニタ400へ表示する。モニタ400には、近景から遠景まで合焦した静止画像が表示される。なお、ピント位置P3で撮像した画像データMsを用いる領域とピント位置P4で撮像した画像データを用いる領域との境界など、領域の境界付近では合成結果が不自然とならないように、両方の画像データの重み付け平均をとるなどの処理を行っても良い。 The switching unit 220 outputs the combined image data output from the image combining unit 213 to the signal processing circuit 230. The signal processing circuit 230 performs white balance correction, gamma correction, and saturation correction on the image data Ms, and outputs the result to the display control unit 240. The display control unit 240 displays the composite image data on the monitor 400 as a still image. On the monitor 400, a still image focused from a near view to a distant view is displayed. It should be noted that both the image data are set so that the combined result does not become unnatural near the boundary of the region, such as the boundary between the region using the image data Ms captured at the focus position P3 and the region using the image data captured at the focus position P4. Processing such as taking a weighted average of may be performed.
なお、使用者が、スコープ部100に設けられている静止画指定ボタン160を再度押圧すると、表示モードは静止画表示モードから動画表示モードに戻る。あるいは、静止画表示モードから所定時間経過後した場合に、動画表示モードに自動的に戻ってもよい。 When the user presses the still image designation button 160 provided on the scope unit 100 again, the display mode returns from the still image display mode to the moving image display mode. Alternatively, when a predetermined time has elapsed from the still image display mode, the mode may automatically return to the moving image display mode.
以上の説明で明らかなように、本内視鏡装置では、従来必要であった測距手段を備える必要がないので、スコープ部の細径化が妨げられることなく、画像全体が合焦している画像を取得することができる。また、各画素領域の明るさに基づいて、画像のほぼ全領域において合焦しているか否かを判定するため、画像のコントラストが少ない場合であっても、良好な精度で前記画像のほぼ全領域において合焦しているか否かを判定することができる。さらに、合焦していない場合のみ、複数のピント位置において画像を取得して、合成画像を生成するので、装置の利便性が向上する。 As is clear from the above description, the endoscope apparatus does not need to include a distance measuring unit that has been necessary in the past, so that the entire image is focused without hindering the diameter reduction of the scope portion. Images can be acquired. Further, since it is determined based on the brightness of each pixel area whether or not the entire area of the image is in focus, even when the contrast of the image is low, the entire area of the image can be obtained with good accuracy. It can be determined whether or not the region is in focus. Furthermore, only when not in focus, images are acquired at a plurality of focus positions and a composite image is generated, so that the convenience of the apparatus is improved.
なお、基準輝度情報や各ピント位置における被写界深度情報は、スコープ部100に設けられたCCD120の感度や、撮像光学系180の特性等により変化するので、異なる特性のスコープ部100がプロセッサ部200へ接続されて使用される場合は、スコープ部100の機種別にこれらの情報を設定する必要がある。このため、例えば、スコープ部100に設けられEEPROM150へこれらの情報を記憶し、スコープ部100とプロセッサ部200との接続時にプロセッサ部200がこれらの情報を読み出して、用いてもよい。 The reference luminance information and depth-of-field information at each focus position vary depending on the sensitivity of the CCD 120 provided in the scope unit 100, the characteristics of the imaging optical system 180, and the like. In the case of being used by being connected to 200, it is necessary to set these pieces of information for each model of the scope unit 100. Therefore, for example, these pieces of information may be stored in the EEPROM 150 provided in the scope unit 100, and the processor unit 200 may read and use these pieces of information when the scope unit 100 and the processor unit 200 are connected.
また、プロセッサ部200のメモリ250に、複数の機種別のスコープ部100に対応する基準輝度情報や各ピント位置における被写界深度情報が記憶されている場合であれば、スコープ部100とプロセッサ部200との接続時に、スコープ部100に設けられEEPROM150に保存されたスコープ部100の機種情報を読み出し、プロセッサ内200のメモリ250に機種別に保存された基準輝度情報と被写界深度情報から該当機種のものを読み出し用いても良い。 Further, if the memory 250 of the processor unit 200 stores reference luminance information corresponding to a plurality of scope units 100 and depth-of-field information at each focus position, the scope unit 100 and the processor unit 200, the model information of the scope unit 100 provided in the scope unit 100 and stored in the EEPROM 150 is read out, and the corresponding model is obtained from the reference luminance information and depth-of-field information stored for each model in the memory 250 of the processor 200. Those may be read out and used.
また、上記実施例では基準輝度情報は「基準射出光量で模擬被写体を基準被写体距離で撮像した場合の輝度」として一つの値が設定されており、照明光の射出光量が調整されることは考慮されているが、シャッタースピード設定や、アナログゲイン設定が変更されることは考慮していない。これらの変更機能を搭載する場合は、各設定組合せにおける基準輝度情報を保持しておき、該当設定の基準輝度情報を読み出して用いるか、基準輝度情報Yoを「基準シャッタースピードTo、基準アナログゲイン設定値Go、基準射出光量Ioで、模擬被写体を基準被写体距離Doで撮影した場合の輝度値」として記憶しておき、式(1)の代わりに下記式を適用して、被写体距離を算出することができる。
ただし、Tはシャッタースピード設定値、Gはアナログゲイン設定値である。他の式も同様に変形して用いることができる。 However, T is a shutter speed setting value and G is an analog gain setting value. Other equations can be similarly modified and used.
また、静止画像表示モードにおいては、上記実施例のように、画像データのほぼ全域にわたり合焦していないと判断された場合に、複数のピント位置で撮影した画像から合焦している画像を合成する処理を有効にする場合と、無効にする場合とをスイッチ等で任意に切り替えられようにしてもよい。 In the still image display mode, as in the above-described embodiment, when it is determined that the image data is not in focus over almost the entire area, an image in focus from images taken at a plurality of focus positions is displayed. The case where the processing to be combined is made valid and the case where it is made invalid may be arbitrarily switched by a switch or the like.
さらに、静止画像データをメディア等に画像ファイルとして保存する場合には、合成画像データと、合成されていない画像データとの双方を保存するようにしてもよい。 Further, when still image data is saved as an image file on a medium or the like, both the synthesized image data and the unsynthesized image data may be saved.
10 内視鏡装置
100 スコープ部
110 ライトガイド
120 CCD
130 CDS/AGC回路
140 A/D変換回路
150 EEPROM
160 静止画指定ボタン
170 ピント位置変更部
180 撮像光学系
200 プロセッサ部
210 制御部
211 ヒストグラム生成手段
212 画像領域分割手段
213 画像合成手段
220 切換部
230 信号処理回路
240 表示制御部
250 メモリ
300 光源装置
310 光源
320 絞り
330 光源装置側CPU
340 光源装置側メモリ
400 モニタ
DESCRIPTION OF SYMBOLS 10 Endoscope apparatus 100 Scope part 110 Light guide 120 CCD
130 CDS / AGC circuit 140 A / D conversion circuit 150 EEPROM
160 Still image designation button 170 Focus position changing unit 180 Imaging optical system 200 Processor unit 210 Control unit 211 Histogram generating unit 212 Image region dividing unit 213 Image compositing unit 220 Switching unit 230 Signal processing circuit 240 Display control unit 250 Memory 300 Light source device 310 Light source 320 Aperture 330 Light source device side CPU
340 Light source device side memory 400 Monitor
Claims (4)
前記制御手段が、第1のピント位置で撮像した第1の画像の各画素領域の明るさに基づいて、前記画像のほぼ全領域において合焦しているか否かを判定し、
前記画像のほぼ全領域において合焦してはいないと判定した場合には、前記撮像手段により、前記第1のピント位置とは異なる第2のピント位置で前記被写体の第2の画像を撮像させ、
前記第1の画像内の合焦している領域と、前記第2の画像内の合焦している領域とを合成して、合成画像を生成することを特徴とする内視鏡装置。 A light source unit that emits illumination light; an image capturing unit that captures an image of a subject irradiated with the illumination light at a predetermined focus position from a plurality of focus positions; and a control unit that controls an image capturing operation of the image. In an endoscope apparatus having
The control means determines whether or not the entire area of the image is in focus based on the brightness of each pixel area of the first image captured at the first focus position;
If it is determined that the entire area of the image is not in focus, the imaging means causes the second image of the subject to be captured at a second focus position different from the first focus position. ,
An endoscope apparatus, wherein a focused area in the first image and a focused area in the second image are synthesized to generate a synthesized image.
前記第1の領域では、前記第1の画像を用い、前記第2の領域では前記第2の画像を用いることにより、合成画像を生成することを特徴とする請求項1記載の内視鏡装置。 The control means includes a first area corresponding to the first focus position and a second area corresponding to the second focus position based on the brightness of each pixel area. Divided into
The endoscope apparatus according to claim 1, wherein a composite image is generated by using the first image in the first region and using the second image in the second region. .
前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記被写体の被写体距離範囲を算出し、該被写体距離範囲と前記複数のピント位置毎の被写界深度とから、前記画像のほぼ全領域において合焦しているか否かを判定するものであることを特徴とする請求項1または2記載の内視鏡装置。 Reference brightness information, which is the brightness of a pixel area of an image captured by illuminating a predetermined amount of illumination light and illuminating a predetermined amount of a simulated subject having substantially the same light reflection characteristics as the subject, Storage means for storing the depth of field for each focus position;
The control means calculates a subject distance range of the subject based on the brightness of each pixel area of the first image and the reference brightness information, and sets the subject distance range and each of the plurality of focus positions. 3. The endoscope apparatus according to claim 1, wherein it is determined whether or not the entire area of the image is in focus based on a depth of field.
前記制御手段が、前記第1の画像の各画素領域の明るさと、前記基準明るさ情報とに基づいて、前記各画素領域毎に、前記被写体の被写体距離を算出し、算出した各画素領域毎の前記被写体の被写体距離と前記複数のピント位置毎の被写界深度とに基づいて、前記第1の画像を、前記第1のピント位置と対応する第1の領域と、前記第2のピント位置と対応する第2の領域とへ分割することを特徴とする請求項2または3記載の内視鏡装置。 Reference brightness information, which is the brightness of a pixel area of an image captured by illuminating a predetermined amount of illumination light and illuminating a predetermined amount of a simulated subject having substantially the same light reflection characteristics as the subject, Storage means for storing the depth of field for each focus position;
The control means calculates the subject distance of the subject for each pixel area based on the brightness of each pixel area of the first image and the reference brightness information, and for each calculated pixel area A first area corresponding to the first focus position and the second focus based on a subject distance of the subject and a depth of field for each of the plurality of focus positions. The endoscope apparatus according to claim 2, wherein the endoscope apparatus is divided into a second region corresponding to the position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008090674A JP2009240531A (en) | 2008-03-31 | 2008-03-31 | Photographic equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008090674A JP2009240531A (en) | 2008-03-31 | 2008-03-31 | Photographic equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009240531A true JP2009240531A (en) | 2009-10-22 |
Family
ID=41303173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008090674A Withdrawn JP2009240531A (en) | 2008-03-31 | 2008-03-31 | Photographic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009240531A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012095828A (en) * | 2010-11-02 | 2012-05-24 | Olympus Corp | Imaging apparatus, endoscope apparatus, and image generation method |
JP2012157416A (en) * | 2011-01-31 | 2012-08-23 | Olympus Corp | Controller, endoscope device, aperture control method, and program |
JP2013074929A (en) * | 2011-09-29 | 2013-04-25 | Gc Corp | Oral cavity interior observation device and oral cavity interior observation system |
JPWO2016185763A1 (en) * | 2015-05-15 | 2018-03-01 | ソニー株式会社 | Light source control device, light source control method, and imaging system |
JP2018202104A (en) * | 2017-06-09 | 2018-12-27 | 株式会社Okファイバーテクノロジー | Endoscope system, and endoscopic image acquisition method |
JP2020014807A (en) * | 2018-07-27 | 2020-01-30 | 富士フイルム株式会社 | Endoscope apparatus, operation method for the same, and program for endoscope apparatus |
-
2008
- 2008-03-31 JP JP2008090674A patent/JP2009240531A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012095828A (en) * | 2010-11-02 | 2012-05-24 | Olympus Corp | Imaging apparatus, endoscope apparatus, and image generation method |
JP2012157416A (en) * | 2011-01-31 | 2012-08-23 | Olympus Corp | Controller, endoscope device, aperture control method, and program |
US9345391B2 (en) | 2011-01-31 | 2016-05-24 | Olympus Corporation | Control device, endoscope apparatus, aperture control method, and information storage medium |
JP2013074929A (en) * | 2011-09-29 | 2013-04-25 | Gc Corp | Oral cavity interior observation device and oral cavity interior observation system |
JPWO2016185763A1 (en) * | 2015-05-15 | 2018-03-01 | ソニー株式会社 | Light source control device, light source control method, and imaging system |
JP2018202104A (en) * | 2017-06-09 | 2018-12-27 | 株式会社Okファイバーテクノロジー | Endoscope system, and endoscopic image acquisition method |
JP7290245B2 (en) | 2017-06-09 | 2023-06-13 | 株式会社Okファイバーテクノロジー | Endoscope system, data creation method, and operation method of endoscope system |
JP2020014807A (en) * | 2018-07-27 | 2020-01-30 | 富士フイルム株式会社 | Endoscope apparatus, operation method for the same, and program for endoscope apparatus |
JP7029359B2 (en) | 2018-07-27 | 2022-03-03 | 富士フイルム株式会社 | Endoscope device and its operation method as well as programs for endoscope devices |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5864880B2 (en) | Endoscope apparatus and method for operating endoscope apparatus | |
EP2926718B1 (en) | Endoscope system | |
JP5326065B2 (en) | Endoscope device | |
JP4575720B2 (en) | Electronic endoscope system | |
WO2012033200A1 (en) | Image capture device | |
WO2013027455A1 (en) | Automatic exposure control device, control device, endoscope device and automatic exposure control method | |
US20070223797A1 (en) | Image processing device | |
JP2012213612A (en) | Electronic endoscope system, and calibration method of the same | |
KR20040069332A (en) | Endoscope image processing apparatus | |
JPWO2016185763A1 (en) | Light source control device, light source control method, and imaging system | |
JP2009240531A (en) | Photographic equipment | |
JPWO2019087557A1 (en) | Endoscope system | |
JP5244164B2 (en) | Endoscope device | |
JP2006223446A (en) | Image processor | |
JP5747362B2 (en) | Endoscope device | |
JP2002360510A (en) | Endoscopic apparatus and control method for the same | |
JP2010279579A (en) | Image obtaining method and endoscopic apparatus | |
EP3934236A1 (en) | Signal processing device, imaging device, and signal processing method | |
JP5498335B2 (en) | Imaging apparatus and endoscope diagnostic apparatus | |
JP5592715B2 (en) | Image processing apparatus and image processing method | |
JP2008256515A (en) | Chart deterioration detecting method | |
US10091480B2 (en) | Driving method of imaging element, imaging device with read-out time and accumulation period | |
JP2006116153A (en) | Image processing apparatus for endoscope and endoscope apparatus | |
JP2013074929A (en) | Oral cavity interior observation device and oral cavity interior observation system | |
JP4648535B2 (en) | Electronic endoscope device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110607 |