JP2004219546A - Automatic focusing device and automatic focusing method - Google Patents

Automatic focusing device and automatic focusing method Download PDF

Info

Publication number
JP2004219546A
JP2004219546A JP2003004343A JP2003004343A JP2004219546A JP 2004219546 A JP2004219546 A JP 2004219546A JP 2003004343 A JP2003004343 A JP 2003004343A JP 2003004343 A JP2003004343 A JP 2003004343A JP 2004219546 A JP2004219546 A JP 2004219546A
Authority
JP
Japan
Prior art keywords
edge
pixel
image
focus
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003004343A
Other languages
Japanese (ja)
Inventor
Shigeru Wakashiro
滋 若代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Priority to JP2003004343A priority Critical patent/JP2004219546A/en
Publication of JP2004219546A publication Critical patent/JP2004219546A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic focusing device capable of realizing accurate automatic focusing even on the fine character of a subject. <P>SOLUTION: The automatic focusing device is equipped with an automatic focusing part 15 which extracts a luminance signal from an image signal, calculates the intensity and the direction of the edge of each image on the basis of the luminance signal, selects a pixel where the pixels whose edge directions are the same and whose edge intensity is large do not exist in the pixels adjacent in the direction of the edge of the image out of the images whose intensity and direction have been calculated, and calculates an evaluation value by integrating the intensity of the edge of the selected pixel. The automatic focusing part 15 detects a position where the evaluation value becomes maximum by repeating processing to calculate the evaluation value every time a stepping motor driving circuit 21 step-drives a movable lens system 3b, and moves the lens system 3b to the detected position where the evaluation value becomes maximum. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の技術分野】
本発明は、特に電子内視鏡に適した自動焦点調節装置および自動焦点調節方法に関する。
【0002】
【従来技術およびその問題点】
近年、自動焦点調節装置を備えた電子内視鏡が開発されている。このような従来の自動焦点調節装置の焦点検出は、CCDまたはCMOS型撮像素子により撮像した映像信号を利用している。例えば、高周波成分に関する評価値が最大になるときをピント位置(合焦位置)として焦点調節をしている。評価値は、隣り合う画素の輝度差の合計とし、評価値が最大となる位置を合焦位置としていた。
しかし、このような評価値の検出は、観察したい対象が微細なときは、その対象部分の輝度差を検出することが困難となり、精確な焦点検出ができなかった。
【0003】
自動焦点調節装置を備えた電子内視鏡として、特許文献1、特許文献2、特許文献3および特許文献4等が知られている。
【0004】
【特許文献1】
特開2001−154085号公報
【特許文献2】
特開2000−5127号公報
【特許文献3】
特開2000−197604号公報
【特許文献4】
特開2000−342533号公報
【0005】
【発明の目的】
本発明は、被写体の微細な特徴に対しても精確な自動焦点調節が可能な自動焦点調節装置および焦点調節方法を提供することを目的とする。
【0006】
【発明の概要】
この目的を達成する本発明は、撮像光学系と、該撮像光学系によって形成される光学像を電気的な画像信号に変換する撮像手段と、前記光学像の焦点状態を調節する焦点調節手段とを備え、前記焦点調節手段を最遠合焦位置と最至近位置合焦状態との間でステップ駆動する制御手段と、前記画像信号から輝度信号を抽出して、この輝度信号に基づいて画像のエッジの強度およびエッジの方向を算出し、前記強度および方向を算出した画像の中から、そのエッジの方向に隣接する画素に、前記エッジの方向が同一方向でかつ前記エッジの強度が大きい画素が存在しない画素を選択し、該選択した画素のエッジの強度を積算して評価値を算出する焦点検出手段とを備え、前記焦点検出手段は、前記評価値を算出する処理を、前記制御手段が前記焦点駆動手段をステップ駆動する毎に繰り返して前記評価値が最大となる位置を検出し、前記制御手段は、検出された評価値が最大となる位置に前記焦点調節手段を駆動することに特徴を有する。
この構成によれば、エッジとして求めた画像のうち、非極大となる画素を排除して評価値を求めるので、精確な合焦状態を検出することが可能になる。
【0007】
エッジの強度は、画素信号を微分して求めたx方向、y方向の変化量Δx、Δyから式
((Δx)+(Δy)1/2
により求めることができる。
画像のエッジの方向を、画素信号を微分して求めたx方向、y方向の変化量Δx、Δyから式
Tan−1(Δy/Δx)
により求めることができる。
画像のエッジの方向を、画素毎に所定方向に分類し、各画素の分類された方向の画素のエッジの方向および強度と比較して、非極大となる画素を排除する。
【0008】
本発明の焦点検出方法は、撮像光学系と、該撮像光学系によって形成される光学像を電気的な画像信号に変換する撮像手段から出力された画像信号から輝度信号を抽出する段階と、この輝度信号に基づいて画像のエッジの方向およびエッジの強度を算出する段階と、前記エッジおよび強度を算出した画像の中から、そのエッジの方向に隣接する画素に、前記エッジの方向が同一方向でかつ前記エッジの強度が大きい画素が存在しない画素を選択する段階と、前記選択した画素のエッジの強度を積算して評価値を算出する段階と、前記各段階を、前記焦点調節手段をステップ駆動させながら繰り返す段階と、前記繰り返し段階により得られた評価値の中で、最も大きい評価値を得られた位置に前記焦点調節手段を駆動する段階とを含むことに特徴を有する。
この方法によれば、エッジとして求めた画像のうち、非極大となる画素を排除して評価値を求めるので、精確な合焦状態を検出することが可能になる。
【0009】
【発明の実施の形態】
以下図面に基づいて本発明を説明する。図1は、本発明の自動焦点調節装置を搭載した電子内視鏡装置の実施形態をブロックで示す図である。
撮像光学系3の一例を図2及び図3に基づいて説明する。図2及び図3に示すように、内視鏡1の挿入管1a先端部内には筒状をなす固定レンズ枠3dが設置され、固定レンズ枠3dに撮像光学系3の固定レンズ系3aを固定してある。また固定レンズ枠3dの内側に筒状をなすガイド枠3eを設け、ガイド枠3eには光軸(図2の左右方向)と平行に直線案内溝3f、3gを設けている。
【0010】
ガイド枠3eの内側には可動レンズ枠3hが光軸方向に移動可動に嵌め込まれており、可動レンズ枠3hのキー3iとガイド枠3eの直線案内溝3f(図2において上部に位置)との嵌め合せにより可動レンズ枠3hを光軸の周りに回転させることなく光軸に沿って直線移動させる。またガイド枠3eの外側にはリング3jが嵌め込まれており、リング3jと可動レンズ枠3hとはガイド枠3eの直線案内溝3g(図2において下部に位置)を貫通したネジ3kで締結されている。なお、後端部にバネ座3nを有し、撮像素子枠3pとガイド枠3eとの間に嵌合された筒状部材3lには、ネジ3kの光軸方向の移動きを許容する図示しないスリットが設けられている。
【0011】
またリング3jの鍔部3mには連結部材4aを介して図1のステッピングモータ4が連動されており、ステッピングモータ4により可動レンズ枠3hを光軸方向に直線移動させる。可動レンズ枠3hには可動レンズ系3bが固定レンズ系3aに対峙して搭載され、可動レンズ枠3hが直線移動することにより固定レンズ系3aと可動レンズ系3bとの相対距離が可変する。この実施例は、固定レンズ系3aと可動レンズ系3bとの相対距離の変更により、焦点調節する構成である。
またリング3jとバネ座3nとの間には可動レンズ枠3hを可動レンズ系3bが固定レンズ系3aに接近する方向に押すスプリング3oが設けられ、スプリング3oは、可動レンズ枠3hを常時固定レンズ系3a側に常時付勢していて、ステッピングモータ4による可動レンズ枠3hへの力が解除された際に可動レンズ枠3hを固定レンズ系3a側に押し戻して可動レンズ系3bを所定の初期位置に復帰させるように作用する(図3(a))。この初期位置が最遠合焦位置であり、パンフォーカス位置でもある。
【0012】
またガイド枠3eの内側には撮像素子枠3pが嵌め込まれている。撮像素子枠3pには撮像素子3cが、可動レンズ系3bに対峙させて搭載されている。また撮像素子枠3pと可動レンズ枠3hとの間にはスプリング3rが設けられ、スプリング3rは、可動レンズ系3bを撮像素子3cから離反する方向に付勢して、可動レンズ系3bが撮像素子3cの受光面が接触するのを防止する。19はOリング形状のシール材である。
【0013】
撮像素子枠3pには、撮像素子3cを駆動制御して撮像光学系3により形成された光学像を電気的な電気信号に変換して出力させる撮像素子駆動回路3s等の回路と、撮像素子3cからの電気信号を伝送する信号ケーブル3t等が搭載される。信号ケーブル3tは、撮像素子3cからの電気的な映像信号を後述の初段映像信号処理回路6に伝送し、かつ初段映像信号処理回路6で信号処理された信号を撮像素子駆動回路3s等に伝送する双方向性のものである。後述するタイミングコントローラ10による時間制御の下に双方向性の信号伝送が制御される。
【0014】
挿入管1aには送光路5が撮像光学系3に隣接して設置されている。この送光路5は光源部9から射出された照明光を挿入管1aに導く導光路として作用し、挿入管1aの先端端面に位置する送光レンズ5aを通して被写体を照明する。なお、挿入管1aは体腔内に挿入するものであるから細径である必要があり、送光路5は光ファイバーを束ねた光ファイバー束として構成することが望ましい。
【0015】
一方、図1に示すようにプロセッサ2には、初段映像信号処理回路6と、画像メモリ7と、後段映像信号処理回路8と、光源部9と、タイミングコントローラ10と、システムコントローラ11と、フロントパネルスイッチ12と、電源部13とが搭載されている。
【0016】
初段映像信号処理回路6は、信号ケーブル3tを通して伝送される撮像素子3cからの電気信号を信号処理し、その映像信号を画像メモリ7に逐次記憶させる。また後段映像信号処理回路8は、画像メモリ7に蓄積された映像信号を逐次読み出して信号処理を行い、その映像信号をモニタ14に出力する。モニタ14は後段映像信号処理回路8から出力される映像信号を表示面に可視画像として表示する。
【0017】
またシステムコントローラ11はキーボード11aから入力される指令データ及び図示しないメモリに記憶されたプログラムに基づいてプロセッサ2の全体的な動作を制御し、タイミングコントローラ10はシステムコントローラ11からの指令に基づいてプロセッサ2の各ブロックの動作タイミングを制御する。またプロセッサ2は電源部13から電力供給を受ける。
【0018】
光源部9は、信号ケーブル3tを通して伝送される撮像素子3cからの電気信号に基づいて撮像画像の明るさを検出して調光制御信号を得て、その調光制御信号に基づいて絞りの開閉度合を制御し、その開閉度が制御された絞りに光源からの光を通過させ、光量が調節された光を送光路5に出力する。
【0019】
自動焦点調節部15は、合焦検知回路部を含み、合焦検知回路部が検知した合焦状態に基づいてステッピングモータ駆動回路21を介してステッピングモータ4を駆動制御する。ステッピングモータ駆動回路21は、ステッピングモータ4を駆動して可動レンズ系3bを撮像光学系3の可変焦点調節範囲内で移動させる。
【0020】
自動焦点調節部15は、撮像光学系3の焦点調節を、撮像素子3cが出力する画像信号から評価値を求めて行うものであり、具体的には自動焦点調節部15は、撮像光学系3の合焦度合に応じて撮像素子3cが出力する画素信号(色信号)から輝度信号を抽出して各画素のエッジ方向と強度を検出し、非極大点を無視(排除)して積算し、積算値を評価値とする処理を、可動レンズ系3bを移動しながら繰り返すことにより、評価値が最大となる位置をサーチする。
【0021】
図3(a)、(c)に示すように、可動レンズ系3bが最遠合焦位置、最近合焦位置にあり、焦点位置が撮像素子3cの後方または前方に位置するときは、図3(a)、(c)に示すように撮像素子3cから出力される画像信号の高周波成分は減少し、評価値も減少する。撮像光学系3の焦点が撮像素子3cの受光面上に一致すると、図3(b)に示すように撮像素子3cから出力される画像信号の高周波成分は増加し、評価値を増加する。
【0022】
自動焦点調節部15は、撮像光学系3の合焦度合(デフォーカス量)に応じて撮像素子3cが出力する画像信号の評価値が増減することを利用し、可動レンズ系3bを最遠合焦位置から最至近合焦位置までステップ駆動しながら評価値を求め、評価値が最大のときが合焦状態であるとして、その位置に可動レンズ系3bを移動する。
【0023】
次に、この電子内視鏡の焦点検出動作について、図4から図7に示したフローチャートおよび図8に示した画素配置例を参照して説明する。これらのフローチャートは、システムコントローラ11によって制御される処理である。
図4は、焦点検出処理に関するメインフローチャートである。この処理は、焦点調節起動ボタンがオン操作されたときに実行される。なお、本明細書および図面において、ステップは「S」と省略する。
【0024】
この処理に入ると、先ず、変数である最大評価値Cmaxに0を代入(Cmaxをクリア)する(S101)。次に、可動レンズ系3bを最遠合焦位置まで移動させる(S103)。そして、可動レンズ系3bを最遠合焦位置から最至近合焦位置まで移動しながら評価値が最大となる合焦位置をサーチする、S105〜S115のループ処理に入る。
【0025】
このループに入ると、まず可動レンズ系3bが最至近合焦位置にあるかどうかをチェックする(S105)。可動レンズ系3bが最至近合焦位置に位置しているとき(サーチ処理が終了しているとき)はこのループ処理を抜ける(S105;Y、S117)。
可動レンズ系3bが最至近合焦位置に無い場合は画像を取得、つまり撮像素子3cから画像信号を入力し、画像メモリ7に書き込まれた一画面中の画像信号(各画素のディジタルデータ)を読み込む(S105;N、S107)。そして、所定画面範囲内の画像からエッジの方向とエッジの強度を検出し、さらに非極大点を無視して(強度の)差分を積算して評価値を算出する(S109)。
【0026】
なお、画像信号がRGB形式のカラー画像の場合は、R信号をそのまま輝度として使用し、R、G、B信号それぞれで強度の差分を積算し、それらの和を評価値として用いることができる。もしくは、RGB信号をグレースケーリングして輝度としてもよい。
また、所定画面範囲内は、焦点検出エリア内であることが好ましい。この場合は、エリアで切り出した画像(トリミング)内で評価値を算出する。
【0027】
算出した評価値と最大評価値Cmaxとを比較し、算出した評価値の方が大きければ、算出した評価値を最大評価位置Cmaxに代入してS115に進む(S111;Y、S113、S115)。算出した評価値の方が大きくなければ、S113をスキップしてS115に進む(S111;N、S115)。S115では、可動レンズ系3bを至近側へ1ステップ移動させてS105に戻る(S115、S105)。
【0028】
以上の処理を、可動レンズ系3bが最至近合焦位置に達するまで繰り返す(S105;N、S107)。最至近合焦位置における処理が終了したら、最大評価値Cmaxが得られた位置に可動レンズ系3bを移動して、この処理を終了する(S105;Y、S117、END)。
【0029】
このように、画像のエッジを検出し、検出したエッジから非極大値を排除して評価値を積算するので、微細な被写体に対しても正確な焦点調節が可能になる。なお、エッジを求める方法は公知であり、例えば「電子情報通信学会技術研究報告 PRMU98−9」に開示されている。
【0030】
次に、S109の処理で実行される評価値算出処理についてより詳細に、図5に示したフローチャートを参照して説明する。
このフローチャートに入ると、まず、画像信号に基づいて、エッジ強度画像を生成し、さらにエッジ方向画像を生成する(S201)。そしてこれらのエッジ強度画像およびエッジ方向画像から、非極大抑制エッジ強度画像を作成する(S203)。
【0031】
そして、評価値Cを初期化(0を代入)してから(S205)、各画素についての評価値C積算処理を実行する。つまり、各画素について求めたエッジ強度を評価値Cとして加算する(S207;N、S209、(S211)、S207)。所定範囲の全ての画素のエッジ強度を加算するまで繰り返し(S207;N、S209、S211)、全ての画素のエッジ強度を加算して評価値Cを得たらリターンする(S207;Y、RETURN)。
このように評価値算出処理では、所定範囲の画像のエッジについて、各画素のエッジ強度の和を評価値Cとして求めている。同一の被写体であれば、エッジ強度の和が大きいほどデフォーカス量が小さく、合焦状態に近い状態であり、エッジ強度の和が小さいほどデフォーカス量が大きい状態である。
【0032】
S201のエッジ強度画像、エッジ方向画像生成処理の詳細について、さらに図6に示したフローチャートを参照して説明する。
この処理に入ると、まず、S303以降の処理を全画素について終了したかどうかをチェックする(S301)。S303〜S317のループ処理を全画素について終了するまで繰り返し(S303;N、S305)、全画素について終了したらリターンする(S301;Y、RETURN)。
【0033】
S303では、勾配の大きさ(画像のエッジの強さ)であるエッジ強度画像Iampを式
((Δx)+(Δy)1/2
により求める。
Δxは、画像信号のx軸方向の変化量、
Δyは、画像信号のy軸方向の変化量である。
本実施形態では、所定範囲内の各画素を原点として、x方向、y方向の輝度変化を微分法によって求めて、これをエッジ強度画像Iampとする。
【0034】
次に、画像の勾配(エッジの方向)の方向Dirを、式
Tan−1(Δy/Δx)
により求める(S305)。なお、勾配の方向Dirは、0=<Dir<180を満たす実数とする。
【0035】
そして、各画素について勾配Dirがどの方向を向いているか、つまりエッジ方向画像Idirを、4方向に分類する(S307、S309、S311、S313、S315)。
本実施例では、Dir=>157.5、Dir<22.5の場合のIdirは0に(S309)、
22.5=<Dir<67.5の場合はエッジ方向画像Idirを45に(S311)、
67.5=<Dir<112.5の場合はエッジ方向画像Idirを90に(S313)、
112.5=<Dir<157.5の場合はエッジ方向画像Idirを135に(S315)
それぞれ設定する。設定したら、次画素を選択してS301に戻る(S317、S301)。
【0036】
次に、S203の非極大抑制エッジ強度画像生成処理の詳細について、図7に示したフローチャートを参照して説明する。
この処理に入ると、まず、S403以降の処理が全画素について終了したかどうかをチェックする(S401)。そして、S403〜S411のループ処理を全画素について終了するまで繰り返し(S401;N、S403)、全画素について終了したらリターンする(S401;Y、RETURN)。
【0037】
S403に進むと、中心画素と着目近傍画素のエッジ方向を比較する。着目近傍画素とは、S309〜S315のいずれかで設定された方向の画素のことである。図8に、中心画素と着目近傍画素との位置関係を示した。
中心画素と着目近傍画素のエッジ方向が同じでない場合は次画素を選択してS401にリターンする(S405;N、S413、S401)。同じでない場合はその中心画素と着目近傍画素との間で輝度変化方向が変化しているので、両者は異なるエッジであると推測できる。中心画素と着目近傍画素のエッジ方向が同じ場合は、そのエッジ方向に輝度変化が続いている状態である。
【0038】
エッジ方向が同じ場合は、中心画素と着目近傍画素のエッジ強度を比較する(S405;Y、S407)。中心画素のエッジ強度の方が大きい場合は次画素を選択してS401に戻り(S409;N、S413、S401)、中心画素のエッジ強度の方が小さい場合はエッジ強度画像Iampに0を入れてS401に戻る(S409;Y、S411、S413、S401)。中心画素のエッジ強度の方が大きい場合はその中心画素はエッジのピークであり、中心画素のエッジの強度の方が小さい場合は中心画素はエッジのピークではない、と推測できる。
【0039】
このように本実施形態では、中心画素のエッジ強度の方が小さい場合はエッジ強度画像Iampを0とする。
【0040】
以上のS401〜S413の処理を、全画素について実行してリターンする(S401;Y、RETURN)。この非極大抑制エッジ強度画像生成処理によって、各画素についてエッジ強度画像、つまり、エッジ画像の中から非極大値が除かれてエッジ幅が細められ、精度の高いエッジ検出ができる。
このようにして得られたエッジ強度画像Iampの和は大きいほど評価値が高く、合焦状態に近くなるので、評価値最大が合焦位置となる。
【0041】
以上、本実施形態では、撮像素子3cから得られた画像信号中、中央の所定範囲の画素を使用して評価値を得ているが、その範囲は任意であり、使用者が選択できるように構成してもよい。
【0042】
また、本実施形態では、可動レンズ系3bを光軸方向に移動して焦点調節しているが、撮像素子3cを光軸方向に移動して焦点調節する構成でもよい。
【0043】
以上の実施形態は医療現場で用いる電子内視鏡装置を例にしたが、工業用の分野に用いられる同様の機能を有する装置にも同様に適用することができるものであり、医療用分野のものに限定されるものではない。
【0044】
【発明の効果】
以上の説明から明らかな通り本発明の装置および方法は、焦点調節手段を駆動しながら、画像のエッジの方向および強度を検出し、これら画像のエッジの方向および強度変化から非極大点を排除して積算し、この積算値を評価値として最大評価値を求め、最大評価値が得られた状態に焦点調節手段を駆動するので、微細な特徴点に対しても精確な自動焦点調節が可能になる。
【図面の簡単な説明】
【図1】本発明の自動焦点調節装置を搭載した電子内視鏡装置の実施形態をブロックで示す図である。
【図2】同電子内視鏡装置の挿入管の先端部における撮像素子と撮像光学系との関係を示す、挿入管の縦断面図である。
【図3】同撮像素子と撮像光学系との関係を示す図である。
【図4】焦点検出処理に関するメインフローチャートを示す図である。
【図5】同メインフローチャート中の評価値算出処理の詳細をフローチャートで示す図である。
【図6】同評価値算出処理中のエッジ強度画像、エッジ方向画像生成処理の詳細をフローチャートで示す図である。
【図7】同評価値算出処理中の非極大抑制エッジ強度画像生成処理の詳細をフローチャートで示す図である。
【図8】着目画素近傍画素の様子を示す図である。
【符号の説明】
1 内視鏡
2 プロセッサ
3 撮像光学系
3a 固定レンズ系
3b 可動レンズ系(フォーカシングレンズ)
4 ステッピングモータ
7 画像メモリ
11 システムコントローラ(演算手段)
15 自動焦点調節部
21 ステッピングモータ駆動回路
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic focusing device and an automatic focusing method particularly suitable for an electronic endoscope.
[0002]
[Prior art and its problems]
In recent years, an electronic endoscope provided with an automatic focusing device has been developed. The focus detection of such a conventional automatic focus adjustment device utilizes a video signal captured by a CCD or CMOS type image sensor. For example, the focus adjustment is performed when the evaluation value regarding the high frequency component becomes the maximum as the focus position (focus position). The evaluation value was the sum of the luminance differences between adjacent pixels, and the position where the evaluation value was the maximum was the focus position.
However, in the detection of such an evaluation value, when a target to be observed is minute, it is difficult to detect a luminance difference of the target portion, and accurate focus detection cannot be performed.
[0003]
Patent Literature 1, Patent Literature 2, Patent Literature 3, Patent Literature 4, and the like are known as electronic endoscopes provided with an automatic focusing device.
[0004]
[Patent Document 1]
JP 2001-154085 A [Patent Document 2]
Japanese Patent Application Laid-Open No. 2000-5127 [Patent Document 3]
Japanese Patent Application Laid-Open No. 2000-197604 [Patent Document 4]
JP 2000-342533 A
[Object of the invention]
SUMMARY OF THE INVENTION An object of the present invention is to provide an automatic focus adjustment device and a focus adjustment method capable of performing accurate automatic focus adjustment even for minute features of a subject.
[0006]
Summary of the Invention
To achieve this object, the present invention provides an imaging optical system, an imaging unit that converts an optical image formed by the imaging optical system into an electric image signal, and a focus adjustment unit that adjusts a focus state of the optical image. Control means for step-driving the focus adjustment means between a farthest focus position and a closest focus position, extracting a luminance signal from the image signal, and calculating an image based on the luminance signal. Calculate the edge intensity and the edge direction, and from the image in which the intensity and the direction are calculated, a pixel adjacent to the edge direction has a pixel in which the edge direction is the same direction and the edge intensity is large. Focus detection means for selecting a non-existent pixel and calculating an evaluation value by integrating the intensity of the edge of the selected pixel, wherein the focus detection means calculates the evaluation value by the control means. The impatience Each time the driving unit is step-driven, the position at which the evaluation value becomes maximum is repeatedly detected, and the control unit drives the focus adjustment unit to a position at which the detected evaluation value becomes maximum. .
According to this configuration, since the evaluation value is obtained by excluding non-maximal pixels from the image obtained as the edge, it is possible to detect an accurate in-focus state.
[0007]
The edge intensity is calculated from the amounts of change Δx and Δy in the x direction and the y direction obtained by differentiating the pixel signal from the equation ((Δx) 2 + (Δy) 2 ) 1/2
Can be obtained by
The direction of the edge of the image is calculated from the change amounts Δx and Δy in the x direction and the y direction obtained by differentiating the pixel signal from the expression Tan −1 (Δy / Δx).
Can be obtained by
The direction of the edge of the image is classified into a predetermined direction for each pixel, and the non-maximal pixels are eliminated by comparing the direction and intensity of the edge of the pixel in the classified direction of each pixel.
[0008]
The focus detection method of the present invention includes an imaging optical system, and a step of extracting a luminance signal from an image signal output from an imaging unit that converts an optical image formed by the imaging optical system into an electric image signal. Calculating the direction of the edge of the image and the intensity of the edge based on the luminance signal; and, from the image in which the edge and the intensity have been calculated, the pixels adjacent to the direction of the edge have the same edge direction in the same direction. And selecting a pixel in which a pixel having a large edge intensity does not exist, calculating an evaluation value by integrating the edge intensity of the selected pixel, and driving each of the steps by step driving the focus adjustment unit. And a step of driving the focus adjustment means to a position where the largest evaluation value is obtained among the evaluation values obtained in the repeating step. Having.
According to this method, since the evaluation value is obtained by excluding non-maximal pixels from the image obtained as the edge, it is possible to detect an accurate in-focus state.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of an electronic endoscope apparatus equipped with the automatic focusing apparatus of the present invention.
An example of the imaging optical system 3 will be described with reference to FIGS. As shown in FIGS. 2 and 3, a cylindrical fixed lens frame 3d is installed in the distal end portion of the insertion tube 1a of the endoscope 1, and the fixed lens system 3a of the imaging optical system 3 is fixed to the fixed lens frame 3d. I have. A cylindrical guide frame 3e is provided inside the fixed lens frame 3d, and straight guide grooves 3f and 3g are provided in the guide frame 3e in parallel with the optical axis (the left-right direction in FIG. 2).
[0010]
A movable lens frame 3h is movably fitted in the optical axis direction inside the guide frame 3e, and is provided between a key 3i of the movable lens frame 3h and a linear guide groove 3f of the guide frame 3e (located at an upper portion in FIG. 2). The movable lens frame 3h is linearly moved along the optical axis without being rotated around the optical axis by the fitting. A ring 3j is fitted on the outside of the guide frame 3e, and the ring 3j and the movable lens frame 3h are fastened by screws 3k penetrating through the linear guide grooves 3g (located at the lower part in FIG. 2) of the guide frame 3e. I have. The cylindrical member 31 having a spring seat 3n at the rear end thereof and fitted between the imaging element frame 3p and the guide frame 3e allows the screw 3k to move in the optical axis direction, not shown. A slit is provided.
[0011]
The stepping motor 4 of FIG. 1 is linked to the flange 3m of the ring 3j via a connecting member 4a, and the movable lens frame 3h is linearly moved in the optical axis direction by the stepping motor 4. A movable lens system 3b is mounted on the movable lens frame 3h so as to face the fixed lens system 3a, and the relative distance between the fixed lens system 3a and the movable lens system 3b is varied by linearly moving the movable lens frame 3h. In this embodiment, the focus is adjusted by changing the relative distance between the fixed lens system 3a and the movable lens system 3b.
A spring 3o is provided between the ring 3j and the spring seat 3n to push the movable lens frame 3h in a direction in which the movable lens system 3b approaches the fixed lens system 3a. The spring 3o keeps the movable lens frame 3h fixed at all times. When the force on the movable lens frame 3h by the stepping motor 4 is released, the movable lens frame 3h is pushed back to the fixed lens system 3a to move the movable lens system 3b to a predetermined initial position. (FIG. 3A). This initial position is the furthest in-focus position and also the pan focus position.
[0012]
An image sensor frame 3p is fitted inside the guide frame 3e. An image sensor 3c is mounted on the image sensor frame 3p so as to face the movable lens system 3b. A spring 3r is provided between the image sensor frame 3p and the movable lens frame 3h. The spring 3r urges the movable lens system 3b in a direction away from the image sensor 3c, and the movable lens system 3b The contact of the light receiving surface of 3c is prevented. 19 is an O-ring shaped sealing material.
[0013]
The imaging element frame 3p includes a circuit such as an imaging element driving circuit 3s that drives and controls the imaging element 3c to convert an optical image formed by the imaging optical system 3 into an electric electric signal and output the electric signal, and an imaging element 3c. A signal cable 3t for transmitting an electric signal from the device is mounted. The signal cable 3t transmits an electric video signal from the image sensor 3c to a first-stage video signal processing circuit 6 described later, and transmits a signal processed by the first-stage video signal processing circuit 6 to the image sensor driving circuit 3s and the like. It is interactive. Bidirectional signal transmission is controlled under time control by a timing controller 10 described later.
[0014]
A light transmission path 5 is installed in the insertion tube 1 a adjacent to the imaging optical system 3. The light transmission path 5 acts as a light guide path for guiding the illumination light emitted from the light source unit 9 to the insertion tube 1a, and illuminates the subject through a light transmission lens 5a located at the distal end face of the insertion tube 1a. Since the insertion tube 1a is inserted into a body cavity, the insertion tube 1a needs to have a small diameter, and the light transmitting path 5 is desirably configured as an optical fiber bundle in which optical fibers are bundled.
[0015]
On the other hand, as shown in FIG. 1, the processor 2 includes a first-stage video signal processing circuit 6, an image memory 7, a second-stage video signal processing circuit 8, a light source unit 9, a timing controller 10, a system controller 11, A panel switch 12 and a power supply unit 13 are mounted.
[0016]
The first-stage video signal processing circuit 6 processes the electric signal from the image sensor 3c transmitted through the signal cable 3t, and stores the video signal in the image memory 7 sequentially. Further, the subsequent-stage video signal processing circuit 8 sequentially reads out the video signals stored in the image memory 7, performs signal processing, and outputs the video signals to the monitor 14. The monitor 14 displays the video signal output from the subsequent video signal processing circuit 8 on the display surface as a visible image.
[0017]
The system controller 11 controls the overall operation of the processor 2 based on command data input from a keyboard 11a and a program stored in a memory (not shown). The timing controller 10 controls the processor based on a command from the system controller 11. 2 controls the operation timing of each block. The processor 2 receives power supply from the power supply unit 13.
[0018]
The light source unit 9 detects a brightness of a captured image based on an electric signal from the image sensor 3c transmitted through the signal cable 3t, obtains a dimming control signal, and opens and closes a diaphragm based on the dimming control signal. The light from the light source is passed through an aperture whose degree of opening and closing is controlled, and the light whose amount is adjusted is output to the light transmission path 5.
[0019]
The automatic focus adjustment unit 15 includes a focus detection circuit unit, and controls the drive of the stepping motor 4 via the stepping motor drive circuit 21 based on the focus state detected by the focus detection circuit unit. The stepping motor drive circuit 21 drives the stepping motor 4 to move the movable lens system 3b within the variable focus adjustment range of the imaging optical system 3.
[0020]
The automatic focus adjustment unit 15 adjusts the focus of the imaging optical system 3 by obtaining an evaluation value from an image signal output from the imaging element 3c. The luminance signal is extracted from the pixel signal (color signal) output from the image sensor 3c according to the degree of focusing, and the edge direction and intensity of each pixel are detected, and the non-maximal point is ignored (excluded) and integrated. By repeating the process of using the integrated value as the evaluation value while moving the movable lens system 3b, a position where the evaluation value becomes maximum is searched.
[0021]
As shown in FIGS. 3A and 3C, when the movable lens system 3b is at the furthest focus position or the closest focus position, and the focus position is located behind or in front of the image sensor 3c, FIG. As shown in (a) and (c), the high frequency component of the image signal output from the image sensor 3c decreases, and the evaluation value also decreases. When the focal point of the imaging optical system 3 coincides with the light receiving surface of the imaging device 3c, as shown in FIG. 3B, the high frequency component of the image signal output from the imaging device 3c increases, and the evaluation value increases.
[0022]
The automatic focus adjustment unit 15 uses the fact that the evaluation value of the image signal output from the image sensor 3c increases or decreases in accordance with the degree of focus (the amount of defocus) of the imaging optical system 3 to make the movable lens system 3b farthest. The evaluation value is obtained while step-driving from the in-focus position to the closest in-focus position, and the movable lens system 3b is moved to that position when the in-focus state is determined when the evaluation value is the maximum.
[0023]
Next, the focus detection operation of the electronic endoscope will be described with reference to the flowcharts shown in FIGS. 4 to 7 and the pixel arrangement example shown in FIG. These flowcharts are processes controlled by the system controller 11.
FIG. 4 is a main flowchart relating to the focus detection processing. This process is executed when the focus adjustment start button is turned on. In this specification and the drawings, steps are abbreviated as "S".
[0024]
In this process, first, 0 is substituted (cleared) into the maximum evaluation value Cmax which is a variable (S101). Next, the movable lens system 3b is moved to the farthest focusing position (S103). Then, while moving the movable lens system 3b from the furthest focus position to the closest focus position, the process enters a loop process of S105 to S115 in which a focus position at which the evaluation value becomes maximum is searched.
[0025]
When entering this loop, first, it is checked whether or not the movable lens system 3b is at the closest focusing position (S105). When the movable lens system 3b is located at the closest focus position (when the search processing has been completed), the process exits this loop processing (S105; Y, S117).
When the movable lens system 3b is not at the closest focus position, an image is acquired, that is, an image signal is input from the image sensor 3c, and an image signal (digital data of each pixel) in one screen written in the image memory 7 is obtained. It is read (S105; N, S107). Then, the direction of the edge and the intensity of the edge are detected from the image within the predetermined screen range, and the evaluation value is calculated by integrating the difference (of the intensity) ignoring the non-maximal point (S109).
[0026]
If the image signal is a color image in the RGB format, the R signal can be used as it is as the luminance, the difference in the intensity of each of the R, G, and B signals can be integrated, and the sum thereof can be used as the evaluation value. Alternatively, the RGB signal may be gray-scaled to obtain luminance.
Further, it is preferable that the area within the predetermined screen is within the focus detection area. In this case, the evaluation value is calculated within the image (trimming) cut out from the area.
[0027]
The calculated evaluation value is compared with the maximum evaluation value Cmax. If the calculated evaluation value is larger, the calculated evaluation value is substituted for the maximum evaluation position Cmax, and the process proceeds to S115 (S111; Y, S113, S115). If the calculated evaluation value is not larger, the process skips S113 and proceeds to S115 (S111; N, S115). In S115, the movable lens system 3b is moved one step closer to the nearest side, and the process returns to S105 (S115, S105).
[0028]
The above processing is repeated until the movable lens system 3b reaches the closest focusing position (S105; N, S107). When the processing at the closest focus position is completed, the movable lens system 3b is moved to the position where the maximum evaluation value Cmax is obtained, and this processing is completed (S105; Y, S117, END).
[0029]
As described above, since the edge of the image is detected, and the evaluation value is integrated while excluding the non-maximum value from the detected edge, accurate focus adjustment can be performed even on a minute subject. Note that a method for obtaining an edge is known, and is disclosed, for example, in "IEICE Technical Report PRMU98-9".
[0030]
Next, the evaluation value calculation process executed in the process of S109 will be described in more detail with reference to the flowchart shown in FIG.
In this flowchart, first, an edge strength image is generated based on the image signal, and further, an edge direction image is generated (S201). Then, a non-maximum suppressed edge strength image is created from the edge strength image and the edge direction image (S203).
[0031]
Then, after initializing the evaluation value C (substituting 0) (S205), the evaluation value C integrating process is performed for each pixel. That is, the edge strength obtained for each pixel is added as the evaluation value C (S207; N, S209, (S211), S207). The process is repeated until the edge intensities of all the pixels in the predetermined range are added (S207; N, S209, S211), and the process returns when the edge intensities of all the pixels are added to obtain the evaluation value C (S207; Y, RETURN).
As described above, in the evaluation value calculation processing, the sum of the edge intensities of the pixels is obtained as the evaluation value C for the edges of the image in the predetermined range. For the same subject, the larger the sum of the edge intensities, the smaller the defocus amount and the state closer to the focused state, and the smaller the sum of the edge intensities, the larger the defocus amount.
[0032]
The details of the edge strength image and edge direction image generation processing in S201 will be described with reference to the flowchart shown in FIG.
When entering this process, first, it is checked whether or not the processes after S303 have been completed for all pixels (S301). The loop processing of S303 to S317 is repeated until the processing is completed for all the pixels (S303; N, S305), and when the processing is completed for all the pixels, the processing returns (S301; Y, RETURN).
[0033]
In S303, the edge strength image Iamp, which is the magnitude of the gradient (the strength of the edge of the image), is calculated by the formula ((Δx) 2 + (Δy) 2 ) 1/2.
Ask by
Δx is the amount of change in the x-axis direction of the image signal,
Δy is the amount of change in the y-axis direction of the image signal.
In the present embodiment, with each pixel within a predetermined range as an origin, a change in luminance in the x and y directions is obtained by a differentiation method, and this is used as an edge intensity image Iamp.
[0034]
Next, the direction Dir of the gradient (the direction of the edge) of the image is calculated by the expression Tan −1 (Δy / Δx).
(S305). Note that the gradient direction Dir is a real number satisfying 0 = <Dir <180.
[0035]
Then, the direction of the gradient Dir of each pixel, that is, the edge direction image Idir is classified into four directions (S307, S309, S311, S313, S315).
In the present embodiment, Idir is set to 0 in the case of Dir => 157.5 and Dir <22.5 (S309),
If 22.5 = <Dir <67.5, the edge direction image Idir is set to 45 (S311),
If 67.5 = <Dir <112.5, the edge direction image Idir is set to 90 (S313),
If 112.5 = <Dir <157.5, the edge direction image Idir is set to 135 (S315).
Set each. After setting, the next pixel is selected and the process returns to S301 (S317, S301).
[0036]
Next, the details of the non-maximum suppression edge strength image generation processing in S203 will be described with reference to the flowchart shown in FIG.
In this process, first, it is checked whether or not the process after S403 has been completed for all pixels (S401). Then, the loop processing of S403 to S411 is repeated until the processing is completed for all pixels (S401; N, S403), and when the processing is completed for all pixels, the processing returns (S401; Y, RETURN).
[0037]
In step S403, the edge direction of the center pixel is compared with the edge direction of the neighboring pixel of interest. The target neighboring pixel is a pixel in the direction set in any of S309 to S315. FIG. 8 shows the positional relationship between the center pixel and the neighboring pixel of interest.
If the edge directions of the central pixel and the neighboring pixel of interest are not the same, the next pixel is selected and the process returns to S401 (S405; N, S413, S401). If they are not the same, the luminance change direction changes between the central pixel and the neighboring pixel of interest, so it can be assumed that they are different edges. When the edge direction of the center pixel is the same as the edge direction of the neighboring pixel of interest, it is a state where the luminance change continues in the edge direction.
[0038]
When the edge directions are the same, the edge intensity of the center pixel and the edge intensity of the neighboring pixel of interest are compared (S405; Y, S407). If the edge intensity of the central pixel is higher, the next pixel is selected and the process returns to S401 (S409; N, S413, S401). If the edge intensity of the central pixel is lower, 0 is inserted into the edge intensity image Iamp. The process returns to S401 (S409; Y, S411, S413, S401). When the edge intensity of the central pixel is higher, it can be estimated that the central pixel is the edge peak, and when the edge intensity of the central pixel is lower, the central pixel is not the edge peak.
[0039]
As described above, in the present embodiment, the edge intensity image Iamp is set to 0 when the edge intensity of the center pixel is smaller.
[0040]
The processing of S401 to S413 described above is performed for all pixels, and the process returns (S401; Y, RETURN). By the non-maximum suppression edge strength image generation processing, the non-maximum value is removed from the edge strength image, that is, the edge image, of each pixel, the edge width is narrowed, and highly accurate edge detection can be performed.
The evaluation value is higher as the sum of the edge intensity images Iamp obtained in this way is larger and closer to the in-focus state, so the maximum evaluation value is the in-focus position.
[0041]
As described above, in the present embodiment, the evaluation value is obtained by using the pixels in the central predetermined range in the image signal obtained from the image sensor 3c. However, the range is arbitrary, and the user can select the range. You may comprise.
[0042]
Further, in the present embodiment, the focus is adjusted by moving the movable lens system 3b in the optical axis direction. However, the focus may be adjusted by moving the imaging element 3c in the optical axis direction.
[0043]
Although the above-described embodiment has exemplified the electronic endoscope device used in the medical field, it can be similarly applied to a device having a similar function used in the industrial field, and It is not limited to one.
[0044]
【The invention's effect】
As is apparent from the above description, the apparatus and method of the present invention detect the direction and intensity of the edges of the image while driving the focusing means, and eliminate the non-maximal points from the changes in the direction and intensity of the edges of the image. The integrated value is used as the evaluation value to determine the maximum evaluation value, and the focus adjustment means is driven when the maximum evaluation value is obtained, enabling accurate automatic focus adjustment even for minute feature points. Become.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an electronic endoscope apparatus equipped with an automatic focusing apparatus of the present invention.
FIG. 2 is a longitudinal sectional view of the insertion tube, showing a relationship between an imaging element and an imaging optical system at a distal end portion of the insertion tube of the electronic endoscope device.
FIG. 3 is a diagram showing a relationship between the imaging device and an imaging optical system.
FIG. 4 is a diagram showing a main flowchart relating to focus detection processing.
FIG. 5 is a flowchart showing details of an evaluation value calculation process in the main flowchart.
FIG. 6 is a flowchart showing details of an edge intensity image and edge direction image generation process during the evaluation value calculation process.
FIG. 7 is a flowchart showing details of a non-maximum suppression edge strength image generation process during the evaluation value calculation process.
FIG. 8 is a diagram illustrating a state of a pixel near a target pixel.
[Explanation of symbols]
Reference Signs List 1 endoscope 2 processor 3 imaging optical system 3a fixed lens system 3b movable lens system (focusing lens)
4 Stepping motor 7 Image memory 11 System controller (computing means)
15 Automatic focus adjustment unit 21 Stepping motor drive circuit

Claims (7)

撮像光学系と、該撮像光学系によって形成される光学像を電気的な画像信号に変換する撮像手段と、前記光学像の焦点状態を調節する焦点調節手段とを備え、
前記焦点調節手段を最遠合焦位置と最至近位置合焦状態との間でステップ駆動する制御手段と、
前記画像信号から輝度信号を抽出して、この輝度信号に基づいて各画素エッジの強度およびエッジの方向を算出し、前記強度および方向を算出した画像の中から、そのエッジの方向に隣接する画素に、前記エッジの方向が同一方向でかつ前記エッジの強度が大きい画素が存在しない画素を選択し、該選択した画素のエッジの強度を積算して評価値を算出する焦点検出手段とを備え、
前記焦点検出手段は、前記評価値を算出する処理を、前記制御手段が前記焦点駆動手段をステップ駆動する毎に繰り返して前記評価値が最大となる位置を検出し、前記制御手段は、検出された評価値が最大となる位置に前記焦点調節手段を駆動すること、を特徴とする自動焦点調節装置。
An imaging optical system, an imaging unit that converts an optical image formed by the imaging optical system into an electric image signal, and a focus adjustment unit that adjusts a focus state of the optical image.
Control means for step-driving the focus adjustment means between a farthest focus position and a closest focus position,
A luminance signal is extracted from the image signal, the intensity of each pixel edge and the direction of the edge are calculated based on the luminance signal, and a pixel adjacent to the direction of the edge is calculated from the image in which the intensity and the direction are calculated. A focus detection unit that selects a pixel in which the direction of the edge is the same direction and there is no pixel having a large edge intensity, and calculates an evaluation value by integrating the edge intensity of the selected pixel;
The focus detecting unit detects the position where the evaluation value is maximum by repeating the process of calculating the evaluation value each time the control unit drives the focus driving unit in a stepwise manner. An automatic focus adjustment device, wherein the focus adjustment means is driven to a position where the evaluated value becomes maximum.
前記焦点検出手段は、前記画像のエッジの強度を、前記画素信号を微分して求めたx方向、y方向の変化量Δx、Δyから式、
((Δx)+(Δy)1/2
により求める請求項1記載の自動焦点調節装置。
The focus detecting means calculates the intensity of the edge of the image from the amounts of change Δx and Δy in the x direction and the y direction obtained by differentiating the pixel signal.
((Δx) 2 + (Δy) 2 ) 1/2
2. The automatic focus adjustment device according to claim 1, wherein
前記焦点検出手段は、前記各画素のエッジの方向を、画像信号を微分して求めたx方向、y方向の変化量Δx、Δyから式
Tan−1(Δy/Δx)
により求める請求項1記載の自動焦点調節装置。
The focus detection means calculates the direction of the edge of each pixel from the change amounts Δx and Δy in the x direction and the y direction obtained by differentiating the image signal from the expression Tan −1 (Δy / Δx).
2. The automatic focus adjustment device according to claim 1, wherein
前記焦点検出手段は、前記画像のエッジの方向を、画素毎に所定方向に分類し、各画素の分類された方向の画素のエッジの方向および強度と比較して、非極大となる画素を排除する請求項3記載の自動焦点調節装置。The focus detection means classifies the direction of the edge of the image into a predetermined direction for each pixel, and compares the direction and the intensity of the edge of the pixel in the classified direction of each pixel to eliminate non-maximal pixels. The automatic focusing device according to claim 3, wherein 前記撮像光学系は、光軸方向に移動して焦点調節する可動レンズ系を備え、前記焦点調節手段は、前記可動レンズ系を光軸方向に移動して焦点調節する請求項1記載の自動焦点調節装置。2. The automatic focusing apparatus according to claim 1, wherein the imaging optical system includes a movable lens system that adjusts a focus by moving in an optical axis direction, and the focus adjustment unit adjusts a focus by moving the movable lens system in an optical axis direction. Adjustment device. 前記撮像手段は、前記撮像光学系に対して光軸方向に移動し、前記焦点調節手段は、前記撮像光学系を光軸方向に移動して焦点調節する請求項1記載の自動焦点調節装置。2. The automatic focusing apparatus according to claim 1, wherein the imaging unit moves in the optical axis direction with respect to the imaging optical system, and the focus adjustment unit moves the imaging optical system in the optical axis direction to adjust the focus. 撮像光学系と、該撮像光学系によって形成される光学像を電気的な画像信号に変換する撮像手段から出力された画像信号から輝度信号を抽出する段階と、
この輝度信号に基づいて画像のエッジの方向およびエッジの強度を算出する段階と、
前記エッジおよび強度を算出した画像の中から、そのエッジの方向に隣接する画素に、前記エッジの方向が同一方向でかつ前記エッジの強度が大きい画素が存在しない画素を選択する段階と、
前記選択した画素のエッジの強度を積算して評価値を算出する段階と、
前記各段階を、前記焦点調節手段をステップ駆動させながら繰り返す段階と、前記繰り返し段階により得られた評価値の中で、最も大きい評価値を得られた位置に前記焦点調節手段を駆動する段階と、を含むことを特徴とする自動焦点調節方法。
An imaging optical system, and extracting a luminance signal from an image signal output from an imaging unit that converts an optical image formed by the imaging optical system into an electric image signal;
Calculating the direction of the edge of the image and the intensity of the edge based on the luminance signal;
From the image of the calculated edge and intensity, in the pixels adjacent to the direction of the edge, the direction of the edge is the same direction, the step of selecting a pixel in which there is no large pixel of the edge intensity,
Calculating an evaluation value by integrating the intensity of the edge of the selected pixel,
Repeating each of the steps while step-driving the focus adjustment unit; and driving the focus adjustment unit to a position where the largest evaluation value is obtained among the evaluation values obtained in the repetition step. And an automatic focusing method.
JP2003004343A 2003-01-10 2003-01-10 Automatic focusing device and automatic focusing method Withdrawn JP2004219546A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003004343A JP2004219546A (en) 2003-01-10 2003-01-10 Automatic focusing device and automatic focusing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003004343A JP2004219546A (en) 2003-01-10 2003-01-10 Automatic focusing device and automatic focusing method

Publications (1)

Publication Number Publication Date
JP2004219546A true JP2004219546A (en) 2004-08-05

Family

ID=32895350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003004343A Withdrawn JP2004219546A (en) 2003-01-10 2003-01-10 Automatic focusing device and automatic focusing method

Country Status (1)

Country Link
JP (1) JP2004219546A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536097B2 (en) 2005-07-11 2009-05-19 Samsung Electro-Mechanic Co., Ltd. Autofocusing apparatus of camera and autofocusing method thereof
JP2010072298A (en) * 2008-09-18 2010-04-02 Nikon Corp Program, camera and method for calculating focusing degree of image
JP2010091856A (en) * 2008-10-09 2010-04-22 Nikon Corp Program, camera, and method for calculating focusing degree of image
JP2013509208A (en) * 2009-10-30 2013-03-14 ケアストリーム ヘルス インク Intraoral camera with liquid lens
JP2013527483A (en) * 2009-12-07 2013-06-27 ナム タイ,ヒョク Autofocus image system
US9065999B2 (en) 2011-03-24 2015-06-23 Hiok Nam Tay Method and apparatus for evaluating sharpness of image
US9204788B2 (en) 2011-03-21 2015-12-08 Carestream Health, Inc. Autofocus method using liquid lens
CN109194871A (en) * 2018-10-18 2019-01-11 广东德尔智慧工厂科技有限公司 A kind of device and method of lithium electrode piece burr detection auto-focusing

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536097B2 (en) 2005-07-11 2009-05-19 Samsung Electro-Mechanic Co., Ltd. Autofocusing apparatus of camera and autofocusing method thereof
JP2010072298A (en) * 2008-09-18 2010-04-02 Nikon Corp Program, camera and method for calculating focusing degree of image
JP2010091856A (en) * 2008-10-09 2010-04-22 Nikon Corp Program, camera, and method for calculating focusing degree of image
JP2013509208A (en) * 2009-10-30 2013-03-14 ケアストリーム ヘルス インク Intraoral camera with liquid lens
JP2013527483A (en) * 2009-12-07 2013-06-27 ナム タイ,ヒョク Autofocus image system
US9251571B2 (en) 2009-12-07 2016-02-02 Hiok Nam Tay Auto-focus image system
JP2016057638A (en) * 2009-12-07 2016-04-21 ナム タイ,ヒョク Method of generating focus signal from plurality of edge widths
US9734562B2 (en) 2009-12-07 2017-08-15 Hiok Nam Tay Auto-focus image system
US9204788B2 (en) 2011-03-21 2015-12-08 Carestream Health, Inc. Autofocus method using liquid lens
US9065999B2 (en) 2011-03-24 2015-06-23 Hiok Nam Tay Method and apparatus for evaluating sharpness of image
CN109194871A (en) * 2018-10-18 2019-01-11 广东德尔智慧工厂科技有限公司 A kind of device and method of lithium electrode piece burr detection auto-focusing

Similar Documents

Publication Publication Date Title
US20210157118A1 (en) Medical image processing apparatus, medical image processing method, and medical observation system
JP5022580B2 (en) Endoscope device
US10129454B2 (en) Imaging device, endoscope apparatus, and method for controlling imaging device
US10682040B2 (en) Endoscope apparatus and focus control method for endoscope apparatus
US9088707B2 (en) Focus control device, endoscope apparatus, and focus control method
EP3151719B1 (en) Image processing apparatus and program
JP7441897B2 (en) Control device, endoscope system and method of operating the control device
US7522209B2 (en) Automatic focusing apparatus including optical flow device calculation
JP2004219546A (en) Automatic focusing device and automatic focusing method
CN113573624A (en) Endoscopic system, non-transitory computer readable medium and method
CN105682531B (en) Endoscope apparatus
JP7016681B2 (en) Endoscope system
JP6860378B2 (en) Endoscope device
JP2004205982A (en) Automatic focusing device
JP3955458B2 (en) Endoscope autofocus device
JP2004205981A (en) Automatic focusing device
JP2019033971A (en) Endoscope apparatus
JP7094742B2 (en) 3D endoscopy system
JP2006110055A (en) Endoscope apparatus and endoscope system
JPH09253041A (en) Endoscope system
JP2005043792A (en) Automatic focusing device for endoscope
US11298000B2 (en) Endoscopic device
WO2019107359A1 (en) Imaging device
JP2019124715A (en) Control device, imaging device, control method, and program
JP2012020033A (en) Intraoral camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20051003

Free format text: JAPANESE INTERMEDIATE CODE: A621

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080623

A131 Notification of reasons for refusal

Effective date: 20080715

Free format text: JAPANESE INTERMEDIATE CODE: A131

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080731