JP2014182248A - 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム - Google Patents

合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム Download PDF

Info

Publication number
JP2014182248A
JP2014182248A JP2013056167A JP2013056167A JP2014182248A JP 2014182248 A JP2014182248 A JP 2014182248A JP 2013056167 A JP2013056167 A JP 2013056167A JP 2013056167 A JP2013056167 A JP 2013056167A JP 2014182248 A JP2014182248 A JP 2014182248A
Authority
JP
Japan
Prior art keywords
focus position
range
image
moving object
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013056167A
Other languages
English (en)
Other versions
JP5979046B2 (ja
Inventor
Yusuke Nonaka
悠介 野中
Morihito Shiobara
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013056167A priority Critical patent/JP5979046B2/ja
Publication of JP2014182248A publication Critical patent/JP2014182248A/ja
Application granted granted Critical
Publication of JP5979046B2 publication Critical patent/JP5979046B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】撮像部により撮影された、移動物体が写った画像からその撮像部の合焦位置を検出可能な合焦位置検出装置を提供する。
【解決手段】合焦位置検出装置1は、撮像部2により生成された画像に写っている移動物体を検出する検出部21と、画像上での移動物体の位置の遷移を表す追跡情報を更新するトラッキング部22と、複数の追跡情報のそれぞれについて、その追跡情報に示された画像上での移動物体の各位置のボケ度合いを表す指標を算出するボケ指標算出部23と、複数の追跡情報のそれぞれについて、その追跡情報に示された画像上での移動物体の各位置におけるボケ度合いの指標の比較結果と画像上の各位置に対応する撮像部2からの距離に応じて、撮像部2の合焦位置が含まれる範囲を推定する個別合焦範囲推定部24と、複数の追跡情報のそれぞれについて推定された範囲が一致する部分内で合焦位置を推定する合焦位置推定部25とを有する。
【選択図】図4

Description

本発明は、カメラの合焦位置を検出する合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラムに関する。
近年、駐車場等に設置されているナンバープレート読み取り装置のように、屋外または屋内に設置されたカメラにより撮影された画像に基づいて、そのカメラの監視範囲を通過する移動物体に関する情報を収集するシステムが利用されている。このようなシステムにおいて、画像に写っている移動物体の情報を正確に取得するためには、画像上で、監視範囲内にいる物体が鮮鋭に写っていることが好ましい。そのためには、検知対象の移動物体に対してカメラの焦点が合っていることが求められる。そこで、被写体が移動している場合でも、常に結像光学系を合焦状態に保つことができる技術が提案されている(例えば、特許文献1を参照)。
特許文献1に記載された技術では、被写体となる移動物体が一つであることが前提となっている。しかし、上記のようなシステムでは、監視範囲内に、それぞれ独立に移動する複数の移動物体が写ることがある。このような場合、特許文献1に記載の技術では、複数の移動物体のうちの何れか一つについて合焦状態を保つように結像光学系が駆動されると、他の移動物体には焦点が合わず、その結果として、画像上で他の移動物体が不鮮明になってしまうおそれがある。画像に写っている監視範囲内の全ての移動物体について情報を得るには、監視範囲全体について、画像から移動物体を認識できる程度にカメラの焦点が合っていることが求められる。また、被写体となる移動物体が一つであっても、その移動物体の速度が速ければ、一旦撮影された画像に基づいてカメラの焦点位置を調節している間にその移動物体が他の位置へ移動してしまう。そのため、次に撮影された画像でも、その移動物体に焦点が合わなくなることがある。このような場合についても、監視範囲全体について、画像から移動物体を認識できる程度にカメラの焦点が合っていることが求められる。
そこで、上記のようなシステムでは、例えば、カメラの設置時に、監視範囲全体に焦点が合うように、カメラの合焦位置が調節される。しかし、カメラの周囲の環境条件の変化、例えば、気温または湿度の変化、あるいは何らかの外的な衝撃などによって合焦位置がずれることがある。一方、温度変化による焦点面の移動を的確に補正する撮像装置に関する技術が提案されている(例えば、特許文献2を参照)。この技術では、フォーカスレンズをあらかじめ設定された位置に移動させた後の温度変化による焦点面のずれを補正する際に、撮像装置は、所定の範囲内でフォーカスレンズを駆動させて自動焦点調節動作を行う。
特開平7−92381号公報 特開平11−231206号公報
しかし、特許文献2に開示された技術では、自動焦点調節動作を行う際に、フォーカスレンズの駆動範囲内で焦点が合う被写体の位置によって合焦位置が左右される。そのため、この技術を上記のようなシステムに適用しても、自動焦点調節後における合焦範囲が、必ずしも監視範囲と一致するとは限らない。そのため、カメラの合焦位置を適切な位置に調節するためには、その調節前の状態でカメラの合焦位置を検出できることが好ましい。
一つの側面において、本発明は、撮像部により撮影された、移動物体が写った画像からその撮像部の合焦位置を検出可能な合焦位置検出装置を提供することを目的とする。
一つの実施形態によれば、合焦位置検出装置が提供される。この合焦位置検出装置は、撮像部により生成された画像を取得する度に、その画像に写っている移動物体を検出する検出部と、複数の画像にわたって移動物体を追跡することで、画像上での移動物体の位置の遷移を表す追跡情報を更新するトラッキング部と、複数の追跡情報を記憶する記憶部と、複数の追跡情報のそれぞれについて、その追跡情報に示された画像上での移動物体の各位置のボケ度合いを表す指標を算出するボケ指標算出部と、複数の追跡情報のそれぞれについて、その追跡情報に示された画像上での移動物体の各位置における指標を比較し、その比較結果と画像上の各位置に対応する撮像部からの距離に応じて、撮像部の合焦位置が含まれる第1の範囲を推定する個別合焦範囲推定部と、複数の追跡情報のそれぞれについて推定された第1の範囲が一致する第1の部分を求め、その第1の部分内で合焦位置を推定する合焦位置推定部とを有する。
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
本明細書に開示された合焦位置検出装置は、撮像部により撮影された、移動物体が写った画像からその撮像部の合焦位置を検出できる。
(a)及び(b)は、それぞれ、監視範囲とカメラの合焦範囲の関係の一例を示す図である。 (a)及び(b)は、それぞれ、図1(a)及び図1(b)に対応する、カメラ2により生成された画像上での合焦範囲に対応する領域を示す図である。 一つの実施形態による合焦位置検出装置の概略構成図である。 制御部の機能ブロック図である。 カメラからの距離とボケ指標の関係の一例を示す図である。 (a)〜(c)は、それぞれ、同一のナンバープレートが二つの画像で検出された場合の、そのナンバープレートについてのそれぞれの画像でのボケ指標とカメラの合焦位置との関係を示す図である。 (a)〜(d)は、それぞれ、同一のナンバープレートが三つの画像で検出された場合の、そのナンバープレートについてのそれぞれの画像でのボケ指標とカメラ2の合焦位置との関係を示す図である。 追跡情報ごとに推定された合焦位置を含む範囲と、最終的に絞り込まれた合焦位置を含む範囲の関係の一例を示す図である。 合焦位置検出処理の動作フローチャートである。
以下、図を参照しつつ、一つの実施形態による、合焦位置検出装置について説明する。なお、本実施形態では、カメラは、道路を通過する移動物体についての情報を収集するために、道路上に設定された監視範囲を撮影し、その監視範囲の画像を生成するものとする。また、検出対象となる移動物体は、車両に付されたナンバープレートである。ただし、検出対象となる移動物体は、ナンバープレートに限られず、車両そのもの、あるいは、人であってもよい。また、カメラは、屋内の通路を通る人を撮影するものであってもよい。
図1(a)及び図1(b)は、それぞれ、監視範囲とカメラの合焦範囲の関係の一例を示す図である。図1(a)に示される例では、カメラ2の合焦範囲101が、監視範囲100の略中央に設定されている。一方、図1(b)に示される例では、カメラ2の合焦範囲101が、監視範囲100の中心よりも後方、すなわち、カメラ2から離れる方向へずれている。なお、本明細書において、合焦範囲は、カメラ2により生成された画像から検出対象となる移動物体を検出できる程度に、その移動物体が鮮明に写る被写体側の範囲をいう。また、合焦位置は、最も焦点が合った被写体側の位置をいう。
一般に、カメラ2の焦点が合っている位置にいる被写体は、そのカメラにより撮影された画像上で鮮明に写り、カメラの焦点が合っていない位置にいる被写体はそのカメラにより撮影された画像上でぼけて写る。そのため、被写体に焦点が合っていれば、画像上でその被写体のエッジの強度は最も高くなる。そして、焦点が合う位置から被写体が離れるほど、画像上では、その被写体のエッジの強度は低下する。そのため、図1(a)に示される例では、監視範囲100の前端近傍、すなわち、カメラ2に近い方の端部近傍、及び監視範囲100の後端近傍の何れに移動物体がいたとしても、合焦範囲101からそれほど外れていない。そのため、移動物体が監視範囲100内にいる限り、その移動物体のエッジの強度は、カメラ2により生成された画像上で比較的高くなる。
一方、図1(b)に示される例では、監視範囲100の後方は合焦範囲101に含まれているので、監視範囲100の後方にいる移動物体のエッジは、カメラ2により生成された画像上で鮮鋭になる。しかし、監視範囲100の前端近傍、例えば、点線で囲まれた領域102は、合焦範囲101から大きく外れている。そのため、移動物体がその範囲102内にいると、その移動物体のエッジは、カメラ2により生成された画像上で不鮮明となる。
また、カメラ2が監視範囲100内の道路の延伸方向に対して斜め方向を向くように取り付けられている場合、道路上の位置とカメラ2により生成された画像上の位置とは1対1に対応する。例えば、カメラ2が、その光軸が斜め下方を向くように、道路上方に取り付けられている場合、画像の上端に近い位置ほど、監視範囲100の後端に近い位置に対応し、画像の下端に近い位置ほど、監視範囲100の前端に近い位置に対応する。
図2(a)及び図2(b)は、それぞれ、図1(a)及び図1(b)に対応する、カメラ2により生成された画像上での合焦範囲に対応する領域を示す図である。なお、この例では、説明の簡単化のために、監視範囲全体が画像に写るものとした。
図1(a)では、監視範囲100の略中央に合焦範囲101が位置していたので、図2(a)に示されるように、画像200上でも、合焦範囲101に対応する領域201は画像200の略中央に位置する。一方、図1(b)では、合焦範囲101は、監視範囲100の後方にずれていたので、図2(b)に示されるように、画像200上では、合焦範囲101に対応する領域201は画像200の上端側に位置している。そのため、その領域201内に写っている移動物体210は鮮鋭であるが、画像200の下端側、すなわち、監視範囲100の前側端近傍(例えば、図1(b)の領域102内)に位置している移動物体211はボケている。このように、画像上でエッジが鮮鋭になっているところとエッジが不鮮明になっているところが分かれば、カメラ2の合焦位置はある程度推定できる。
しかし、全ての移動物体が同じ形状をしているわけではないので、移動物体によっても、画像上でのその移動物体のエッジの強度は異なる。
そこで、本実施形態による合焦位置検出装置は、一定の周期で監視範囲を撮影するカメラから、その撮影ごとの画像を取得して、各画像を解析することにより、複数の画像にわたって写っている移動物体を検出する。そして合焦位置検出装置は、移動物体ごとに、画像上に写っている位置とエッジ強度の関係から、合焦位置が含まれる範囲を推定する。そしてこの合焦位置検出装置は、複数の移動物体のそれぞれごとに推定された合焦位置が含まれる範囲を重ね合わせて合焦位置が含まれる範囲を絞り込むことで、撮像部の合焦位置を推定する。
図3は、一つの実施形態による合焦位置検出装置の概略構成図である。合焦位置検出装置1は、カメラインターフェース部11と、記憶部12と、制御部13とを有する。そして合焦位置検出装置1は、カメラインターフェース部11を介して、カメラ2と接続される。なお、合焦位置検出装置1は、カメラ2により撮影された画像から検出した移動物体についての情報を収集するシステムに組み込まれていてもよく、あるいは、そのシステムと別個に設けられてもよい。
本実施形態では、カメラ2は、撮像部の一例であり、例えば、固体撮像素子のイメージセンサと、そのイメージセンサ上に監視範囲の像を結像する結像光学系と、カメラ2の合焦位置を調節するために結像光学系を駆動するフォーカシング機構とを有する。カメラ2は、例えば、道路を跨ぐように設けられたゲート状の構造物、あるいは、道路の脇に設置された支柱に、その道路を走行する車両よりも高い位置に取り付けられる。そして道路上の一部がカメラ2の撮影範囲、すなわち監視範囲となるように、カメラ2は道路上へ向けて設置される。なお、カメラ2は、例えば、交通状況を把握するなどの目的で設置された既存のカメラであってもよい。
カメラ2は、所定の撮影周期(例えば、33msec)ごとに監視範囲を撮影し、その監視範囲が写った画像を生成する。そしてカメラ2は、画像を生成する度に、その画像を合焦位置検出装置1へ出力する。
さらに、カメラ2は、合焦位置検出装置1から受け取ったフォーカシング信号に従って、合焦位置を調節する。
カメラインターフェース部11は、カメラ2を合焦位置検出装置1に接続するためのインターフェース回路を有する。このインターフェース回路は、例えば、RS-232Cまたはユニバーサルシリアルバスといったシリアル通信規格に準拠した回路とすることができる。そしてカメラインターフェース部11は、カメラ2から画像を受け取る度に、その画像を制御部13へ渡す。またカメラインターフェース部11は、制御部13からフォーカシング信号を受け取ると、そのフォーカシング信号をカメラ2へ出力する。
記憶部12は、例えば、読み書き可能な揮発性の半導体メモリ回路と、読み出し専用の不揮発性の半導体メモリ回路とを有する。そして記憶部12は、カメラ2の合焦位置を検出するために用いられ、制御部13上で動作するコンピュータプログラムを記憶する。また記憶部12は、合焦位置を検出するために用いられる様々なデータ、例えば、カメラ2から受け取った画像、及びその画像から検出された移動物体の画像上の位置の遷移などを記録する追跡情報を記憶する。
制御部13は、合焦位置検出装置1全体を制御する。また制御部13は、カメラ2から受け取った画像に基づいて、カメラ2の合焦位置を検出し、その検出結果に応じて、カメラ2の合焦位置を調節するためのフォーカシング信号を生成する。そのために、制御部13は、少なくとも一つのプロセッサ及び周辺回路を有する。
図4は、制御部13の機能ブロック図である。制御部13は、検出部21と、トラッキング部22と、ボケ指標算出部23と、個別合焦範囲推定部24と、合焦位置推定部25と、フォーカシング調整部26とを有する。制御部13が有するこれらの各部は、制御部13が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールである。あるいは、制御部13が有するこれらの各部は、各部の機能を実現するデジタル信号プロセッサとして合焦位置検出装置1に実装されてもよい。
検出部21は、制御部13がカメラ2から画像を受け取る度に、その画像に写っている移動物体を検出する。上述したように、本実施形態では、検出対象となる移動物体は、車両に付されたナンバープレートである。
検出部21は、例えば、予め記憶部12に記憶されたナンバープレートのテンプレートと画像との間でテンプレートマッチングを行うことにより、ナンバープレートを検出する。あるいは、検出部21は、ナンバープレートに記載される数字などの文字に相当するテンプレートを用いてテンプレートマッチングを行ってもよい。あるいはまた、検出部21は、ナンバープレート検出用に予め学習された識別器を用いて、画像からナンバープレートを検出してもよい。検出部21は、そのような識別器として、例えば、adaBoost識別器またはサポートベクトルマシンを利用できる。
なお、検出部21は、画像上でナンバープレートが検出された領域内で、文字に相当するテンプレートを用いたテンプレートマッチングを行ったり、あるいはその他の文字認識手法を利用して、ナンバープレートに記載された車両番号を認識してもよい。
検出部21は、画像上のナンバープレートが検出された位置、例えば、ナンバープレートが検出された領域の重心を、トラッキング部22へ通知する。また検出部21は、車両番号を認識した場合には、その車両番号も、ナンバープレートが検出された位置とともにトラッキング部22へ通知してもよい。
トラッキング部22は、制御部13がカメラ2から得た複数の画像にわたってそれらの画像から検出されたナンバープレートを追跡することで、画像上でのナンバープレートの
位置の遷移を表す追跡情報を更新する。
そのために、トラッキング部22は、例えば、ナンバープレートが検出された画像上の領域内での特徴点を検出し、その特徴点に基づいてオプティカルフローなどのトラッキング手法を適用することにより、画像間で同一のナンバープレート同士を対応付ける。なお、特徴点は、例えば、Harrisオペレータといったコーナー検出器により検出されるコーナーとすることができる。あるいは、トラッキング部22は、他の様々なトラッキング手法の何れかを利用して、複数の画像にわたって、それら画像から検出されたナンバープレートを追跡してもよい。
また、検出部21によって車両番号が認識されている場合には、トラッキング部22は、同一の車両番号に対応するナンバープレート同士を対応付けることで、ナンバープレートを追跡してもよい。
トラッキング部22は、最新の画像から検出されたナンバープレートごとに、そのナンバープレートの画像上の位置を、そのナンバープレートに対応する追跡情報に追加することで追跡情報を更新する。そしてトラッキング部22は、更新された追跡情報を記憶部12に記憶する。
なお、トラッキング部22は、最新の画像から検出されたナンバープレートのうち、過去の画像から検出されたナンバープレートの何れにも対応しないナンバープレートについては、新たに検出されたものとして、追跡情報も新たに生成する。
ボケ指標算出部23は、画像からナンバープレートが検出される度に、そのナンバープレートが写っている領域内でカメラ2の焦点がボケている度合いを表すボケ指標を算出する。
ボケ指標算出部23は、ボケ指標として、例えば、ナンバープレート内の文字が写っている前景画素と、前景画素に隣接する文字が写っていない背景画素間の輝度値差の絶対値の平均値あるいは中央値を算出する。なお、ボケ指標算出部23は、例えば、ナンバープレートが写っている領域内の各画素の輝度値を2値化閾値と比較し、2値化閾値以上の輝度値を持つ画素を前景画素、2値化閾値未満の輝度値を持つ画素を背景画素としてもよい。2値化閾値は、例えば、ナンバープレートが写っている領域内の各画素の輝度値の平均値であってもよく、あるいは、判別分析法によって定められてもよい。
また、ボケ指標算出部23は、ナンバープレートが検出された領域内の各画素について、sobelフィルタなどのエッジ検出フィルタ処理を行ってエッジ強度を算出し、そのエッジ強度の平均値をボケ指標としてもよい。あるいは、ボケ指標算出部23は、ナンバープレートが検出された領域内のエッジ強度の累積ヒストグラムを算出し、その累積ヒストグラムに基づいて、エッジ強度が大きい方から順に所定割合(例えば、10%〜20%)となるエッジ強度をボケ指標としてもよい。あるいは、ボケ指標算出部23は、ナンバープレートが検出された領域に対してフーリエ変換処理をおこなってその領域内の周波数スペクトルを算出し、所定の周波数よりも高い周波数成分が周波数スペクトル全体に占める割合をボケ指標としてもよい。これらの例では、ボケ指標の値が小さいほどエッジが不鮮明となっており、逆にボケ指標の値が大きいほどエッジが鮮鋭になっていることを表す。なお、ボケ指標算出部23は、エッジが不鮮明なほどボケ指標の値も大きくなるようなボケ指標を求めてもよい。
ボケ指標算出部23は、追跡情報に格納されたナンバープレートの位置に、その位置のボケ指標を対応付けるように、そのボケ指標を追加する。
個別合焦範囲推定部24は、追跡情報ごとに、その追跡情報に含まれるナンバープレートが検出された画像上の各位置のボケ指標の比較結果とその各位置に対応するカメラ2からの距離に応じて、合焦位置が含まれる範囲と合焦範囲が含まれる範囲を推定する。
図5は、カメラ2からの距離とボケ指標の関係の一例を示す図である。図5において、横軸はカメラ2からの距離を表し、縦軸はボケ指標を表す。この例では、上記のように、ボケ指標の値が大きいほど、エッジが鮮鋭であることを表す。そしてグラフ500は、距離とボケ指標の関係を表す。
グラフ500に示されるように、ボケ指標の値は、カメラ2の焦点が最も合っている位置(すなわち、合焦位置)において最も高くなり、合焦位置から離れるほど、ボケ指標の値は低下する。簡単化のために、合焦位置の前後におけるボケ指標の低下の度合いが同一であるとする。そうすると、二つの距離の中点に合焦位置があるときに、それら二つの距離におけるボケ指標は等しくなる。そのため、グラフ500に示されるように、例えば、距離x1、x2におけるボケ指標の値が算出されており、距離x1でのボケ指標の値u1が、距離x2でのボケ指標u2よりも高ければ、カメラ2の合焦位置は、距離x1と距離x2の中点よりも距離x1に近い方にある。また、少なくとも、距離x2では距離x1よりもボケ指標が低下しているので、合焦範囲は、距離x2よりもカメラ2側にあると推定される。
ボケ指標とカメラ2の合焦位置の関係について、さらに幾つかの例を挙げて説明する。
図6(a)〜図6(c)は、それぞれ、同一のナンバープレートが二つの画像で検出された場合の、そのナンバープレートについてのそれぞれの画像でのボケ指標とカメラ2の合焦位置との関係を示す図である。図6(a)〜図6(c)において、横軸はカメラ2からの距離を表す。また黒丸601は、二つの画像からそれぞれ算出されたボケ指標のうち、相対的に低い方のボケ指標を表し、白丸602は、相対的に高い方のボケ指標を表す。さらに、四角603は、二つの画像からそれぞれ算出されたボケ指標が同程度である場合のボケ指標を表す。
図6(a)に示されるように、カメラ2に近い方の距離x1におけるボケ指標よりも、カメラ2から遠い方の距離x2におけるボケ指標の方が高ければ、カメラ2の合焦位置は、カメラ2から距離(x1+x2)/2よりも遠い位置にあると推定される。また、カメラ2の合焦範囲の手前側(すなわち、カメラ2側)の境界は、距離x1よりも遠いと推定される。逆に、図6(b)に示されるように、カメラ2から遠い方の距離x2におけるボケ指標よりも、カメラ2に近い方の距離x1におけるボケ指標の方が高ければ、カメラ2からその合焦位置までの距離は、距離(x1+x2)/2よりも近いと推定される。また、カメラ2の合焦範囲の奥側(すなわち、カメラ2から離れた側)の境界は、距離x2よりも近いと推定される。ただし、図6(c)に示されるように、距離x1におけるボケ指標と距離x2におけるボケ指標が同程度であり、ある程度以上焦点があっている場合には、どちら側に合焦位置がずれているかを推定することは困難である。
図7(a)〜図7(d)は、それぞれ、同一のナンバープレートが三つの画像で検出された場合の、そのナンバープレートについてのそれぞれの画像でのボケ指標とカメラ2の合焦位置との関係を示す図である。図7(a)〜図7(d)において、横軸はカメラ2からの距離を表す。また黒丸701は、二つの画像からそれぞれ算出されたボケ指標のうち、相対的に低い方のボケ指標を表し、白丸702は、相対的に高い方のボケ指標を表す。さらに、四角703は、二つの画像からそれぞれ算出されたボケ指標が同程度である場合のボケ指標を表す。
図7(a)に示されるように、距離x1、x2、x3のそれぞれのボケ指標のうち、中間の距離x2におけるボケ指標が最も高い場合、カメラ2の合焦位置は、カメラ2からの距離が(x1+x2)/2〜(x2+x3)/2の間にあると推定される。また、カメラ2の合焦範囲の手前側の境界は、距離x1よりも遠く、合焦範囲の奥側の境界は、距離x3よりも近いと推定される。これに対して、図7(b)に示されるように、カメラ2に最も近い距離x1におけるボケ指標が最も高ければ、合焦位置は、距離(x1+x2)/2よりもカメラ2に近いと推定される。また、カメラ2の合焦範囲の奥側の境界は、距離x2よりも近いと推定される。逆に、カメラ2から最も離れた距離x3におけるボケ指標が最も高ければ、合焦位置は、距離(x2+x3)/2よりもカメラ2から遠いと推定される。また、カメラ2の合焦範囲の手前側の境界は、距離x2よりも遠いと推定される。さらに、図7(c)に示されるように、距離x1、距離x2におけるボケ指標が同程度に高く、距離x3におけるボケ指標が最も低ければ、合焦位置は、(x2+x3)/2よりもカメラ2に近いと推定される。また、カメラ2の合焦範囲の奥側の境界は、距離x3よりも近いと推定される。逆に、距離x2、距離x3におけるボケ指標が同程度に高く、距離x1におけるボケ指標が最も低ければ、合焦位置は、(x1+x2)/2よりもカメラ2から離れていると推定される。また、カメラ2の合焦範囲の手前側の境界は、距離x1よりも遠いと推定される。一方、図7(d)に示されるように、距離x1〜x3のそれぞれにおけるボケ指標が同程度であり、ある程度以上焦点があっている場合には、どちら側に合焦位置がずれているかを推定することは困難である。
個別合焦範囲推定部24は、一定の周期(例えば、1日〜1週間)ごとに、あるいは予め設定された日時になると、記憶部12に記憶されている各追跡情報を読み込む。そして個別合焦範囲推定部24は、各追跡情報のうち、ナンバープレートの位置が複数含まれる追跡情報を抽出する。そして個別合焦範囲推定部24は、抽出された追跡情報のそれぞれについて、画像上のナンバープレートの位置ごとに、その位置に対応するカメラ2からの距離を求める。画像上の位置とカメラ2からの距離の関係は、カメラ2の設置条件(例えば、路面からカメラ2までの高さ、カメラ2の光軸方向)及びカメラ2の仕様(例えば、画素数、画角)に基づいて予め求めることができる。そこで、例えば、画像上の位置とカメラ2からの距離の関係を表す参照テーブルが予め作成され、記憶部12に記憶される。そして個別合焦範囲推定部24は、その参照テーブルを参照することにより、ナンバープレートの画像上の位置に対応するカメラ2からの距離を求めることができる。
個別合焦範囲推定部24は、抽出された追跡情報ごとに、すなわちナンバープレートごとに、上記の図6、図7について説明した規則に従って、カメラ2の合焦位置が含まれると推定される範囲と合焦範囲が含まれると推定される範囲を求める。そして個別合焦範囲推定部24は、それらの範囲を追跡情報に追加する。
すなわち、個別合焦範囲推定部24は、抽出された追跡情報のそれぞれについて、時間的に連続する2枚の画像から算出された、カメラ2からナンバープレートまでの距離の組み合わせごとに、その二つの距離のそれぞれにおけるボケ指標の差の絶対値を算出する。そして個別合焦範囲推定部24は、ボケ指標の差の絶対値が最大となる二つの距離を特定する。個別合焦範囲推定部24は、ボケ指標の差の絶対値の最大値を所定の閾値と比較する。そして個別合焦範囲推定部24は、その最大値が閾値よりも大きければ、その二つの距離の中点よりも、ボケ指標の値が大きい方に合焦位置があると推定する。また、個別合焦範囲推定部24は、その最大値に対応する二つの距離のうち、ボケ指標の値が高い方の距離を含み、かつ、ボケ指標の値が低い方の距離を境界とする範囲に、合焦範囲が含まれると推定する。なお、個別合焦範囲推定部24は、合焦位置が含まれると判定された側で、再度連続する2枚の画像から算出された距離間のボケ指標の差の最大値を算出してもよい。そして個別合焦範囲推定部24は、その最大値に基づいて上記の処理と同様の処理を行うことで、合焦位置及び合焦範囲が含まれる範囲のもう一方の境界を決定してもよい。
一方、個別合焦範囲推定部24は、ボケ指標の差の絶対値の最大値が閾値以下であれば、そのナンバープレートについては、合焦位置を推定できないと判定する。なお、閾値は、例えば、目視にてエッジのボケ度合いが識別できるボケ指標の差の最小値に設定される。
個別合焦範囲推定部24は、合焦位置を含む範囲及び合焦範囲を含む範囲を推定できた追跡情報に、その推定した合焦位置を含む範囲及び合焦範囲を含む範囲を追加して、その追跡情報を記憶部12に記憶する。
合焦位置推定部25は、記憶部12に記憶されている、複数の追跡情報のそれぞれについて求められた合焦位置を含む範囲同士、及び合焦範囲を含む範囲同士を重ね合わせて合焦位置が含まれる範囲をより精密に特定することで、合焦位置を推定する。
図8は、追跡情報ごとに推定された合焦位置を含む範囲と、最終的に絞り込まれた合焦位置を含む範囲の関係の一例を示す図である。図8において、横軸はカメラ2からの距離を表す。また、個々の線分801は、それぞれ、一つの追跡情報における、ナンバープレートの検出位置と個々の検出位置におけるボケ指標の相対的な大きさの関係を表す。そして、個々の線分801に付された白丸、黒丸及び四角といった記号は、それぞれ、その記号が付された位置でのボケ指標の相対的な大きさを表す。白丸は、相対的にボケ指標が大きい、すなわち、相対的にエッジが鮮鋭であることを表し、黒丸は、相対的にボケ指標が小さい、すなわち、相対的にエッジが不鮮明であることを表す。そして四角は、その追跡情報に含まれるナンバープレートの検出位置のそれぞれにおけるボケ指標がほぼ同じであることを表す。さらに、個々の線分801に付された実線の矢印802は、その矢印の基点を境界とする、矢印の方向に、カメラ2の合焦位置が含まれると推定された範囲があることを表す。また、個々の線分801に付された点線の矢印803は、その矢印の基点を境界として、矢印の方向にカメラ2の合焦範囲があると推定されたことを表す。
各追跡情報について合焦位置を含むと推定された範囲を重ね合わせて一致する部分を特定することで、最終的に絞り込まれた、合焦位置を含むと推定される範囲が得られる。また、各追跡情報について合焦範囲を含むと推定された範囲を重ね合わせて一致する部分を特定することで、最終的に絞り込まれた、合焦範囲を含むと推定される範囲が得られる。
具体的には、合焦位置推定部25は、各追跡情報について求められた、合焦位置を含む推定範囲のうち、その推定範囲のカメラ2側の境界が求められているものの中から、カメラ2から最も離れた境界を特定する。同様に、合焦位置推定部25は、各追跡情報について求められた、合焦位置を含む推定範囲のうち、その推定範囲のカメラ2から遠い側の境界が求められているものの中から、カメラ2から最も近い境界を特定する。そして合焦位置推定部25は、特定された二つの境界で挟まれた範囲を、最終的に絞り込まれた合焦位置を含む範囲とする。例えば、図8に示された例では、矢印811の基点が、合焦位置を含むと推定された範囲のカメラ2側の境界のうち、カメラ2から最も離れた境界となる。また、矢印812の基点が、合焦位置を含むと推定された範囲のカメラ2から遠い方の境界のうち、カメラ2に最も近い境界となる。そのため、矢印811の基点と矢印812の基点で挟まれた範囲804が、最終的に絞り込まれた、合焦位置を含むと推定される範囲となる。
同様に、合焦位置推定部25は、各追跡情報について求められた、合焦範囲を含む推定範囲のうち、その推定範囲のカメラ2側の境界が求められているものの中から、カメラ2から最も離れた境界を特定する。また合焦位置推定部25は、各追跡情報について求められた、合焦範囲を含む推定範囲のうち、その推定範囲のカメラ2から遠い側の境界が求められているものの中から、カメラ2から最も近い境界を特定する。そして合焦位置推定部25は、特定された二つの境界で挟まれた範囲を、最終的に推定される、合焦範囲を含む範囲とする。例えば、図8に示された例では、矢印821の基点が、合焦範囲を含むと推定された範囲のカメラ2側の境界のうち、カメラ2から最も離れた境界となる。また、矢印822の基点が、合焦範囲を含むと推定された範囲のカメラ2から遠い方の境界のうち、カメラ2に最も近い境界となる。そのため、矢印821の基点と矢印822の基点で挟まれた範囲805が、最終的に絞り込まれた、合焦範囲を含むと推定される範囲となる。
絞り込んだ合焦位置の範囲の幅がP1であり、実際の合焦位置がその範囲内に含まれるとすると、その合焦位置の範囲の中点と実際の合焦位置との誤差は最大でP1/2となる。また、合焦範囲が含まれる推定範囲の幅がL1であり、実際の合焦範囲がその推定範囲に含まれるとすると、推定範囲の中心と実際の合焦範囲の中心との誤差は最大で|L1-L0|/2となる。ただし、L0は、実際の合焦範囲の幅を表す。そこで、合焦位置の最大誤差P1/2及び合焦範囲の最大誤差|L1-L0|/2のうち、小さい方が予め設定された許容範囲内であれば、合焦位置推定部25は、合焦位置が十分に絞り込めたと判定する。そして合焦位置推定部25は、合焦位置の推定範囲の中点及び合焦範囲の推定範囲の中点のうち、対応する最大誤差が小さい方を、推定した合焦位置として、フォーカシング調整部26へ渡す。
一方、合焦位置の最大誤差P1/2及び合焦範囲の最大誤差|L1-L0|/2のうち、小さい方が予め設定された許容範囲外であれば、合焦位置推定部25は、合焦位置が十分に絞り込めていないと判定する。そして合焦位置推定部25は、所定期間の間、追跡情報が追加で蓄積されるのを待つ。そして所定期間が経過した後に、合焦位置推定部25は、所定期間の開始前に求められていた追跡情報だけでなく、所定期間中に追加された追跡情報も利用して、再度、合焦位置及び合焦範囲を絞り込む。
なお、許容範囲は、例えば、カメラ2により撮影された画像から認識対象となる移動物体(この例では、ナンバープレート)を認識する際の認識精度が予め設定された仕様を満たせるように合焦位置を設定できる最大誤差に設定される。
例えば、合焦位置の推定範囲の中点または合焦範囲が含まれる推定範囲の中点をxとして、その点xから実際の合焦位置までの誤差の最大値をd(=min(P1/2, |L1-L0|/2))とする。そして、所望の合焦位置をyとする。上記の推定結果により、実際の合焦位置zは、x-d≦z≦x+dを満たす範囲内にある。ここで、フォーカシング調整により、推定された合焦位置xから合焦位置をyに移動させるよう、合焦位置が(y-x)だけ調整されるとする。この場合、調整後の実際の合焦位置wは、y-d≦w≦y+dを満たす範囲にある。ここで、認識精度が仕様を満たせる合焦位置の誤差の最大値がcであるとすると、d≦cであれば、y-c≦w≦y+cとなるので、認識精度が仕様を満たせる。そこで許容範囲は、認識精度が仕様を満たせる合焦位置の誤差の最大値cに設定される。
あるいは、許容範囲は、推定された合焦位置に基づいて修正された合焦位置と所望の合焦位置間の誤差が、修正前の実際の合焦位置と所望の合焦位置間の誤差以下となるように設定されてもよい。
例えば、合焦位置の推定範囲の中点または合焦範囲が含まれる推定範囲の中点をxとして、その点xから実際の合焦位置までの誤差の最大値をd(=min(P1/2, |L1-L0|/2))とする。そして、所望の合焦位置をyとする。上記の推定結果により、実際の合焦位置zは、x-d≦z≦x+dを満たす範囲内にある。ここで、x<yであるとすると、所望の合焦位置から実際の合焦位置までのずれ量aは、次式で表される。
y-x-d < a < y-x+d (ただし、x+d<y) (1)
0 ≦ a < y-x+d (ただし、x+d≧y) (2)
フォーカシング調整により、推定された合焦位置xから合焦位置をyに移動させるよう、合焦位置が(y-x)だけ調整されるとする。この場合、調整後の実際の合焦位置wは、y-d≦w≦y+dを満たす範囲にある。そのため、所望の合焦位置から修正後の合焦位置までのずれ量bは、0 < b < dの範囲に含まれる。したがって、上記の(2)式の場合には、a < bとなり得るので、合焦位置の絞り込みは十分でない。一方、(1)式の場合には、b ≦ aとなるためには、d ≦y-x-dとなる必要がある。したがって、d ≦ (y-x)/2であれば、修正後の合焦位置の方が修正前の合焦位置よりも所望の合焦位置から離れることはない。なお、x>yの場合も、同じ結果となる。そこで許容範囲は、合焦位置の修正量の1/2に設定される。
フォーカシング調整部26は、所望の合焦位置と推定された合焦位置間のずれ量を、合焦位置の調整が必要か否かを判定する閾値と比較する。そしてそのずれ量が閾値以上であれば、フォーカシング調整部26は、そのずれ量を打ち消すだけ合焦位置を移動させるフォーカシング信号を生成する。なお、所望の合焦位置は、例えば、監視範囲の中心に設定される。あるいは、所望の合焦位置は、監視範囲の中心よりも、カメラ2に近い位置に設定されてもよい。これは、合焦位置からカメラ2側の被写界深度は、合焦位置からカメラ2よりも遠い側の被写界深度よりも短いことによる。すなわち、上記のように所望の合焦位置を設定することで、合焦位置検出装置1は、監視範囲と合焦範囲とをより適切に一致させることができる。また、ずれ量及び推定された合焦位置と、カメラ2の結像光学系の移動量、すなわち、フォーカシング調整量との関係を表す参照テーブルが予め記憶部12に記憶される。そしてフォーカシング調整部26は、その参照テーブルを参照することにより、ずれ量及び推定された合焦位置に対応するフォーカシング調整量を求めればよい。そしてフォーカシング調整部26は、フォーカシング信号を、カメラインターフェース部11を介してカメラ2へ出力する。
なお、閾値は、例えば、カメラ2により撮影された画像から検出対象となる移動物体を検出する際の検出精度の条件(例えば、仕様にて規定される検出精度の最低値)を満たせる合焦位置のずれ量の最大値に設定される。
例えば、推定された合焦位置をxとして、その点xから実際の合焦位置までの誤差の最大値をd(=min(P1/2, |L1-L0|/2))とする。そして、所望の合焦位置をyとする。上記の推定結果により、実際の合焦位置zは、x-d≦z≦x+dを満たす範囲内にある。ここで、x<yであるとすると、所望の合焦位置から実際の合焦位置までのずれ量aは、a < y-x+dを満たす。ここで、認識精度が仕様を満たせる合焦位置のずれ量の最大値がcであるとすると、a≦cとなためには、y-x+d < cとなる必要がある。なお、y ≦ xの場合も、同様である。そこで閾値は、認識精度が仕様を満たせる合焦位置のずれ量の最大値cから、誤差の最大値dを減じた値に設定される。
なお、カメラ2に近いほど、被写界深度は狭くなるので、推定された合焦位置がカメラ2に近いほど、フォーカシング調整部26は、合焦位置を調整するか否かを判定するための閾値を小さくしてもよい。
図9は、制御部13により実行される合焦位置検出処理の動作フローチャートである。
制御部13は、カメラ2から画像を取得する(ステップS101)。以下では、説明の便宜上、カメラ2から得られた最新の画像を現画像と呼ぶ。そして制御部13の検出部21は、現画像から認識対象の移動物体を検出する(ステップS102)。そして制御部13のトラッキング部22は、現画像に基づいて検出された移動物体の位置と、過去の画像に基づいて検出された画像の位置などを用いて、移動物体ごとの追跡情報を更新する(ステップS103)。
また、制御部13のボケ指標算出部23は、現画像から検出された移動物体に基づいて、カメラ2からその移動物体までの距離に対応する画像上の位置でのボケ指標を算出する(ステップS104)。そしてボケ指標算出部23は、そのボケ指標を対応する追跡情報に追加する。
制御部13は、合焦位置検出処理が開始されてから所定期間が経過したか否か判定する(ステップS105)。所定期間が経過していなければ(ステップS105−No)、制御部13は、ステップS101以降の処理を繰り返す。
一方、所定期間が経過していれば(ステップS105−Yes)、制御部13の個別合焦範囲推定部24は、追跡情報ごとに、距離ごとのボケ指標を比較することで、合焦位置が含まれる範囲及び合焦範囲が含まれる範囲を推定する(ステップS106)。そして制御部13の合焦位置推定部25は、追跡情報ごとに推定された合焦位置が含まれる範囲及び合焦範囲が含まれる範囲を重ね合わせて一致する部分を求めることで、合焦位置の推定位置を絞り込む(ステップS107)。合焦位置推定部25は、一致する部分の幅から算出される合焦位置の誤差の最大値が許容範囲内か否か判定する(ステップS108)。その誤差の最大値が許容範囲よりも広ければ(ステップS108−No)、制御部13は、ステップS101以降の処理を繰り返す。
一方、その一致する部分の幅が許容範囲以内であれば(ステップS108−Yes)、合焦位置推定部25は、その一致する部分の中点を推定された合焦位置として、制御部13のフォーカシング調整部26へ通知する。
フォーカシング調整部26は、所望の合焦位置から推定された合焦位置のずれ量が所定の閾値より大きいか否か判定する(ステップS109)。そのずれ量が閾値より大きければ(ステップS109−Yes)、フォーカシング調整部26は、推定された合焦位置と所望の合焦位置のずれ量を打ち消すフォーカシング調整量を含むフォーカシング信号を生成する(ステップS110)。そしてフォーカシング調整部26は、そのフォーカシング信号を、カメラインターフェース部11を介してカメラ2へ出力し、カメラ2に、推定された合焦位置と所望の合焦位置間のずれを補正するよう、合焦位置を修正させる。
ステップS110の後、あるいは、ステップS109にてずれ量が閾値以下のとき(ステップS109−No)、制御部13は、合焦位置検出処理を終了する。
以上に説明してきたように、この合焦位置検出装置は、同一の移動物体ごとに複数の位置で算出されたボケ指標を比較することで、大雑把ではあるが正確に合焦位置が含まれる範囲を推定できる。そしてこの合焦位置検出装置は、複数の移動物体のそれぞれについて求められた合焦位置が含まれる範囲を重ね合わせて、合焦位置が含まれる範囲を絞り込むので、精度よく合焦位置を推定できる。
なお、本発明は上記の実施形態に限定されるものではない。一つの変形例によれば、カメラ2は、Time of Flight方式のカメラでもよい。この場合には、カメラ2は、カメラ2により生成された画像の画素ごとに、カメラ2からその画素に写っている被写体までの距離を測定できる。そのため、制御部13は、検出対象となる移動物体が写っている領域に含まれる画素について、カメラ2からその画素に写っている移動物体までの距離の情報を取得して、移動物体の位置情報として利用してもよい。
また、個別合焦範囲推定部24は、演算量の軽減のため、合焦位置が含まれる範囲及び合焦範囲が含まれる範囲の何れか一方のみを推定してもよい。この場合、合焦位置推定部25は、推定された方の範囲の中点を、合焦位置の推定位置とすればよい。
また、上記の実施形態または変形例による制御部の機能をコンピュータに実現させる命令を有するコンピュータプログラムは、磁気記録媒体、光記録媒体あるいは不揮発性の半導体メモリといった、記録媒体に記録された形で提供されてもよい。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
1 合焦位置検出装置
2 カメラ(撮像部)
11 カメラインターフェース部
12 記憶部
13 制御部
21 検出部
22 トラッキング部
23 ボケ指標算出部
24 個別合焦範囲推定部
25 合焦位置推定部
26 フォーカシング調整部

Claims (10)

  1. 撮像部により生成された画像を取得する度に、該画像に写っている移動物体を検出する検出部と、
    複数の前記画像にわたって前記移動物体を追跡することで、前記画像上での前記移動物体の位置の遷移を表す追跡情報を更新するトラッキング部と、
    複数の前記追跡情報を記憶する記憶部と、
    前記複数の追跡情報のそれぞれについて、当該追跡情報に示された前記画像上での前記移動物体の各位置のボケ度合いを表す指標を算出するボケ指標算出部と、
    前記複数の追跡情報のそれぞれについて、当該追跡情報に示された前記画像上での前記移動物体の各位置における前記指標を比較し、該比較結果と前記画像上の各位置に対応する前記撮像部からの距離に応じて、前記撮像部の合焦位置が含まれる第1の範囲を推定する個別合焦範囲推定部と、
    複数の前記追跡情報のそれぞれについて推定された前記第1の範囲が一致する第1の部分を求め、当該第1の部分内で前記合焦位置を推定する合焦位置推定部と、
    を有する合焦位置検出装置。
  2. 所望の合焦位置から前記推定された合焦位置までのずれ量を算出し、当該ずれ量が所定量よりも大きい場合に、当該ずれ量を打ち消すフォーカシングの調整量を求めるフォーカシング調整部と、
    前記フォーカシングの調整量を前記撮像部へ出力するインターフェース部とをさらに有する、請求項1に記載の合焦位置検出装置。
  3. 前記所定量は、前記撮像部により生成された画像から検出対象となる移動物体を検出する際の検出精度の条件を満たせる前記ずれ量の最大値である、請求項2に記載の合焦位置検出装置。
  4. 前記個別合焦範囲推定部は、前記追跡情報に含まれる、前記画像上の移動物体の位置に対応する前記撮像部から前記移動物体までの距離のうち、時間的に連続する二つの画像のそれぞれから得られた距離についての前記指標間の差の絶対値を求め、当該差の絶対値の最大値に対応する二つの距離の中点を境界とし、かつ、当該二つの距離のうちのボケ度合いが小さい方の前記指標の値に対応する距離を含むように、前記第1の範囲を設定する、請求項1〜3の何れか一項に記載の合焦位置検出装置。
  5. 前記個別合焦範囲推定部は、前記撮像部の焦点が合っている範囲である合焦範囲が、時間的に連続する二つの画像のそれぞれから得られた前記画像上の移動物体の位置に対応する前記撮像部から前記移動物体までの距離についての前記指標間の差の絶対値の最大値に対応する二つの距離のうち、ボケ度合いが大きい方の前記指標の値に対応する距離を境界とし、かつ、他方の距離を含む第2の範囲に含まれると判定する、請求項1〜4の何れか一項に記載の合焦位置検出装置。
  6. 前記合焦位置推定部は、複数の前記追跡情報のそれぞれについて推定された前記第2の範囲が一致する第2の部分を求め、当該第2の部分内に前記合焦範囲が含まれると推定する、請求項5に記載の合焦位置検出装置。
  7. 前記合焦位置推定部は、前記第1の部分の幅の半分を前記合焦位置の誤差の最大値とし、当該最大値が所定の閾値よりも大きい場合、当該第1の部分の決定後の所定期間内に取得された複数の画像から検出された移動物体について生成された追加の追跡情報を利用して、再度前記第1の部分を求める、請求項1〜3の何れか一項に記載の合焦位置検出装置。
  8. 前記合焦位置推定部は、前記第1の部分の幅の半分と、前記第2の部分の幅と前記合焦範囲の差の半分とのうちの小さい方を、前記合焦位置の誤差の最大値とし、当該最大値が所定の閾値よりも大きい場合、当該第1及び第2の部分の決定後の所定期間内に取得された複数の画像から検出された移動物体について生成された追加の追跡情報を利用して、再度前記第1及び第2の部分を求める、請求項6に記載の合焦位置検出装置。
  9. 撮像部により生成された画像を取得する度に、該画像に写っている移動物体を検出し、
    複数の前記画像にわたって前記移動物体を追跡することで、前記画像上での前記移動物体の位置の遷移を表す追跡情報を更新して記憶部に記憶し、
    前記記憶部に記憶された複数の前記追跡情報のそれぞれについて、当該追跡情報に示された前記画像上での前記移動物体の各位置のボケ度合いを表す指標を算出し、
    前記記憶部に記憶された複数の前記追跡情報のそれぞれについて、当該追跡情報に示された前記画像上での前記移動物体の各位置における前記指標を比較し、該比較結果と前記画像上の各位置に対応する前記撮像部からの距離に応じて、前記撮像部の合焦位置が含まれる第1の範囲を推定し、
    複数の前記追跡情報のそれぞれについて推定された前記第1の範囲が一致する第1の部分を求め、当該第1の部分内で前記合焦位置を推定する、
    ことを含む合焦位置検出方法。
  10. 撮像部により生成された画像を取得する度に、該画像に写っている移動物体を検出し、
    複数の前記画像にわたって前記移動物体を追跡することで、前記画像上での前記移動物体の位置の遷移を表す追跡情報を更新して記憶部に記憶し、
    前記記憶部に記憶された複数の前記追跡情報のそれぞれについて、当該追跡情報に示された前記画像上での前記移動物体の各位置のボケ度合いを表す指標を算出し、
    前記記憶部に記憶された複数の前記追跡情報のそれぞれについて、当該追跡情報に示された前記画像上での前記移動物体の各位置における前記指標を比較し、該比較結果と前記画像上の各位置に対応する前記撮像部からの距離に応じて、前記撮像部の合焦位置が含まれる第1の範囲を推定し、
    複数の前記追跡情報のそれぞれについて推定された前記第1の範囲が一致する第1の部分を求め、当該第1の部分内で前記合焦位置を推定する、
    ことをコンピュータに実行させるための合焦位置検出用コンピュータプログラム。
JP2013056167A 2013-03-19 2013-03-19 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム Expired - Fee Related JP5979046B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013056167A JP5979046B2 (ja) 2013-03-19 2013-03-19 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013056167A JP5979046B2 (ja) 2013-03-19 2013-03-19 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2014182248A true JP2014182248A (ja) 2014-09-29
JP5979046B2 JP5979046B2 (ja) 2016-08-24

Family

ID=51701015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013056167A Expired - Fee Related JP5979046B2 (ja) 2013-03-19 2013-03-19 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5979046B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153040A (ja) * 2014-02-12 2015-08-24 富士通株式会社 システム、情報処理装置、情報処理方法、および情報処理プログラム
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
CN110648539A (zh) * 2018-06-27 2020-01-03 丰田自动车株式会社 车载装置以及控制方法
CN111819122A (zh) * 2018-03-12 2020-10-23 日立汽车系统株式会社 车辆控制装置
JP7297515B2 (ja) 2019-04-25 2023-06-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235921A (ja) * 2005-02-24 2006-09-07 Hitachi Ltd 車番認識装置、および車番認識装置の電動レンズの調整方法
JP2012073679A (ja) * 2010-09-27 2012-04-12 Fujitsu Ltd 撮像装置、画像評価方法、及び焦点調整制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235921A (ja) * 2005-02-24 2006-09-07 Hitachi Ltd 車番認識装置、および車番認識装置の電動レンズの調整方法
JP2012073679A (ja) * 2010-09-27 2012-04-12 Fujitsu Ltd 撮像装置、画像評価方法、及び焦点調整制御プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015153040A (ja) * 2014-02-12 2015-08-24 富士通株式会社 システム、情報処理装置、情報処理方法、および情報処理プログラム
CN111819122A (zh) * 2018-03-12 2020-10-23 日立汽车系统株式会社 车辆控制装置
CN111819122B (zh) * 2018-03-12 2023-09-19 日立安斯泰莫株式会社 车辆控制装置
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
WO2019176713A1 (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
EP3767943A4 (en) * 2018-03-13 2022-02-23 Canon Kabushiki Kaisha CONTROL DEVICE, IMAGE PROCESSING SYSTEM, CONTROL METHOD AND CONTROL PROGRAM
US11343425B2 (en) 2018-03-13 2022-05-24 Canon Kabushiki Kaisha Control apparatus, control method, and storage medium
CN110648539A (zh) * 2018-06-27 2020-01-03 丰田自动车株式会社 车载装置以及控制方法
JP2020003997A (ja) * 2018-06-27 2020-01-09 トヨタ自動車株式会社 車載装置および制御方法
US11250274B2 (en) 2018-06-27 2022-02-15 Toyota Jidosha Kabushiki Kaisha In-vehicle device and control method
JP7297515B2 (ja) 2019-04-25 2023-06-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP5979046B2 (ja) 2016-08-24

Similar Documents

Publication Publication Date Title
US7929042B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
JP5979046B2 (ja) 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム
JP5789091B2 (ja) 撮像装置および撮像装置の制御方法
WO2019061079A1 (zh) 一种对焦处理方法及设备
KR20170056698A (ko) 자동 포커싱 방법, 장치 및 전자 장치
US20170134649A1 (en) Imaging device and imaging method
WO2016125014A1 (en) Vehicle speed detection
TWI471677B (zh) 自動對焦方法及自動對焦裝置
US9615019B2 (en) Image capturing apparatus and control method for image capturing apparatus with particle filter for main object detection and selecting focus detection area based on priority
CN105629628A (zh) 自动对焦方法及装置
JP2015104016A (ja) 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
CN107111764B (zh) 由对象在成像装置的视野中的深度触发的事件
CN113572958B (zh) 一种自动触发摄像机聚焦的方法及设备
JP2015111811A (ja) 画像処理装置およびその制御方法
JP6833483B2 (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
JP2011033594A (ja) 車両用距離算出装置
US8179471B2 (en) Focusing device and image pickup apparatus
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
JP2015207090A (ja) 画像処理装置、及びその制御方法
CN111260538B (zh) 基于长基线双目鱼眼相机的定位及车载终端
JP4996568B2 (ja) 撮像装置および撮像装置の制御方法
JP6459745B2 (ja) 自己位置算出装置及び自己位置算出方法
JP2021096638A (ja) カメラシステム
JP2006012013A (ja) 移動物体追跡装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R150 Certificate of patent or registration of utility model

Ref document number: 5979046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees