JP2016109489A - 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体 Download PDF

Info

Publication number
JP2016109489A
JP2016109489A JP2014245203A JP2014245203A JP2016109489A JP 2016109489 A JP2016109489 A JP 2016109489A JP 2014245203 A JP2014245203 A JP 2014245203A JP 2014245203 A JP2014245203 A JP 2014245203A JP 2016109489 A JP2016109489 A JP 2016109489A
Authority
JP
Japan
Prior art keywords
image
image data
subject
image processing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014245203A
Other languages
English (en)
Inventor
檜垣 欣成
Kinsei Higaki
欣成 檜垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014245203A priority Critical patent/JP2016109489A/ja
Priority to US14/945,760 priority patent/US20160162753A1/en
Publication of JP2016109489A publication Critical patent/JP2016109489A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis

Abstract

【課題】1台の撮像装置によって取得された画像から、精度良く被写体までの距離を推定する画像処理装置を提供する。【解決手段】撮像手段により被写体を撮像することで得られた画像におけるエッジ部の情報を含む第1の画像データを生成するエッジ検出手段302と、画像を周波数帯域ごとに分割することによって第2の画像データを生成する周波数解析手段303と、第1の画像データと第2の画像データとに基づいて、撮像手段から上記画像の被写体までの距離情報を出力する出力手段306と、を有する。【選択図】図2

Description

本発明は、撮像した画像から被写体までの距離を推定する技術に関する。
近年、デジタルカメラにおける画像加工、顕微鏡画像の解析、監視カメラやITS(Intelligent Transport Systems)などにおいて距離推定技術が用いられる。これらの技術の実用化においては、距離情報を取得するシステムをコンパクトかつ低コストにすること、付随する画像処理に要する時間とハードウェアのコストを低減することが重要である。さらには、撮影環境の変化や多様な用途があることを踏まえて、撮影シーンに依存しない高精度な距離分布計測が行えることが望ましい。これらの要求を満たすためには、1台の撮像システムのみによって取得された画像から受動的に距離分布を計測すること、および従来の撮像システムの装置構造を変えないことが理想的である。
Depth from Defocus(DFD)によれば、取得画像のぼけの度合いを定量化することで距離を推定できる。また、DFDは上述の要求を満たすだけでなく、距離を推定するために必要とする撮像枚数が少ないというメリットを有する。特許文献1、特許文献2、非特許文献1、非特許文献2は、DFDによる距離情報の取得について説明している。
特許第4403477号 米国特許第5534924号
Murali Subbarao and Gopal Surya,"Depth from defocus: A spatialdomain approach",International Journal of Computer Vision, 13, 3, pp.271−294,1994. Muhammad Asif andTae−Sun Choi,"Depth from Defocus Using Wavelet Transform",IEICE Transactions on Information and Communications,Vol.E87−D,No.1,pp.250−253,January 2004. 白井敬一郎,野村和史,池原雅章,"ウェーブレット変換による合焦画像の作成,"電子通信学会論文誌,Vol.J88−A,No.10,pp.1154−1162,October 2005.
特許文献1、非特許文献1および非特許文献2では、焦点の異なる2枚以上の画像を用いて幾何光学に基づいて被写体距離の推定を行っている。そのため、レンズの駆動が必要であり、また、幾何光学に基づいていることに起因する誤差が生じうる。また、フーリエ変換を用いると、取得画像を分割して処理する場合に分割に起因するノイズが発生し、距離推定の精度が悪化する。
特許文献2では、撮像素子が2つ必要になるため、撮像装置の構造を従来から大きく変えなければならない。
そこで、本発明は、従来と同様の構造を有する1台の撮像装置によって取得された画像から、精度良く被写体までの距離を推定する技術を提供することを例示的な目的とする。
本発明の一側面としての画像処理装置は、撮像手段により被写体を撮像することで得られた画像におけるエッジ部の情報を含む第1の画像データを生成するエッジ検出手段と、画像を周波数帯域ごとに分割することによって第2の画像データを生成する周波数解析手段と、第1の画像データと第2の画像データとに基づいて、撮像手段から上記画像の被写体までの距離情報を出力する出力手段とを有することを特徴とする。
本発明の別側面としての画像処理方法は、撮像手段により被写体を撮像することで得られた画像におけるエッジ部の情報を含む第1の画像データを算出し、画像を周波数帯域ごとに分割することによって第2の画像データを算出し、第1の画像データと第2の画像データとに基づいて、撮像手段から上記画像の被写体までの距離情報を出力することを特徴とする。
本発明は、従来と同様の構造を有する1台の撮像装置によって取得された画像から、精度良く被写体までの距離を推定する技術を提供できる。
本実施形態における撮像装置のブロック図である。 本実施形態における距離推定装置のブロック図である。 本実施形態におけるフローチャートである。 本実施形態における原画像、重みマップおよび多重解像度解析の結果を示す図である。 本実施形態における距離とスコアの関係図である。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態における撮像装置のブロック図である。図1において撮像装置100は、撮像光学系101、可動絞り102、絞り駆動部103、撮像素子104、画像処理部105、制御部106、記憶部107を有する。
撮像光学系101は、複数のレンズから構成され、入射光を撮像素子104上に結像する。撮像光学系101は、単焦点レンズであってもズームレンズであってもよい。
可動絞り102は、撮像光学系101の中に配置され、絞り駆動部103によってF値を調節することができる。制御部106は、画像を取得するべき光学系の条件(以下、単に光学条件という)を決定し、決定された条件となるように絞り駆動部103に指示を送り、可動絞り102を制御する。なお、画像を取得すべき光学条件を設定する構成として、可動絞りでなく、例えば複数の開口数が異なる光学系を併設して複数の画像を同時もしくは逐次的に取得する構成を用いてもよい。光学条件が開口数またはF値の場合には、複数の条件間で値の差が大きい方が距離推定精度の点で望ましい。以降、単に距離又は被写体距離と呼ぶ場合には撮像光学系の瞳面と被写体の間の距離を指す。
撮像素子104は、受光画素が2次元的に配置されたCCD(Charge Coupled Device)またはCMOS(Complementary Metal−oxide Semiconductor)等のエリアセンサである。撮像素子104は、撮像光学系101によって集光された光の強度分布を電気信号に変換して、画像処理部105に伝送する。図1に示す構成では、被写体108の像が撮像光学系101によって撮像素子104上に形成されることなり、当該像の電気信号が画像処理部105へと伝送される。本実施形態において、撮像素子104は、制御部106からの指示に応じて、異なる光学条件で複数の画像を取得する。
画像処理部105は、撮像素子104から伝送された画像信号に対し、必要に応じてγ補正、現像、圧縮、ノイズ除去、平滑化、エッジ強調、鮮鋭化などの処理を加える。距離の推定をこれらの処理に加えて行うが、その順序は用途によって最適な選択を行えばよい。画像処理部105は、必ずしも上記の全ての処理を行わなくともよい。
また、撮像装置100は、図1の画像処理部105の代わりに、単に撮像素子104からの画像信号を蓄積するメモリを配置してもよい。その場合には、撮像装置100の外部に画像処理部105を有する演算装置(不図示)を設け、メモリに蓄積された画像データを、当該演算装置に転送し前述の処理を行い、必要に応じて表示装置(不図示)に出力する。また、推定される距離の分布に基づき、取得画像に加工を加えてもよい。例えば、ポートレート写真に対して、相対的に距離が大きい背景部分だけに選択的にぼけを付加し、被写体の鮮鋭さを強調する処理を行ってもよい。
本実施形態において、画像処理部105は、取得画像から距離情報を推定するために用いる後述のデータベースを保管するためのメモリやストレージ等の記憶部107に接続されている。この記憶部107は、撮像装置100の外部に設けられてもよい。
次に、画像処理部105の具体的な構成について説明する。
図2に示すように、画像処理部105は、領域選択部301、エッジ検出部302、周波数解析部303、演算処理部304、大小判定部305、距離情報出力部306を有している。
領域選択部301は、撮像素子104によって取得された各画像の中から被写体距離を推定する領域を選択する。これにより、非一様な距離分布を有する画像についても、局所的な距離の推定を行うことができる。また、撮影シーンに応じて距離分布に対応した領域分割を前もって行えば、距離の推定精度を向上させることができる。ユーザが撮影後に入力装置(不図示)によって指定した領域を選択してもよいし、予め設定された領域を選択してもよい。また、取得画像に応じて自動的に決定してもよい。例えば、取得画像に対し、グラフカットやレベルセットといった画像セグメンテーション手法を用いて自動的に領域分割を行ってもよい。
エッジ検出部302は、領域選択部301によって選択された領域内について、撮像素子104によって取得された画像のエッジ部分を特定する。エッジ部分とは画像の明るさが鋭敏に変化している部分をいう。エッジ検出を行うことで、画像における被写体の輪郭を抽出することができる。本実施形態では、隣接画素間の画素値の差分をとって輝度勾配を算出することで画像中のエッジ近傍が相対的に大きい値を有するように重み付けをし、重みマップ(第1の画像データ)を生成する。また、本実施形態では水平方向の微分、すなわち隣接画素値の差分を上記領域内の全ての画素について算出する。画像端部については周期境界条件を仮定し、画像の左右端の画素の隣接画素は同一行の逆の端にある画素とする。
その他、ラプラシアンなどのフィルタによるコンボリューション演算、テンプレートマッチングによる輪郭抽出、より高度なパターン識別の手法等によって重みマップを生成してもよい。また必要に応じて、フィルタ処理として有限インパルス応答のコンボリューション演算によってエッジ部分をぼけさせてもよいし、2値化処理を行ってもよい。フィルタ処理により、後述の周波数解析部303による多重解像度解析の結果を反映させる割合を適切に設定することができ、距離推定の精度と安定性が向上する。エッジ検出が不完全な場合にもその近傍まで拡張して考慮することとすれば、距離情報をより多く取得できるためである。また、2値化処理によれば、ノイズの影響を排除することやエッジ近傍を等価に扱いエッジ検出方法や被写体への依存性を低減することができ、距離推定の精度と安定性を向上させることができる。例えば、被写体が変化しても安定した重みマップを得ることができ、距離推定に反映させる領域を適切に選択することができる。
また、エッジ検出部302は、重みマップを生成する際に、周波数解析部303から出力されるサブバンド画像と解像度を一致させるために、ダウンサンプリングを行う。本実施形態において、ダウンサンプリングは、各画素の近傍4画素で平均値をとり垂直方向・水平方向とも1画素おきに画素を間引く。近傍4画素は、正方形領域内の4画素としてもよい。
周波数解析部303は、撮像素子104によって取得された画像の多重解像度解析を行う。多重解像度解析とは、wavelet変換やcontourlet変換などの処理を繰り返すことにより、画像データを周波数帯域ごとに複数の低解像度の画像データ(第2の画像データ)に分割する処理を指す。以降では、この変換によって分割された低解像度の各画像をサブバンド画像(画像情報)、サブバンド画像の各画素値を変換係数と呼ぶ。
多重解像度解析によれば、特定の周波数帯域における輝度の空間分布が得られる。変換係数は、各画素における当該周波数帯域の画素情報を示す。一般的に、多重解像度解析における高周波帯域の変換係数は、被写体が撮像装置の光学系の焦点位置からずれ取得画像がぼけるにつれて減衰するという性質を有する。このことは例えば非特許文献3に記載されている。なお、非特許文献3は、合焦判定に関してのみ記述しており、wavelet係数と被写体距離との定量的な関係については言及していない。
演算処理部304は、エッジ検出部302によって生成された重みマップと周波数解析部303により得られたサブバンド画像とに基づき、1枚のサブバンド画像内の領域選択部301によって選択された領域ごとに指標値(演算値)を算出する。本実施形態では、対応する画素ごとに重みマップの値と変換係数との積を算出し、領域選択部301により選択された領域内の全画素数で割ることで得られた平均値を指標値とする。なお、この演算は重みマップの値を変換係数に反映させることで距離の推定精度を向上させることが目的であり、積算に限定されない。また、平均値でなくとも分散などの統計値であればよい。これにより、周波数解析部303によって抽出した距離情報からノイズを除去し、領域選択部301によって選択された領域ごとに距離情報をまとめることができる。
本実施形態において、演算処理部304は更に、撮像素子104によって異なる光学条件で取得された複数の画像間で互いに対応する領域の指標値の比を算出する。以降、この指標値の比をスコアと呼ぶ。例えば、撮像素子104によって光学条件が異なる2枚の画像を取得した場合には、一方の画像における指標値を他方の画像における指標値で除する。なお、この演算は距離の推定精度を1枚の画像だけを用いる場合よりも向上させることが目的であり、光学条件が異なる複数の画像における指標値の関係を反映させたものであれば、指標値の比に限定されない。例えば、異なる光学条件で取得された複数の画像の指標値の平均をスコアとしてもよい。
大小判定部305は、周波数解析部303により複数のサブバンド画像から演算処理部304によって得られた複数のスコアの大小判定を行う。本実施形態では、大きい方のスコアを出力することとしている。
距離情報出力部306は、あらかじめ取得し記憶部107に保存されたデータベースとスコアを照合し、スコアに対応する値を当該スコアを求めた領域における被写体までの距離として出力する。
データベースは、距離が既知の単一または複数の被写体に対して複数の光学条件で画像を取得し、取得された複数枚の画像を用いてスコアを算出することで、距離とスコアの関係を格納したものでもよい。同一の距離において被写体に応じて複数のスコアがばらついて得られた場合は、平均値などの代表値を抽出することで距離とスコアとが1対1に対応させる。また、同一の距離に対してばらついて得られたスコアのデータをそのまま用いて、距離情報出力部306による出力を1つの領域に対する距離範囲としてもよい。
また、距離情報出力部306は、データベースとスコア照合する構成に限定されず、例えば、予め計測された距離とスコアのデータに基づいて導出された関係式を用いてスコアに対応する距離を算出してもよい。
距離情報出力部306から出力された距離分布情報は、記憶部107に保存される。また、距離情報出力部306は、距離分布情報を表示装置(不図示)に出力してもよい。さらには、取得した複数枚の画像の中の1つに対し、もしくは複数を合成した画像に対し、距離分布情報に従って予め設定された処理を行うこととしてもよい。
以下、距離推定に用いるデータをシミュレーションにより取得する方法、およびシミュレーションにより得られたデータを用いて任意の画像から距離分布を出力する方法を詳細に説明する。
本実施形態においては、計測条件として、波長を588.975nm、光学系の2種類のF値を4および12、焦点距離を15.18mmに設定する。また、被写体側の合焦位置は光学系の瞳面から光軸に沿って3.5m離れた位置に固定したものとする。計測条件はこれに限定されるものではないが、2種類のF値の差は大きいほど距離推定精度を向上することができる。
まず、図3(a)のフロー図を用いてシミュレーションの方法を説明する。
ステップS101では、複数の光学条件から一つを設定し、予め用意した複数枚の原画像のうちから1枚を選択し、原画像と光学系の瞳面との距離を所定の値に設定する。本実施形態においては、光学条件としてのF値を4と12のいずれかに設定し、図4(a)に示すような予め用意した20枚の320×480画素の自然画像の一枚を原画像として選択する。
ステップS102では、ステップS101によって設定された条件における原画像の画像を波動光学に基づいた結像計算により取得する。また、ステップS102において、実際に撮像素子によって画像の取得することとしてもよい。これを全てのF値、原画像、原画像と光学系の瞳面の距離との組み合わせで行う。本実施形態においては、原画像と光学系の瞳面の距離は3.5mから10mまで0.5m間隔で変化させる。ステップS103では、全ての条件での画像の取得が完了したかを判定する。画像取得が全ての条件で完了していなければステップS101に戻り、完了していればステップS104に進む。
次に、ステップS104において、上述の複数の原画像(被写体)のうちの一枚に対してステップS102で取得された画像群を選択する。ステップS105では、取得画像内の1の領域を設定する。例えば、画像を任意の方法で分割したうちの1の領域であってもよいし、画像内の複数の既定領域のうちの1の領域であってその他の部分をトリミングしたものであってもよい。本実施形態では、320×480画素の画像全体を1の領域と設定する。
次に、ステップS106では、ステップS104で選択した画像群のうち一枚におけるステップS105で設定した領域に対し、エッジ検出部302と同様の方法でエッジ検出または輪郭抽出を行う。
また、ステップS106では、エッジ検出部302で説明した手法によりダウンサンプリングを行う。次のステップで多重解像度解析から得られる各サブバンド画像が取得画像の整数分の1の解像度になるので、このサブバンド画像と重みマップの画素数を一致させる必要があるためである。
さらに、必要があれば、後述のフィルタ処理または処理済の画像に対する2値化の処理を加えてもよい。フィルタ処理として、有限インパルス応答のコンボリューション演算を用いてもよい。有限インパルス応答には、一般にガウス関数や矩形関数をはじめとして多数の関数が用いられる。本実施形態では、標準偏差0.5画素、領域3×3画素のガウス関数を用いる。これにより、特定したエッジまたは輪郭をぼけさせ、後述の多重解像度変換係数を考慮する領域を広げ、距離推定精度を向上させることができる。また、2値化処理によれば、ノイズの影響を排除することやエッジ近傍を等価に扱いエッジ検出方法や被写体への依存性を低減することができ、距離推定の精度と安定性を向上させることができる。例えば、被写体が変化しても安定した重みマップを得ることができ、距離推定に反映させる領域を適切に選択することができる。本実施形態では、変換係数の最大値の30%を閾値として、変換係数の絶対値が閾値以下の場合は0、その他の場合は1に置き換える2値化を行う。
図4(b)は、以上の処理によりステップS106によって生成された重みマップの一例を示す。この一例に示されるように、重みマップは被写体のエッジ部分に局在した分布を表したものとなる。
次に、ステップS107において、ステップS104で選択した画像群のうちの一枚に対し多重解像度解析を行い、サブバンド画像を出力する。ここで、図3(a)では取得画像からステップS105で設定された領域を抽出した後で多重解像度解析を行っているが、取得画像の全体に対し多重解像度解析を行った後にステップS105で設定された領域をサブバンド画像から抽出してもよい。
多重解像度解析にwavelet変換を用いる場合、予め指定された回数L(以降ではレベルと呼ぶ)だけピラミッドアルゴリズムに従いwavelet変換を繰り返し、最終的に3×L+1枚のサブバンド画像を得る。1回のwavelet変換で4枚のサブバンド画像が出力され、それらは低周波帯域(近似画像)のLLサブバンドと、高周波帯域のHL,LH,HHサブバンドとして分類される。このうちHL,LHの2つのサブバンドが特に距離推定には有用であるため本実施形態ではHLおよびLHサブバンドだけを用いるが、LLまたはHHサブバンドを用いてもよい。
また本実施形態では、多重解像度解析をL=1のHaarのスケーリング関数による離散wavelet変換とした。スケーリング関数としては他にDaubechiesなどがあり、変換としては他にcontourletやcurveletなどがある。これらを代わりに用いてもよい。
図4(c)に、多重解像度解析の結果の一例を示す。この4分割された画像のうち、左上がLL、右上がHL、左下がLH、右下がHHのサブバンド画像であり、各々のサブバンド画像のサイズは図4(b)の画像のサイズと等しい。図4(c)ではHHサブバンドに階調の範囲を合わせているため、LLサブバンドは表示の上値が飽和している。なお、図4(a)から図4(c)の縦・横軸の数値は画素数を表す。
次に、図3(a)のステップS108において、取得画像ごとにステップS105で設定された領域の指標値を算出する。本実施形態では、1の変換画像の画素値に対して、画素ごとに重みマップとの積をとり、全画素の平均値を指標値として出力する。これを上述のHLおよびLHサブバンドの両方に対して行う。
ステップS109では、ステップ106からステップS108までの処理を全ての光学条件に対して行われたか否かを判定する。全ての光学条件に対して行われていなければステップS106に戻り、行われていればステップS110に進む。
次に、ステップS110において、異なる光学条件で取得した画像から得られた指標値について、その取得画像間の比(スコア)を算出する。本実施形態では、F値が12で取得した画像から算出した指標値を、F値が4で取得した画像から算出した指標値で除算しスコアを出力する。指標値をHLとLHの2個のサブバンドから得ているので、スコアも2つ出力される。
ステップS111において、複数のサブバンド画像から得られた複数のスコアの大小の判定し大きい方を出力する。本実施形態では、HLおよびLHの2個のサブバンドの指標値から得られた2個のスコアのうち、大きい方を出力する。
ステップS112では、ステップS105からステップS111までの処理を全ての領域で行われたか否かを判定する。全ての領域で行われていなければステップS105に戻り、行われていればステップS113に進む。
ステップS113では、ステップS104からステップS112までの処理を全ての被写体に対して行われたか否かを判定する。全ての被写体に対して行われていなければステップS104に戻り、行われていればステップS114に進む。
ステップS114では、選択された原画像と設定された領域別に、被写体距離とスコアとの関係を格納した、距離推定に用いるデータベースを作成する。距離推定において画像内の1つの位置に1つの距離推定値を出力する場合には、スコアと距離とが1対1で対応しているデータベースが必要である。そのため、1つの既知の距離に対して原画像別や領域別に複数のスコアが得られている場合には、平均値等の代表値に置き換える。一方で、距離推定において画像内の1つの位置に距離の推定範囲を出力する場合には、データベースにおいてスコアと距離とが1対1で対応している必要はない。
以上の図3(a)の一連の処理の結果、スコアから距離を推定するためのデータベースが作成される。図5(a)および図5(b)に、本実施形態において、20枚の原画像を用い画像全体を1の領域として作成したデータベースを示す。図5(a)では、原画像によって輝度分布とその統計性が異なることに起因して、1つの距離(横軸)に対してスコア(縦軸)はばらついている。図5(b)は、距離推定において1つの位置に1つの距離推定値を出力するためにスコアの平均値を求めたものであり、1つの距離(横軸)に対してスコア(縦軸)が1対1で対応している。
次に、本実施例における撮像装置100によって距離が未知の被写体を光学条件を変えて撮影した複数枚の画像から、画像処理部105によって距離を推定するために行われる処理を図3(b)のフロー図を用いて説明する。なお、図3(b)で示されたフローは、撮像装置100の内部に設けられた制御部106において行われてもよいし、撮像装置100の外部に設けられた制御部(不図示)や画像処理部105の内部によって行われるものであってもよい。
まず、ステップS201では、複数の光学条件のうちから1つを設定する。本実施形態では、F値を4と12のいずれかに設定する。ステップS202では、ステップS201によって設定された光学条件になるように絞り駆動部103に指示を送り、撮像素子104により被写体を撮像し画像を取得する。ステップS203では、全ての光学条件での画像の取得が完了したかを判定する。画像の取得が全ての光学条件で完了していなければステップS201に戻り、完了していればステップS204に進む。
次に、ステップS204では、ステップS105と同様に、領域選択部301によって取得画像の中の1の領域を設定する。本実施形態では、320×480画素の画像全体を1個の領域と設定する。
ステップS205〜208では、エッジ検出部302、周波数解析部303、演算処理部304によって、ステップS204で選択した領域ごとにステップS106〜109と同様の方法で処理する。本実施形態ではこの結果として、2枚の取得画像に対応した2個の指標値がHLおよびLHの2個のサブバンドの各々から出力される。つまり、合計4個の指標値が出力される。
ステップS209では、演算処理部304によって、ステップS110と同様に異なる光学条件で取得した画像から得られた指標値について、その取得画像間の比(スコア)を算出する。本実施形態では、F値が12で取得した画像から算出した指標値を、F値が4で取得した画像から算出した指標値で除算しスコアを出力する。指標値をHLとLHの2個のサブバンドから得ているので、スコアも2つ出力される。
ステップS210では、大小判定部305によって、複数のサブバンド画像から得られた複数のスコアの大小の判定し一方を出力する。本実施形態では、HLおよびLHの2個のサブバンドの指標値から得られた2個のスコアのうち、大きい方を出力する。
ステップS211では、距離情報出力部306によって、ステップS114で作成されたデータベースを参照し、ステップS209で得られたスコアに対応する距離推定値を出力する。例えば、距離7.00mで被写体を撮影してステップS209までの処理により0.63のスコアが得られた場合には、ステップS210においてスコアが0.63に対応する距離推定値をスプライン補間を用いて求めると6.91mとなる。この被写体の真の距離は7.00mであるので、距離推定の誤差は0.09mである。
ステップS212では、ステップS204からステップS211までの処理を全ての領域で行われたか否かを判定する。全ての領域で行われていなければステップS204に戻り、行われていれば処理を終了する。これにより、取得画像を複数の領域に分割した場合には、全ての領域の処理を完了するまでステップS204からステップS211を繰り返し、各領域について距離を推定することで距離マップを作成することができる。
また、以下のような方法で距離マップを得てもよい。例えば、取得画像において距離マップの解像度に従った移動幅で一定の大きさの矩形領域を走査し、その矩形領域を移動する度にステップS204からステップS211の処理を行う。矩形領域を移動する度に矩形領域の中心位置に対応する画素にステップS210で推定された距離の値を代入することを繰り返せば、矩形領域の走査が終了した時点で距離マップが得られる。これにより、取得画像全体で被写体の距離が一様でない場合にも、非一様な距離マップを得ることができる。距離マップを得る方法はこれに限られることはなく、また矩形領域の大きさや走査の移動幅は任意に設定してよい。
以上、上述の実施形態によれば、従来と同様の構造を有する1台の撮像装置によって取得された画像から、精度良く被写体までの距離を推定できる。また、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
また、上述の実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給する場合も本発明に含む。また、そのプログラムを該コンピュータに実行させる場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
本発明は、デジタルカメラ、顕微鏡、監視カメラ、ITS等の被写体距離の推定を伴う装置に応用できる。
104 撮像素子
105 画像処理部
108 被写体
302 エッジ検出部
303 周波数解析部
304 演算処理部
306 距離情報出力部

Claims (13)

  1. 撮像手段により被写体を撮像することで得られた画像におけるエッジ部の情報を含む第1の画像データを生成するエッジ検出手段と、
    前記画像を周波数帯域ごとに分割することによって第2の画像データを生成する周波数解析手段と、
    前記第1の画像データと前記第2の画像データとに基づいて、前記撮像手段から前記画像の被写体までの距離情報を出力する出力手段と、を有することを特徴とする画像処理装置。
  2. 前記第1の画像データと前記第2の画像データとの間で演算処理を行う演算手段を更に有し、
    前記出力手段は、前記演算処理によって得られた演算値に基づいて、前記撮像手段から前記画像の被写体までの距離情報を出力することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像は、光学系の条件を変えて撮像された複数の画像であり、
    前記エッジ検出手段および前記周波数解析手段は、前記複数の画像の各々について前記第1の画像データと前記第2の画像データとを生成し、
    前記出力手段は、前記複数の画像間の前記演算値の比に対応する前記撮像手段から前記画像の被写体までの距離情報を出力することを特徴とする請求項2に記載の画像処理装置。
  4. 前記演算値の比と前記撮像手段から被写体までの距離との関係を予め保存した記憶手段を更に有し、
    前記出力手段は、前記記憶手段を参照して、前記演算値の比に対応する、前記撮像手段から前記画像の被写体までの距離情報を出力することを特徴とする請求項3に記載の画像処理装置。
  5. 前記エッジ検出手段は、画素間の輝度勾配を算出することで前記第1の画像データを生成することを特徴とする請求項1から4のうちいずれか1項に記載の画像処理装置。
  6. 前記エッジ検出手段は、前記エッジ部について有限インパルス応答のコンボリューション演算を行うことで前記第1の画像データを生成することを特徴とする請求項1から5のうちいずれか1項に記載の画像処理装置。
  7. 前記エッジ検出手段は、前記エッジ部について2値化処理を行うことで前記第1の画像データを生成することを特徴とする請求項1から6のうちいずれか1項に記載の画像処理装置。
  8. 前記第2の画像データは、前記画像の高周波帯域の画像情報であることを特徴とする請求項1から7のうちいずれか1項に記載の画像処理装置。
  9. 前記演算手段は、画素ごとに前記第1の画像データと前記第2の画像データとの積を求め、求められた当該積の平均を前記演算値として出力することを特徴とする請求項2から8のうちいずれか1項に記載の画像処理装置。
  10. 前記第2の画像データは、前記画像を周波数帯域ごとに分割することで得られた複数の画像情報を有し、
    前記演算手段は、前記複数の画像情報の各々に対して前記第1の画像データとの前記演算処理を行い、
    前記出力手段は、前記演算処理から得られた複数の演算値について大小判定を行い、当該大小判定により決定された演算値に基づいて、前記撮像手段から前記画像の被写体までの距離情報を出力することを特徴とする請求項2から9のうちいずれか1項に記載の画像処理装置。
  11. 撮像手段により被写体を撮像することで得られた画像におけるエッジ部の情報を含む第1の画像データを算出し、
    前記画像を周波数帯域ごとに分割することによって第2の画像データを算出し、
    前記第1の画像データと前記第2の画像データとに基づいて、前記撮像手段から前記画像の被写体までの距離情報を出力することを特徴とする画像処理方法。
  12. 請求項11に記載の画像処理方法をコンピュータに実行させるプログラム。
  13. 請求項12に記載のプログラムを記憶した、コンピュータが読み取り可能な記憶媒体。
JP2014245203A 2014-12-03 2014-12-03 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体 Pending JP2016109489A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014245203A JP2016109489A (ja) 2014-12-03 2014-12-03 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体
US14/945,760 US20160162753A1 (en) 2014-12-03 2015-11-19 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014245203A JP2016109489A (ja) 2014-12-03 2014-12-03 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体

Publications (1)

Publication Number Publication Date
JP2016109489A true JP2016109489A (ja) 2016-06-20

Family

ID=56094605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014245203A Pending JP2016109489A (ja) 2014-12-03 2014-12-03 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体

Country Status (2)

Country Link
US (1) US20160162753A1 (ja)
JP (1) JP2016109489A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020148483A (ja) * 2019-03-11 2020-09-17 株式会社東芝 画像処理装置、測距装置、方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022088785A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 特定方法、投写方法、特定システム、情報処理装置、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680357B2 (en) * 2003-09-09 2010-03-16 Fujifilm Corporation Method and apparatus for detecting positions of center points of circular patterns
US7277592B1 (en) * 2003-10-21 2007-10-02 Redrock Semiconductory Ltd. Spacial deblocking method using limited edge differences only to linearly correct blocking artifact
US7515763B1 (en) * 2004-04-29 2009-04-07 University Of Rochester Image denoising based on wavelets and multifractals for singularity detection and multiscale anisotropic diffusion
JP4585456B2 (ja) * 2006-01-23 2010-11-24 株式会社東芝 ボケ変換装置
DE102006028239A1 (de) * 2006-06-20 2007-12-27 Benecke-Kaliko Ag Verfahren zur Herstellung von dreidimensional strukturierten Oberflächen
KR101070623B1 (ko) * 2007-02-08 2011-10-07 삼성전자주식회사 칼라 레지스트레이션 장치 및 방법, 이를 채용하는화상형성장치 및 화상출력방법
EP2428164A3 (en) * 2010-09-08 2012-09-05 Fujifilm Corporation Body motion detection device, as well as radiographic imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020148483A (ja) * 2019-03-11 2020-09-17 株式会社東芝 画像処理装置、測距装置、方法及びプログラム
JP7051740B2 (ja) 2019-03-11 2022-04-11 株式会社東芝 画像処理装置、測距装置、方法及びプログラム

Also Published As

Publication number Publication date
US20160162753A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
US10346997B2 (en) Depth estimation method based on light-field data distribution
CN107995424B (zh) 基于深度图的光场全聚焦图像生成方法
KR101824936B1 (ko) 이미지들 내에서 초점 에러 추정
JP5868183B2 (ja) 撮像装置及び撮像方法
US8432479B2 (en) Range measurement using a zoom camera
JP5932476B2 (ja) 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
US8436912B2 (en) Range measurement using multiple coded apertures
JP6214183B2 (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
KR102582261B1 (ko) 이미징 시스템의 점 확산 함수를 결정하는 방법
JP5374119B2 (ja) 距離情報取得装置、撮像装置、及びプログラム
US20170046846A1 (en) Image processing system and microscope system including the same
KR20110036757A (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
JP6598660B2 (ja) 画像処理装置および画像処理方法
US20160371820A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for estimating blur
JP2013531268A (ja) 符号化開口を使用した距離の測定
JP2017010095A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6317635B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6344934B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラムおよび記録媒体
Kumar et al. A generative focus measure with application to omnifocus imaging
US9942534B2 (en) Image processing system and microscope system including the same
EP3143583B1 (en) System and method for improved computational imaging
JP6624785B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
US10477187B2 (en) Method of constructing a depth map of a scene and/or a fully focused image
JP2016109489A (ja) 画像処理装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体
US20150093043A1 (en) Method of Evaluating Image Correlation with Speckle Patter