JP2015148532A - 距離計測装置、撮像装置、距離計測方法、およびプログラム - Google Patents
距離計測装置、撮像装置、距離計測方法、およびプログラム Download PDFInfo
- Publication number
- JP2015148532A JP2015148532A JP2014022059A JP2014022059A JP2015148532A JP 2015148532 A JP2015148532 A JP 2015148532A JP 2014022059 A JP2014022059 A JP 2014022059A JP 2014022059 A JP2014022059 A JP 2014022059A JP 2015148532 A JP2015148532 A JP 2015148532A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- region
- local
- distance measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Abstract
【課題】複数の画像から距離推定を行う場合に、距離推定が正確に行えない領域を検出し、距離推定が正しく行われたかどうか判定可能とする。【解決手段】少なくとも第一の画像および第二の画像から距離情報を算出する距離計測装置であって、距離算出対象の各画素について、当該画素を含む第一の画像の局所領域と、当該局所領域に対応する第二の画像の局所領域とから、前記画素の距離情報を算出する第1算出手段と、前記第一の画像の局所領域と前記第二の画像の局所領域との非類似度を算出する第2算出手段と、前記非類似度が閾値以上であるかを判定する判定手段と、前記非類似度が前記閾値以上であると判定された所定領域内の局所領域の数の、前記所定領域内の局所領域の数に対する比率を算出する第3算出手段と、を備えることを特徴とする距離計測装置。【選択図】図1
Description
本発明は、距離計測技術に関連し、特に距離画像が正しく算出されたか判定を行う技術に関する。
従来より提案されている技術では、ステレオ法やDFD(Depth from Defocus)法、DFF(Depth from Focus)法などを用いて複数枚の撮像画像から距離を推定し、距離画像を生成する技術が提案されている。ステレオ法は、異なる視点から撮影された複数の画像中の対応する場所の視差から三角測量の原理に基づいて距離を算出する技術である。DFD法およびDFF法は、撮影パラメータが異なる複数の画像中のぼけ変化に基づいて距離を算出する技術である。これらの手法で生成された距離画像には様々な要因による誤差が含まれ、距離画像を利用したアプリケーションの品質劣化につながる。特に、複数枚の画像を異なる時刻で連続的に取得した際に動いている被写体(以下、移動体と表現)が存在する場合や手ぶれが生じた場合、対応する画像がなかったり位置がずれたりした画像間での距離算出となり正しい値を得ることができない。
このような距離算出時の問題に対し、距離が正しく算出できていない領域を検出する手法として特許文献1が提案されている。特許文献1では、1枚の画像において距離を算出する領域内のコントラストを検出し、コントラストが低い場合にその領域の距離を不定として出力している。
また、複数枚の画像を合成する際に位置合わせの誤りを検出する手法が特許文献2に開示されている。特許文献2では、画像合成後に周波数特性を計測し、計測した周波数特性から位置合わせ処理の誤りを検出する方法が提案されている。
撮影した複数の画像間でオクルージョンや位置ずれがあると、これらの撮影画像からステレオ法やDFD法、DFF法に基づいて求めた距離情報には、距離推定エラーが発生することが知られている。
特許文献1は、1枚の画像中のコントラストのみから距離不定領域を検出しているため、2画像間のオクルージョンや位置ずれに起因する距離不定領域を検出することができない。
特許文献2では、複数枚の画像の位置合わせ処理後に合成した画像から周波数特性を算出して位置合わせの誤りを検出している。同様の手法をDFD法やDFF法に適用した場合は、誤検出の可能性が生じる。DFD法やDFF法ではぼけの異なる複数の画像を用い、ぼけの異なる画像はたとえ位置があっていても周波数特性が異なるためである。
上記のような問題を考慮して、本発明の目的は、距離推定が正確に行えない領域を検出し、距離推定が正しく行われたかどうか判定可能とする技術を提供することにある。
上記課題を解決するために、本発明に係る距離計測装置は、少なくとも第一の画像および第二の画像から距離情報を算出する距離計測装置であって、距離算出対象の各画素について、当該画素を含む第一の画像の局所領域と、当該局所領域に対応する第二の画像の局所領域とから、前記画素の距離情報を算出する第1算出手段と、前記第一の画像の局所領域と前記第二の画像の局所領域との非類似度を算出する第2算出手段と、前記非類似度が閾値以上であるかを判定する判定手段と、前記非類似度が前記閾値以上であると判定された所定領域内の局所領域の数の、前記所定領域内の局所領域の数に対する比率を算出する第3算出手段と、を備えることを特徴とする。
また、本発明に係る距離計測方法は、少なくとも第一の画像および第二の画像から距離情報を算出する距離計測方法であって、距離算出対象の各画素について、当該画素を含む第一の画像の局所領域と、当該局所領域に対応する第二の画像の局所領域とから、前記画素の距離情報を算出する第1算出ステップと、前記第一の画像の局所領域と前記第二の画像の局所領域との非類似度を算出する第2算出ステップと、前記非類似度が閾値以上であるかを判定する判定ステップと、前記非類似度が前記閾値以上であると判定された所定領域内の局所領域の数の、前記所定領域内の局所領域の数に対する比率を算出する第3算出ステップと、を含むことを特徴とする。
本発明によれば、距離画像において距離推定が正しく行えない局所領域、およびその局所領域の割合(比率)を検出することにより、距離推定が正しく行われたかどうかが判定可能となる。
(実施形態1)
<システム構成>
図1は、本発明の第一実施形態に係る撮像装置のシステム構成図である。撮像装置1は、撮像光学系10、撮像素子11、制御部12、信号処理部13、距離計測部14、メモリ15、入力部16、表示部17、記憶部18を有する。
<システム構成>
図1は、本発明の第一実施形態に係る撮像装置のシステム構成図である。撮像装置1は、撮像光学系10、撮像素子11、制御部12、信号処理部13、距離計測部14、メモリ15、入力部16、表示部17、記憶部18を有する。
撮像光学系10は、複数のレンズから構成され、入射する光を撮像素子11の像面上に結像させる光学系である。本実施形態における撮像光学系10は可変焦点の光学系であり、制御部12のオートフォーカス機能により自動焦点合わせが可能である。オートフォーカスの方式はパッシブ方式でもアクティブ方式でもよい。
撮像素子11は、CCDやCMOSなどの光電変換素子を用いた撮像素子である。撮像素子11は、カラーフィルタを有する撮像素子でもよいし、モノクロの撮像素子でもよい
し、三板式の撮像素子でもよい。
し、三板式の撮像素子でもよい。
制御部12は、撮像装置1の各部を制御する機能である。制御部12の機能としては、例えば、オートフォーカス(AF)による自動焦点合わせ、フォーカス位置の変更、F値(絞り)の変更、画像の取り込み、シャッターやフラッシュ(いずれも不図示)の制御、入力部16や表示部17や記憶部18の制御などがある。
信号処理部13は、撮像素子11から出力された信号に対して処理を行う手段である。具体的には、アナログ信号のA/D変換やノイズ除去、デモザイキング、輝度信号変換、収差補正、ホワイトバランス調整、色補正および画像間の位置合わせなどを行う。画像間の位置合わせ処理では、一方の画像の局所領域と対応する他方の領域の局所領域を走査によって検出する手法や、一方の画像全体に座標変換(アフィン変換)を施す手法などを用いることができる。信号処理部13から出力されるデジタル画像データは一時的にメモリ15に蓄積された後、表示部17への表示、記憶部18への記録(保存)、距離計測部14などに出力され、所望の処理が行われる。
距離計測部14は、画像中の物体までの奥行き方向の距離を算出する機能部である。距離計測部14は、図2に示すように、非類似度算出部141、判定部142、比率算出部143、画像ずれマップ生成部144、距離算出部145、距離補正部146を備える。それぞれの機能部の詳しい動作については後述する。
入力部16は、ユーザが操作し、撮像装置1に対して情報入力や設定変更を行うためのインターフェイスである。例えばダイヤル、ボタン、スイッチ、タッチパネルなどを利用することができる。
表示部17は、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部17は、撮影時の構図確認、撮影・記録した画像の閲覧、各種設定画面やメッセージ情報の表示などに利用される。
記憶部18は、撮影された画像データや、撮像装置1で利用されるパラメータデータなどが格納される不揮発性の記憶媒体である。記憶部18としては、高速に読み書きでき、且つ、大容量の記憶媒体を用いることが好ましい。例えばフラッシュメモリなどを好適に用いることができる。
<被写体距離の計測方法>
次に、撮像装置1が行う距離計測処理を、図3のフローチャートを参照しながら詳細に説明する。本実施形態での距離計測方法はDFD法を用いる場合について詳細に説明する。DFD法では、撮影パラメータを変えて異なる撮影時刻に撮影された複数の画像から距離の算出が行われる。
次に、撮像装置1が行う距離計測処理を、図3のフローチャートを参照しながら詳細に説明する。本実施形態での距離計測方法はDFD法を用いる場合について詳細に説明する。DFD法では、撮影パラメータを変えて異なる撮影時刻に撮影された複数の画像から距離の算出が行われる。
ユーザが、入力部16を操作して距離計測の実行を指示し撮影を開始すると、制御部12がオートフォーカス(AF)や自動露光制御(AE)が実行して、フォーカス位置と絞り(Fナンバー)を決定する(ステップS11)。その後、ステップS12にて一枚目の画像(第一の画像)の撮影が実行され、撮像素子11から画像が取り込まれる。ここでは、フォーカス位置や絞りなどの撮影パラメータを撮像装置1が自動的に決定するものとして説明したが、これらの撮影パラメータの一部または全部をユーザが指定しても構わない。
一枚目の撮影が完了すると、制御部12が撮影パラメータを変更する(ステップS13)。変更される撮影パラメータとは、絞り(Fナンバー)、フォーカス位置、焦点距離の
少なくとも何れかひとつである。あらかじめ定められた方法に従って撮影パラメータを変更してもよいし、入力部16でユーザが入力した情報に基づいて撮影パラメータを変更してもよい。撮影パラメータの変更が完了すると、処理はステップS14に遷移し、二枚目の画像(第二の画像)の撮影が行われる。
少なくとも何れかひとつである。あらかじめ定められた方法に従って撮影パラメータを変更してもよいし、入力部16でユーザが入力した情報に基づいて撮影パラメータを変更してもよい。撮影パラメータの変更が完了すると、処理はステップS14に遷移し、二枚目の画像(第二の画像)の撮影が行われる。
本実施形態では、フォーカス位置を変更して二枚目の画像を撮影する。例えば、一枚目は、オートフォーカスにしたがって主被写体に合焦するように撮影を行い、二枚目は主被写体がぼけるようにフォーカス位置をあらかじめ定められた量だけ変更して撮影を行う。
ここで、高精度な距離計測を行うためには、シャッター速度を高速にし、かつ、撮影間隔を短くすることが望ましい。シャッター速度が高速であるほど、また、撮影間隔が短いほど、手ぶれや被写体ぶれの影響が軽減されるためである。ただし、シャッター速度を上げるために感度を上げると、場合によっては手ぶれ以上にノイズの影響が増加するため、感度を考慮して適切なシャッター速度を設定する必要がある。
二枚の画像が撮影されると、撮影された画像は、距離計測に適した画像となるように信号処理部13でそれぞれ処理され、一時的にメモリ15に蓄積される。具体的には、信号処理時にぼけが変化しないようにエッジ強調処理などは避ける必要がある。また、以後の処理に利用する画像は、信号処理された輝度画像であってもよいしRGB画像の少なくとも何れか1色の画像であっても良い。このとき、撮影した画像のうち少なくとも一枚を、観賞用の画像として信号処理し、メモリ15に蓄積してもよい。
撮影された二画像は高速に連続撮影され、およそ位置があっている状態である。しかしながら撮影時刻が異なるので二画像が完全に一致していることはなく、同じ座標位置の局所領域を設定した場合、位置ずれが生じている可能性がある。また、被写体が動いていた場合、被写体の位置ずれやオクルージョンが生じてしまう。可能な限り手ぶれなどによる位置ずれを解消するために、信号処理部13において画像間の位置合わせ処理を行い、位置合わせ後の画像を用いて距離計測を行うのが好適である。位置合わせとして、局所領域ごとに対応する領域を他方の画像から探索によって決定する方法や、一方の画像全体に座標変換(アフィン変換)を施す手法を採用できる。しかしながら、位置合わせを実行しても位置ずれを完全になくすことは困難である。また、オクルージョン領域は一致する場所がないので、位置合わせ処理では対応ができない。よって、残存する位置ずれやオクルージョンがある領域では、算出する距離にエラーが生じてしまう。
ステップS15では、距離計測部14が、メモリ15に蓄積された距離計測用の二枚の画像から距離マップを算出する。距離マップとは、画像中の被写体距離の分布を表すデータである。算出された被写体距離の分布は記録部19に保存される。また、必要に応じて表示部17を通して表示しても良い。
次に、ステップS15で距離計測部14が行う処理(以下、距離マップ生成処理)について図2および図4を参照して説明する。図2は距離計測部14の機能ブロック図である。図4は、第一の実施形態における距離マップ生成処理の流れを示したフローチャート図である。
フォーカス位置の異なる二画像(第一の画像および第二の画像)が入力されると、領域選択ステップS21で、距離計測部14は、入力された二画像において対応する局所領域を選択する。具体的には、入力された二画像について同じ座標の画素の周辺の局所領域を第一の画像および第二の画像からそれぞれ抽出する。位置合わせ処理を行っているので、二画像における同じ座標の画素は同じ被写体を表すことが想定される。また、画素周辺の領域を抽出するのは、当該画素における距離を推定する際に、二画像の座標上の1画素の
比較ではぼけ変化を算出することが難しく、画素周辺の領域を利用してぼけ変化を検出するためである。
比較ではぼけ変化を算出することが難しく、画素周辺の領域を利用してぼけ変化を検出するためである。
対象画素を1画素ずつずらしながら、ステップS21の領域選択処理およびそれ以降のステップS22〜S25の処理を繰り返し行うことで、入力画像全体の距離画像(距離マップ)を算出することが可能となる。ただし、距離マップは必ずしも入力画像全体に対して算出する必要はなく、入力画像の一部の画素のみを距離算出対象領域としてもよい。例えば、入力画像について数画素おきに距離を算出してもよいし、入力画像中の一部領域のみについて距離を算出してもよい。距離マップの解像度や、どの領域について距離算出を行うかなどは、入力部16によりユーザが指定するようにしてもよい。
非類似度算出ステップS22では、領域選択ステップS21で選択した第一の画像および第二の画像の局所領域がどの程度一致するかを判別するために、非類似度算出部141が局所領域間の非類似度を算出する。非類似度の算出方法は様々な手法を適用することが可能だが、本実施形態では輝度の差分を利用する例を説明する。入力された画像が輝度画像もしくは単色画像であった場合、数式1に示すように局所領域間の画素ごとの輝度差の和を局所領域の画像の輝度値の和で正規化した値を局所領域間の非類似度dとして算出することができる。移動体や手ぶれなどにより画像間にずれがあると画素間の輝度が異なり、非類似度が大きくなることを利用している。そして、非類似度dが大きくなると局所領域どうしが似ていないことを意味している。
ここで、Ij,iは、第jの画像の局所領域の画像の画素位置iにおける輝度を表している。この場合、jは1か2である。
次に、非類似度判定ステップS23において、判定部142が、非類似度dが閾値α以上か否かを判定する。すなわち、判定部142は、対象画素に関して、以下の判定結果を算出する。
ここで、閾値αは、非類似度dが閾値α以上であれば第一および第二の画像の局所領域間の違いが大きすぎ、精度の良い距離算出が行えないと想定される値(またはそれ以上の値)である。閾値αの具体的な値は、要求される距離算出精度に応じて適宜設定すればよい。
なお、以下では、記載の簡略化のために、ある画素または画素位置において画像ずれが生じているという表現を用いるが、より正確には、画像ずれは二画像の対応する局所領域における画像がずれている(一致度が小さい)ことを意味する。
上記では輝度の差分を用いる例を説明したが、入力画像がカラー画像の場合は、輝度の差分以外にも数式3、数式4のように局所領域間の画素ごとの色差の和、すなわち色空間上の距離を非類似度dとして用いることができる。
ここでL、a、bはそれぞれLab色空間の各次元を表しているが、必ずしもLab色空間である必要はない。局所領域内の色差の和が閾値以上の場合は画像ずれが生じていると判定することができる。なお、添え字のj,iは、数式1のIの添え字と同じく、第jの画像の局所領域の画像の画素位置iを意味している。
ステップS23において非類似度が閾値よりも大きいと判定された場合、すなわち画像ずれがあると判定された場合(S23−YES)は、本実施形態では、選択された画素については距離算出を行わない。画像ずれによって精度の高い距離算出が行えないためである。この際、画像ずれがあった画素の数を表す画像ずれカウント値(初期値0)を1増加させる(S25)。また、画像ずれマップ生成部144が、画像ずれマップを更新する。画像ずれマップは、各画素において画像ずれが生じているか否かを表す二値のマップであり、画像ずれがある画素の値を例えば1に設定し、画像ずれがない画素を0に設定したものである。画像ずれマップは、画素値の初期値を全て0(画像ずれなし)として、画像ずれがあると判定された画素について画素値を1に更新するようにして生成すればよい。
ステップS23において局所領域間の非類似度が閾値より小さいと判定された場合、すなわち対象画素において画像ずれがないと判定された場合(S23−NO)は、ステップS24に進んで、距離算出部145が距離算出を行う。距離算出部145は、抽出された第一の画像および第二の画像の局所領域を用い、数式5にしたがって相関値NCCiを算出することで距離を求める。I1、I2は、第一の画像の局所領域内の画素の輝度の平均値、第二の画像の局所領域内の画素の輝度の平均値を表している。
ここで、収差が無くデフォーカスした場合のぼけ方がフォーカス前後で同じ場合、像側においてフォーカスを移動して撮影した2つのフォーカス位置の中間でぼけが同等となり、その位置での相関が最も高い値となる。この中間位置から離れるに従い、二画像のぼけ方は変化し相関が低下していく。つまりぼけが同じ位置をピークとしてその位置から前後に離れるに従い相関が低下する。相関値はデフォーカスによるぼけに応じた値となるため、相関値がわかれば対応するデフォーカス量を知ることができ、像側での相対的な距離を算出することが可能となる。
距離マップには、被写体までの距離に関連する情報であれば、任意の距離情報を含めることができる。例えば、距離マップには、得られた相関値をそのまま距離情報として含めてもよいし、像面でのフォーカス位置からの相対位置に変換したものを距離情報として含めてもよい。この際、相関値と像面でのフォーカス位置からの相対位置はFナンバーにより異なるため、Fナンバーごとに変換テーブルを持ち像面でのフォーカス位置からの相対距離に変換してもよい。更には、得られた相対距離を、焦点距離および物体側におけるフォーカス距離を用いて物体距離に変換して、距離マップに含める距離情報として採用してもよい。
ここでは相関値を用いて距離を算出する例を説明したが、DFD法として他の方法を用いることもできる。例えば、局所画像を周波数空間に変換し、数式6のように比を求めることで画像間のぼけ量変化を算出する手法などが挙げられる。
ここで、Fはフーリエ変換を表し、sはぼけのない画像を表し、Sは画像sを周波数空間に変換した画像を表している。PSFはそれぞれの局所画像における点像分布関数を表しており、OTFは光学伝達関数を表している。また、OTFrは2画像間の相対的なOTFを表しており、これにより距離を求めることができる。
本発明は、距離計測に用いるDFD法の具体的態様を限定するものではない。例えば、上記以外にも全焦点画像を生成し、全焦点画像に対して距離によって異なるぼけを付与し、撮影画像との差分を取って最も差分の小さかったときのぼけに対応する距離を出力する方法などもある。
以上により、1つの画素(1つの局所領域ペア)についての処理が完了する。距離計測部14は、距離算出対象領域内に未処理の画素が残っているか判断し(S26)、未処理の画素がある場合(S26−YES)には対象画素を変えてステップS21に戻って局所領域の選択を行う。処理対象全ての画素についてステップS21〜S25の処理が完了すると(S26−NO)、ステップS27に処理が移行する。
ステップS27では、比率算出部143が、画像ずれが生じていた画素数(局所領域数)の距離マップ全体の画素数(局所領域数)に対する割合(エラー比率)を算出する。具体的には、比率算出部143は、非類似度が閾値より大きいと判定された画素数の、非類似度の算出対象画素数に対する比率を算出する。この算出には、ステップS22で求めた画像画素数のカウント値または画像ずれマップを用いればよい。
本実施形態では、算出したエラー比率が所定値(例えば10%)より小さければ(S28−NO)、距離算出部145によって算出された距離マップを出力する(S29)。この場合、距離算出されていない画素の距離情報としては、設定された特定の値が出力されてもよいし、距離算出されていない画素の周囲に位置する他の画素の距離情報がそのまま出力されてもよい。または、距離算出されていない画素の周囲の画素の距離情報から補間して、距離算出されていない画素の距離情報が算出されるようにしてもよい。
一方、算出したエラー比率が所定値以上であれば(S28−YES)、距離算出部145によって算出された距離マップを出力しない(S30)。この場合、距離マップが出力できなかったことを表す信号を出力するようにしてもよいし、エラー比率を出力するようにしてもよい。エラー比率が高かった場合、移動体や残存する手ぶれなどによる画像ずれにより距離が算出されなかった領域が多かったということが分かるためである。エラー比率を用いることで、距離マップを利用した処理を行うかどうかの判定を容易に行うことができる。また、距離マップが出力できなかったことを表示装置に表示して、ユーザに通知するようにしてもよい。
一方、算出したエラー比率が所定値以上であれば(S28−YES)、距離算出部145によって算出された距離マップを出力しない(S30)。この場合、距離マップが出力できなかったことを表す信号を出力するようにしてもよいし、エラー比率を出力するようにしてもよい。エラー比率が高かった場合、移動体や残存する手ぶれなどによる画像ずれにより距離が算出されなかった領域が多かったということが分かるためである。エラー比率を用いることで、距離マップを利用した処理を行うかどうかの判定を容易に行うことができる。また、距離マップが出力できなかったことを表示装置に表示して、ユーザに通知するようにしてもよい。
また、ステップS25において画像ずれがあったかどうかを二値の画像ずれマップを生成して出力した場合、エラー比率だけでなくエラー位置の特定も可能となる。画像ずれマップを利用することで距離マップの補正も行うことが可能である。例えば、エラー比率が小さい場合は、距離補正部146によって、画像ずれマップを利用してエラー箇所の距離情報の補正を行い、距離マップを出力するようにしてもよい。距離情報の補正は、エラー箇所周辺の距離画像を用いて補間することが考えられる。また、位置合わせ処理を再度行ってから、距離情報を出力するようにしてもよい。すなわち、第一の画像の局所領域に対応する第二の画像における局所領域を再探索してから、当該局所領域の距離情報の算出を
再度実行してもよい。いずれの方法によって距離情報を算出するかは、画像ずれが生じている画素の密集度合いに応じて決定することも好ましい。
再度実行してもよい。いずれの方法によって距離情報を算出するかは、画像ずれが生じている画素の密集度合いに応じて決定することも好ましい。
本実施形態によれば、二画像間において移動体や手ぶれなどによる画像ずれが生じた場合、距離マップ中にどのくらいエラーがあるかの比率、およびどの位置にエラーがあるかを出力することが可能となるといった効果がある。更には、この情報を利用して距離マップを使用する処理を行うかどうかや距離マップの補正を行うかどうかなどの判定を容易に行うことが可能となるといった効果も生じる。
上記の説明では、エラー比率が大きい場合には距離マップを出力しないものとしているが、エラー比率の大きさにかかわらず距離マップを出力してもよい。この場合は、距離マップとともにエラー比率の値を出力することが好ましい。エラー比率とともに距離マップを出力することで、距離マップを受け取るアプリケーションが、距離マップを用いた処理を行うかどうかといった判断が可能となる。また、エラー比率に加えて、あるいはエラー比率に代えて、画像ずれマップを距離マップとともに出力するようにしてもよい。この場合、距離マップを受け取るアプリケーションが、画像ずれマップに基づいてどのように処理を行うかを判断できる。
(実施形態2)
次に、本発明の第2の実施形態について説明する。第2の実施形態は、DFD法による距離計測において、変更する撮影パラメータがフォーカス位置ではなくFナンバーを変更するという点と、距離計測とは別に画像ずれの判定を行うという点が、第一実施形態と相違する。本実施形態の撮像装置の構成は、基本的に実施形態1(図1、図2)と同様である。主な相違点は、距離計測部14において、画像ずれ検出と距離算出を同時に行うのではなく、画像ずれ検出を先に行ってから、距離算出を行う点である。
次に、本発明の第2の実施形態について説明する。第2の実施形態は、DFD法による距離計測において、変更する撮影パラメータがフォーカス位置ではなくFナンバーを変更するという点と、距離計測とは別に画像ずれの判定を行うという点が、第一実施形態と相違する。本実施形態の撮像装置の構成は、基本的に実施形態1(図1、図2)と同様である。主な相違点は、距離計測部14において、画像ずれ検出と距離算出を同時に行うのではなく、画像ずれ検出を先に行ってから、距離算出を行う点である。
以下、第1の実施形態との処理の相違点について説明する。図5は、第2の実施形態における、撮影から画素ずれ判定処理および距離マップ生成処理までの流れを示したフローチャート図である。
ステップS31〜S34の処理は、第1の実施形態におけるステップS11〜S14の処理と基本的に同じである。ただし、第2の実施形態では、ステップS33で撮影パラメータを変更する際に、Fナンバーを変更する。すなわち、ステップS34を実行することによって、Fナンバーが異なる二枚の画像が取得される。そして、このようにして撮影された二枚の画像に基づいて、画像ずれ判定処理(S35)を行って画像ずれマップを生成してから、距離算出処理(S36)を行って距離マップを生成する。
次に、ステップS35の画素ずれ判定処理についてより詳細に説明する。図6は、第2の実施形態における画素ずれ判定処理の流れを示したフローチャート図である。
ステップS41では、ステップS21と同様に入力された二画像において対応する局所領域を設定し、それぞれの局所領域画像を抽出する。画像全体に対して画像ずれを判定するには1画素ずつずらして局所領域を選択していく。
ステップS42では、非類似度算出部141が、ステップS41で抽出された局所領域における画像ずれを判定するために、ステップS22と同様に二画像の局所領域間の非類似度を算出する。具体的な非類似度として、第1の実施形態で説明したものが採用可能である。ステップS43では、判定部142が、ステップS42で算出した非類似度が閾値以上であるか判定する。閾値以上である場合には対象画素において位置ずれが生じたことが分かる。この際、ステップS44において、画像ずれがあった画素を表す画像ずれカウ
ント値を1増加させたり、画像ずれマップにおけるその画素の画素値を1にして画像ずれマップを更新したりする。
ント値を1増加させたり、画像ずれマップにおけるその画素の画素値を1にして画像ずれマップを更新したりする。
以上により、1つの画素についての処理が完了する。未処理の画素がある場合(S45−YES)には処理対象画素を代えてステップS41に戻って領域の選択を行う。処理対象全ての画素についてステップS41〜S44の処理が完了すると(S45−NO)、ステップS46に処理が移行する。
ステップS46では、比率算出部143が、画像ずれが生じていた画素数(局所領域数)の距離算出対象領域に含まれる画素数(局所領域数)に対する割合(エラー比率)を算出する。ステップS47では、エラー比率と画像ずれマップを出力する。
次に距離マップ生成処理(ステップS36)に移行するが、ここでエラー比率により距離マップ生成を中止するかどうかの判定を行ってもよい。例えば、エラー比率が所定値以上であれば、距離マップの生成を中止するようにしてもよい。他にも、エラー比率が所定値以上であれば、位置合わせ処理を再実行するなどの判定を行うこともできる。位置合わせ処理を再実行した場合は、その後に画像ずれ判定処理を再度実行することも好ましい。
次に、距離マップ生成処理について説明する。図7は、第2の実施形態における距離マップ生成処理の流れを示したフローチャート図である。距離マップ生成処理には、撮影した二画像と画像ずれ判定処理で得られた画像ずれマップが入力される。
ステップS51の処理は、ステップS21と同様の処理のため説明を省略する。ステップS52では、ステップS51で選択された画素位置に画像ずれが生じているかどうかを、画像ずれマップから判定する。画像ずれがある場合には、画像ずれマップにおける当該画素の値が画像ずれ有りを表す値に設定されているので判定可能である。画像ずれが生じていた場合(S53−YES)は、その画素については距離算出を行わない。一方、画像ずれが無い場合(S53−NO)は、ステップS54に進んで、その画素について距離算出を行う。ステップS54における距離算出処理は、ステップS24と同様のため説明を省略する。
以上の処理を、距離算出対象の全ての画素について繰り返すことで距離マップが完成する。この際、第1の実施形態と同様に、距離情報が算出されなかった画素については、周辺の画素の距離情報から補間により距離情報を求めてもよいし、位置合わせ処理を再度行ってから、距離情報を再度算出するようにしてもよい。
本実施形態によれば、距離計測を行う前に位置ずれ判定処理を実行することで、距離計測を実行するかの判定、または距離計測前に再度位置合わせを実行するなどの判定を行うことが可能となるという効果がある。
(実施形態3)
本発明の第3の実施形態は、画像ずれが特に画像中の関心領域(注目領域)に生じているかどうかを判定に加えた実施形態である。第3の実施形態における撮像装置の構成は、第1および第2の実施形態と同様である。
本発明の第3の実施形態は、画像ずれが特に画像中の関心領域(注目領域)に生じているかどうかを判定に加えた実施形態である。第3の実施形態における撮像装置の構成は、第1および第2の実施形態と同様である。
以下、第1の実施形態との処理の相違点について説明する。図8は、第3の実施形態における、画素ずれ判定処理の流れを示したフローチャート図である。
ステップS61〜S66の処理は、第1の実施形態におけるステップS21〜S26と同様であるため説明は省略する。ここまでの処理により、全画素について、距離情報の算
出および画像ずれの有無の判定が完了する。
出および画像ずれの有無の判定が完了する。
ステップS66では、画像中において撮影者および観察者が関心のある注目領域を抽出する。この関心領域抽出処理は、信号処理部13によって行えばよい。関心領域抽出方法としては様々な方法が提案されているが、ここでは代表的な手法をいくつか説明する。
まず、関心領域として顔領域を抽出する方法がある。一般的に人物が主被写体として撮影されることが多いため関心領域の抽出として有効である。具体的な検出方法としては、デジタルカメラ等の撮像装置に搭載されているような学習データを用いたマッチング方法を用いて、信号処理部13が図9(a)に示すように画像中の顔領域を検出する。顔検出に用いる画像は、複数の画像のうちどちらでもよいが、オートフォーカスによって合焦された画像を用いることが好ましい。より顔領域を精度良く検出するために、図9(b)に示すように検出された顔領域付近(顔領域内およびその近傍)における肌色領域を検出して顔領域として検出し、その縦・横サイズおよび検出領域を保存してもよい。この場合、顔領域に首も含めてもよい。更には、図9(c)のように頭部領域も含む楕円領域としてもよい。他にも図9(d)のように顔領域付近から髪の毛の色に基づいて髪領域を検出し、顔領域と合わせて全体を顔領域として抽出してもよい。更には、顔領域を基準に人体モデルなどをもとにして人物全体の検出を行い、人物領域を関心領域として抽出することもできる。
被写体が人物以外の場合に、関心領域として考えられる領域としてAFを行った領域がある。この場合、AFに用いた測距エリアを関心領域として抽出する。また、フォーカス位置をずらして撮影された二画像が入力画像であった場合、二画像間のコントラスを検出し、AFされた画像のコントラストがもう一方の画像のコントラストよりも所定量以上高い領域を関心領域として抽出することもできる。
このようにして抽出された画像中の関心の高い領域を用いて、二値の関心領域マップ(例えば、関心領域の画素値を1とし、それ以外の画素値を0とする)を生成して出力する。
ステップS68では、ステップS65で生成された画像ずれマップとステップS67で生成された関心領域マップを用いて、比率算出部143がエラー比率を算出する。比率算出部143は、関心領域中の画像ずれのある画素数の、関心領域全体の画素数に対する割合を、エラー比率として算出する。すなわち、比率算出部143は、ステップS62で求められた非類似度が閾値以上であると判定された関心領域内の画素数(局所領域数)の、関心領域内の画素数(局所領域数)に対する比率を、エラー比率として算出する。すなわち本実施形態では、関心領域を所定領域として、所定領域内でのエラー比率が算出される。
そして、このようにして算出されたエラー比率が所定値(例えば、10%)より小さければ(S69−NO)、距離算出部145によって算出された距離マップを出力する(S70)。この際、エラー比率や画像ずれマップも一緒に出力することも好ましい。また、画像ずれマップから画像ずれが生じている画素については、第1の実施形態と同様に補間により距離情報を求めたり、位置合わせ処理を再度行ってから距離情報を求めることが好ましい。
一方、エラー比率が所定値以上であれば(S69−YES)、距離算出部145によって算出された距離マップを出力しない(S71)。
画像中で関心の高い領域に生じた距離推定エラーは、距離マップを用いたアプリケーシ
ョンにおいて関心の低い領域に比べエラーであることが目立つ。例えば、算出された距離マップを用いて距離に対応したぼけを付与することで被写界深度の浅い画像を生成するような処理を行う場合を考える。このような処理を行った場合、顔などの人間にとって関心の高い領域に距離推定エラーによりぼけが付与されると、関心の低い領域に比べて違和感を強く感じるといったことが挙げられる。
ョンにおいて関心の低い領域に比べエラーであることが目立つ。例えば、算出された距離マップを用いて距離に対応したぼけを付与することで被写界深度の浅い画像を生成するような処理を行う場合を考える。このような処理を行った場合、顔などの人間にとって関心の高い領域に距離推定エラーによりぼけが付与されると、関心の低い領域に比べて違和感を強く感じるといったことが挙げられる。
本実施形態によれば、関心領域でのエラー比率を求めて以降に行う処理の判定に利用することで、よりエラーの目立ち具合を低減させることが可能になるといった効果がある。
また、上記の説明では、関心領域内のみに着目してエラー比率を求めているが、関心領域外の画像ずれも考慮してエラー比率を求めてもよい。例えば、関心領域を対象としたエラー比率と、画像全体(距離算出画素全体)を対象としたエラー比率の2つのエラー比率を算出してもよい。この場合、例えば、関心領域のエラー比率については画像全体のエラー比率よりも判定条件を厳しく設定し(例えば5%)、2つのエラー比率の両方が所定値よりも小さい場合に距離マップを出力することが考えられる。あるいは、これら2つのエラー比率から算出される値(例えば重み付け平均)を所定値と比較するようにしてもよい。このような手法により、関心領域の画像ずれと、関心領域外の画像ずれの両方を考慮した判定が可能となる。
上記の説明では、関心領域内のエラー比率のみを求める場合にも、全ての領域について局所領域の非類似度を求めるようにしているが、このような場合は関心領域の抽出を先に行って関心領域内についてのみ非類似度を求めるようにしてもよい。
本実施形態においても第1の実施形態と同様に、エラー比率の大きさに関わらず距離マップを出力するようにしてもよい。また、本実施形態を第2の実施形態と組み合わせて、関心領域内のエラー比率を先に算出し、エラー比率が所定値以下の場合に距離算出処理を開始するようにしてもよい。
<変形例>
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む撮像装置として実施することもできるし、撮像手段を有さない距離計測装置として実施することもできる。また、距離計測方法として実施することもできるし、当該距離計測方法を距離計測装置に実行させる画像処理プログラムとして実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む撮像装置として実施することもできるし、撮像手段を有さない距離計測装置として実施することもできる。また、距離計測方法として実施することもできるし、当該距離計測方法を距離計測装置に実行させる画像処理プログラムとして実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、実施形態で説明した各要素技術は、任意に組み合わせてもよい。例えば、変更する撮影パラメータ、画像ずれ判定処理を行う順序、距離算出の具体的態様などを、自由に組み合わせて実施してもよい。
また、実施形態の説明では、エラー比率と画像ずれマップを出力する例を述べたが、エラー比率のみを出力してもよいし、画像ずれマップのみを出力してもよい。画像ずれマップに基づいて、エラー比率を算出することができるし、画像ずれが発生している画素位置も把握できる。また、上記の説明では、画像ずれマップが二値画像である例を述べたが、画像ずれマップの画素値は二値でなくても構わない。例えば、局所領域間の非類似度を画像ずれマップの画素値として採用してもよい。
また、実施形態の説明では、撮像装置が二枚の画像を取得する例を述べたが、取得する画像は三枚以上であってもよい。この場合、撮影した画像から二画像を選択して距離計測
を行う。三枚以上の画像を取得することで、距離計測可能な範囲が広くなるといった効果や、距離精度が向上するといった効果を得ることができる。
を行う。三枚以上の画像を取得することで、距離計測可能な範囲が広くなるといった効果や、距離精度が向上するといった効果を得ることができる。
更には、各実施形態では距離算出方法としてDFD法に関して説明してきたが、他にDFF法やステレオ法も適用することができる。
DFF法は、フォーカスを変えて複数の画像を撮影し、選択した領域のコントラストが最も高い画像をフォーカスが合っているとし、そのフォーカス距離を物体までの距離として算出する距離計測方法である。この場合、複数画像を位置合わせした後、基準画像に対する移動体等による画像ずれを算出することができ、同様にエラー比率を算出することが可能である。
ステレオ法の場合は、距離算出する前に二画像間の位置合わせを行い、移動体によるオクルージョン領域や視差によるオクルージョン領域を同様に画像ずれ領域として算出することができる。これにより、画像ずれマップの生成、およびエラー比率の算出を行うことが可能である。
DFF法は、フォーカスを変えて複数の画像を撮影し、選択した領域のコントラストが最も高い画像をフォーカスが合っているとし、そのフォーカス距離を物体までの距離として算出する距離計測方法である。この場合、複数画像を位置合わせした後、基準画像に対する移動体等による画像ずれを算出することができ、同様にエラー比率を算出することが可能である。
ステレオ法の場合は、距離算出する前に二画像間の位置合わせを行い、移動体によるオクルージョン領域や視差によるオクルージョン領域を同様に画像ずれ領域として算出することができる。これにより、画像ずれマップの生成、およびエラー比率の算出を行うことが可能である。
<実装例>
上述した本発明の距離計測技術は、例えば、デジタルカメラやデジタルカムコーダなどの撮像装置、あるいは撮像装置で得られた画像データに対し画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明を適用することができる。
上述した本発明の距離計測技術は、例えば、デジタルカメラやデジタルカムコーダなどの撮像装置、あるいは撮像装置で得られた画像データに対し画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明を適用することができる。
また、実施形態の説明では、撮像装置本体に距離計測の機能を組み込んだ構成を示したが、距離計測は撮像装置以外で行ってもよい。たとえば、撮像装置を有するコンピュータに距離計測の機能を組み込み、撮像装置で撮影した画像をコンピュータが取得して、距離の算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに距離計測の機能を組み込み、当該コンピュータがネットワークを介して複数枚の画像を取得し、距離計測を行うようにしてもよい。
得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ボケ効果のエミュレーションなどの各種画像処理に利用することができる。
なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能である。例えば、撮像装置や画像処理装置に内蔵されたコンピュータ(マイコン、FPGA等)のメモリにプログラムを格納し、当該プログラムをコンピュータに実行させることで、本発明の目的を達成するための各種処理を実現してもよい。また、本発明の全部又は一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。
この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能記録媒体は、いずれも本発明の範疇に含まれる。
14 距離計測部
141 非類似度算出部
142 判定部
143 比率算出部
141 非類似度算出部
142 判定部
143 比率算出部
Claims (17)
- 少なくとも第一の画像および第二の画像から距離情報を算出する距離計測装置であって、
距離算出対象の各画素について、当該画素を含む第一の画像の局所領域と、当該局所領域に対応する第二の画像の局所領域とから、前記画素の距離情報を算出する第1算出手段と、
前記第一の画像の局所領域と前記第二の画像の局所領域との非類似度を算出する第2算出手段と、
前記非類似度が閾値以上であるかを判定する判定手段と、
前記非類似度が前記閾値以上であると判定された所定領域内の局所領域の数の、前記所定領域内の局所領域の数に対する比率を算出する第3算出手段と、
を備えることを特徴とする距離計測装置。 - 前記比率が所定値以上である場合には、距離情報の出力を行わない、
ことを特徴とする請求項1に記載の距離計測装置。 - 前記比率とともに距離情報を出力する、
ことを特徴とする請求項1に記載の距離計測装置。 - 前記第一の画像および前記第二の画像は、異なる撮影時刻に撮影され、かつ、異なる撮影パラメータで撮影された画像である、
ことを特徴とする請求項1から3のいずれか1項に記載の距離計測装置。 - 前記非類似度は、前記第一の画像および前記第二の画像の局所領域間の画素ごとの輝度差の和を正規化した値である、
ことを特徴とする請求項1から4のいずれか1項に記載の距離計測装置。 - 前記非類似度は、前記第一の画像および前記第二の画像の局所領域間の画素ごとの色差の和である、
ことを特徴とする請求項1から4のいずれか1項に記載の距離計測装置。 - 前記所定領域は、距離算出対象領域と等しい、
ことを特徴とする請求項1から6のいずれか1項に記載の距離計測装置。 - 前記第一の画像から関心領域を抽出する関心領域抽出手段を更に有し、
前記所定領域は、前記関心領域と等しい、
ことを特徴とする請求項1から6のいずれか1項に記載の距離計測装置。 - 前記第3算出手段は、前記関心領域を前記所定領域として前記比率を算出するとともに、距離算出対象領域を前記所定領域として前記比率を算出する、
ことを特徴とする請求項8に記載の距離計測装置。 - 前記関心領域は、顔領域または人物領域である、
ことを特徴とする請求項8または9に記載の距離計測装置。 - 前記第一の画像は、オートフォーカスを行って撮影した画像であり、
前記関心領域は、前記第一の画像においてオートフォーカスに用いた領域である、
ことを特徴とする請求項8または9に記載の距離計測装置。 - 前記第一の画像は、オートフォーカスを行って撮影した画像であり、
前記関心領域は、前記第一の画像のコントラストが前記第二の画像のコントラストより所定量以上高い領域である、
ことを特徴とする請求項8または9に記載の距離計測装置。 - 前記非類似度が前記閾値以上であると判定された局所領域に対応する距離情報を補正する補正手段を備える、
ことを特徴とする請求項1から12のいずれか1項に記載の距離計測装置。 - 前記非類似度が前記閾値以上であると判定された局所領域について、当該局所領域に対応する局所領域を第二の画像から再探索してから、当該局所領域に対応する距離情報の算出を再度実行する、
ことを特徴とする請求項1から12のいずれか1項に記載の距離計測装置。 - 撮像手段と、
請求項1から14のいずれか1項に記載の距離計測装置と、
を備えることを特徴とする撮像装置。 - 少なくとも第一の画像および第二の画像から距離情報を算出する距離計測方法であって、
距離算出対象の各画素について、当該画素を含む第一の画像の局所領域と、当該局所領域に対応する第二の画像の局所領域とから、前記画素の距離情報を算出する第1算出ステップと、
前記第一の画像の局所領域と前記第二の画像の局所領域との非類似度を算出する第2算出ステップと、
前記非類似度が閾値以上であるかを判定する判定ステップと、
前記非類似度が前記閾値以上であると判定された所定領域内の局所領域の数の、前記所定領域内の局所領域の数に対する比率を算出する第3算出ステップと、
を含むことを特徴とする距離計測方法。 - 請求項16に記載の距離計測方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014022059A JP2015148532A (ja) | 2014-02-07 | 2014-02-07 | 距離計測装置、撮像装置、距離計測方法、およびプログラム |
US14/593,182 US9508153B2 (en) | 2014-02-07 | 2015-01-09 | Distance measurement apparatus, imaging apparatus, distance measurement method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014022059A JP2015148532A (ja) | 2014-02-07 | 2014-02-07 | 距離計測装置、撮像装置、距離計測方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015148532A true JP2015148532A (ja) | 2015-08-20 |
Family
ID=53775212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014022059A Pending JP2015148532A (ja) | 2014-02-07 | 2014-02-07 | 距離計測装置、撮像装置、距離計測方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9508153B2 (ja) |
JP (1) | JP2015148532A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020180980A (ja) * | 2020-07-13 | 2020-11-05 | オムロン株式会社 | 光学計測装置 |
CN111901499A (zh) * | 2020-07-17 | 2020-11-06 | 青岛聚好联科技有限公司 | 一种计算视频图像中像素实际距离的方法及设备 |
KR20200139362A (ko) * | 2019-06-04 | 2020-12-14 | (주) 루리텍 | 거리 측정 카메라의 거리 측정 오차 보정 장치 |
JP2021043115A (ja) * | 2019-09-12 | 2021-03-18 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
CN113160214A (zh) * | 2021-05-12 | 2021-07-23 | 西南科技大学 | 一种图像局部领域像素相似性衡量新方法 |
US11674794B2 (en) | 2016-03-24 | 2023-06-13 | Omron Corporation | Optical measurement device |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5587930B2 (ja) * | 2012-03-09 | 2014-09-10 | 日立オートモティブシステムズ株式会社 | 距離算出装置及び距離算出方法 |
US9928598B2 (en) | 2014-10-31 | 2018-03-27 | Canon Kabushiki Kaisha | Depth measurement apparatus, imaging apparatus and depth measurement method that calculate depth information of a target pixel using a color plane of which a correlation value is at most a threshold |
JP6521676B2 (ja) | 2015-03-09 | 2019-05-29 | キヤノン株式会社 | 動き情報取得装置および動き情報取得方法 |
US9894285B1 (en) * | 2015-10-01 | 2018-02-13 | Hrl Laboratories, Llc | Real-time auto exposure adjustment of camera using contrast entropy |
US10242427B2 (en) * | 2016-07-29 | 2019-03-26 | Massachusetts Institute Of Technology | Deviation magnification: revealing departures from ideal geometries |
US10277889B2 (en) * | 2016-12-27 | 2019-04-30 | Qualcomm Incorporated | Method and system for depth estimation based upon object magnification |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH085370A (ja) | 1994-06-15 | 1996-01-12 | Canon Inc | 距離測定装置 |
GB0514555D0 (en) * | 2005-07-15 | 2005-08-24 | Nonlinear Dynamics Ltd | A method of analysing separation patterns |
JP4708948B2 (ja) * | 2005-10-03 | 2011-06-22 | 富士フイルム株式会社 | 顔向き特定方法、顔判別方法および装置並びにプログラム |
JP4814840B2 (ja) | 2007-05-23 | 2011-11-16 | オリンパス株式会社 | 画像処理装置又は画像処理プログラム |
US8385656B2 (en) * | 2008-10-23 | 2013-02-26 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
US20100309225A1 (en) * | 2009-06-03 | 2010-12-09 | Gray Douglas R | Image matching for mobile augmented reality |
JP6091228B2 (ja) | 2013-01-30 | 2017-03-08 | キヤノン株式会社 | 画像処理装置、撮像装置 |
JP2015036632A (ja) | 2013-08-12 | 2015-02-23 | キヤノン株式会社 | 距離計測装置、撮像装置、距離計測方法 |
-
2014
- 2014-02-07 JP JP2014022059A patent/JP2015148532A/ja active Pending
-
2015
- 2015-01-09 US US14/593,182 patent/US9508153B2/en active Active
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11674794B2 (en) | 2016-03-24 | 2023-06-13 | Omron Corporation | Optical measurement device |
KR20200139362A (ko) * | 2019-06-04 | 2020-12-14 | (주) 루리텍 | 거리 측정 카메라의 거리 측정 오차 보정 장치 |
KR102200195B1 (ko) * | 2019-06-04 | 2021-01-08 | (주) 루리텍 | 거리 측정 카메라의 거리 측정 오차 보정 장치 |
JP2021043115A (ja) * | 2019-09-12 | 2021-03-18 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
JP7170609B2 (ja) | 2019-09-12 | 2022-11-14 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
JP2020180980A (ja) * | 2020-07-13 | 2020-11-05 | オムロン株式会社 | 光学計測装置 |
JP7070614B2 (ja) | 2020-07-13 | 2022-05-18 | オムロン株式会社 | 光学計測装置 |
CN111901499A (zh) * | 2020-07-17 | 2020-11-06 | 青岛聚好联科技有限公司 | 一种计算视频图像中像素实际距离的方法及设备 |
CN111901499B (zh) * | 2020-07-17 | 2022-04-01 | 青岛聚好联科技有限公司 | 一种计算视频图像中像素实际距离的方法及设备 |
CN113160214A (zh) * | 2021-05-12 | 2021-07-23 | 西南科技大学 | 一种图像局部领域像素相似性衡量新方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150227815A1 (en) | 2015-08-13 |
US9508153B2 (en) | 2016-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015148532A (ja) | 距離計測装置、撮像装置、距離計測方法、およびプログラム | |
JP6271990B2 (ja) | 画像処理装置、画像処理方法 | |
JP5980294B2 (ja) | データ処理装置、撮像装置、およびデータ処理方法 | |
US9591237B2 (en) | Automated generation of panning shots | |
TWI538512B (zh) | 調整對焦位置的方法及電子裝置 | |
US10306210B2 (en) | Image processing apparatus and image capturing apparatus | |
JP6362068B2 (ja) | 距離計測装置、撮像装置、距離計測方法、およびプログラム | |
JP2015036632A (ja) | 距離計測装置、撮像装置、距離計測方法 | |
US9619886B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
US9811909B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
JP2016061609A (ja) | 距離計測装置、撮像装置、および距離計測方法 | |
JP2018107526A (ja) | 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム | |
JP6317635B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6555990B2 (ja) | 距離計測装置、撮像装置、および距離計測方法 | |
JP6645711B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2015055988A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6381212B2 (ja) | 撮像装置及びその制御方法 | |
JP6570706B2 (ja) | 距離計測装置、撮像装置、距離計測方法、およびプログラム | |
JP6501732B2 (ja) | データ処理装置、撮像装置、およびデータ処理装置の制御方法 | |
JP6729583B2 (ja) | 画像処理装置および方法 | |
JP6873815B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 | |
JP2016062447A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2019106215A (ja) | データ処理装置、撮像装置、およびデータ処理方法 | |
CN115965675A (zh) | 图像处理方法及装置、电子设备及存储介质 |