JP5995614B2 - 距離情報推定装置 - Google Patents

距離情報推定装置 Download PDF

Info

Publication number
JP5995614B2
JP5995614B2 JP2012191315A JP2012191315A JP5995614B2 JP 5995614 B2 JP5995614 B2 JP 5995614B2 JP 2012191315 A JP2012191315 A JP 2012191315A JP 2012191315 A JP2012191315 A JP 2012191315A JP 5995614 B2 JP5995614 B2 JP 5995614B2
Authority
JP
Japan
Prior art keywords
distance information
resolution
image data
distance
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012191315A
Other languages
English (en)
Other versions
JP2014048896A5 (ja
JP2014048896A (ja
Inventor
香織 田谷
香織 田谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012191315A priority Critical patent/JP5995614B2/ja
Priority to US13/973,321 priority patent/US9243935B2/en
Publication of JP2014048896A publication Critical patent/JP2014048896A/ja
Publication of JP2014048896A5 publication Critical patent/JP2014048896A5/ja
Application granted granted Critical
Publication of JP5995614B2 publication Critical patent/JP5995614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/26Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
    • G01D5/39Scanning a visible indication of the measured value and reproducing this indication at the remote place, e.g. on the screen of a cathode ray tube
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、一枚以上の画像から距離の推定ができる距離情報推定装置に関する。
多視点画像は、いわゆる多眼カメラで一度に撮像した複数の視点画像や、1つのスチルカメラの視点(撮像位置)を順次移動して撮像した複数の視点画像や、ビデオカメラで撮像したビデオ映像からサンプリングされて作成された複数の視点画像により構成される。これらの視点画像中に含まれる対象物までの距離情報を算出したり、撮像を行っていない視点を含む任意の視点の画像を生成したりする場合には、視点間隔に対応した視差情報が必要となる。
多視点画像から視差情報を抽出するために、一群の視点画像の中から任意に選択された2画像における個々の画素の対応情報を得る多視点画像処理装置が提案されている。
この多視点画像処理装置においては、一方の撮像画像上のある画素(注目点)に関して、他方の撮像画像上において対応する画素(対応点)を特定する。そしてこれらの画素についての視差、すなわち一方の画像中での注目点の位置とそれに対応する他方の画像上における対応点の位置とのずれ量を視差として算出する。
ここで、2つの画像間において一方の画像上の注目点に対する他方の画像上での対応点を特定するための処理(マッチング)には、様々な手法がある。例えば、一方の画像上において注目点を含む複数の画素により構成される画素ブロックをテンプレートとし、該テンプレートと他方の画像上の各領域との相関を求めて対応点を特定するエリアベースの手法がある。また、一方の画像における注目点を含んだ特徴を抽出し、その特徴に基づいて他方の画像における対応点を特定する特徴ベースの手法がある。
これらエリアベース、特徴ベースのどちらの手法においても、他方の画像上では、一方の画像上の注目点の座標に基づいて探索範囲が設定され、該探索範囲内における対応点の候補についてそれぞれ相関度を求め、最も相関度の高い画素が対応点として選択される。カメラ姿勢や歪曲が既知ならば、三角測量法などでこれらの対応点の奥行きを推定することが可能である。
また、1枚の画像の構図から距離を推定する技術も提案されている。例えば、ぼけ量や構図などの画像の特徴量を解析し、その特徴量をあらかじめ設定されている奥行き情報と対応させることで奥行きを推定することが可能である。
特許文献1に記載された方法によれば、特徴ベースとエリアベースの手法を混合し、特徴点を抽出し、特徴点周辺に小さな画素ブロック(以降パッチと呼ぶ)を生成する。そのパッチが複数のカメラから見えるならば採択するというパッチの取捨選択を行うことによって特徴点付近に小さいパッチを順次生成して密な距離情報推定を行うことができる。
特許文献2に記載された方法によれば、特徴ベースの手法とエリアベースの手法を混合し、カメラ位置が既知の複数の画像の1枚を基準画像とし、その上に複数の三角形によって構成された2次元メッシュを生成する。基準画像以外の参照画像の視点に変換した2次元メッシュが最も参照画像と一致するようにメッシュの各頂点の距離を求めることで画像の距離情報を推定することができる。
特許文献3に記載の方法によれば、1枚の画像からでも画像構図を解析し、予め用意された奥行き構造パターンと照合することで画像の距離情報を推定することができる。
米国特許出願公開第2009/0052796号明細書 特開2008−123019号公報 特開2012−029168号公報
しかしながら、特許文献1と特許文献2の方法では画像の平坦な部分の視差が求められないという課題がある。
特許文献1では、パッチの大きさよりある程度以上大きい平坦な部分では別の視点から見た時のパッチの対応パッチを一意に決められない。
特許文献2では、メッシュの大きさよりある程度以上大きい平坦な部分では別の視点から見た時のメッシュの各頂点の対応点を一意に求められない。
特許文献3では、予め用意された構造パターンを基に推定するため、細かい凹凸など精度の高い推定を行うことは難しい。
そこで、本発明は、詳細な距離推定の精度を保ちつつ、平坦な部分の距離推定もできる方法を提供することを目的とする。
本発明に係る距離情報推定装置は、第一の解像度を有する第一の画像データを取得する第一の取得手段と、前記第一の画像データと同じシーンに対応する、第二の解像度を有する第二の画像データを取得する第二の取得手段と、前記第一の画像データを用いて、前記シーンにおける被写体の距離に関する第一の距離情報を推定し、前記第二の画像データを用いて、前記被写体の距離に関する第二の距離情報を推定する距離情報推定手段と、前記第一の距離情報と前記第二の距離情報とを合成する距離情報合成手段とを有し、前記距離情報合成手段は、前記第一の解像度および前記第二の解像度に基づいて、前記第一の距離情報および前記第二の距離情報に対する合成の重み係数を設定し、前記第一の解像度および前記第二の解像度に基づいて設定された前記重み係数を用いて前記第一の距離情報および前記第二の距離情報を合成することを特徴とする。
本発明によれば、詳細な距離推定の精度を保ちつつ、平坦な部分の距離推定が可能になる。
実施例1における距離情報推定装置の一例を示すブロック図である。 実施例1における距離情報推定処理の一例を示すフローチャートである。 実施例1における解像度変換処理の模式図の一例である。 実施例1における解像度変換前及び解像度変換後の距離推定結果の模式図の一例である。 実施例1における解像度変換前及び解像度変換後の距離推定の違いを表す模式図の一例である。 実施例1における距離情報合成処理の一例を示すフローチャートである。 実施例1における距離情報合成処理の模式図の一例である。 実施例2における距離情報推定装置の一例を示すブロック図である。 実施例2における距離情報推定処理の一例を示すフローチャートである。 実施例2における距離情報合成処理の一例を示すフローチャートである。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
本実施例は複数の解像度で特徴点を探索し、距離推定を行った結果を合成することで、被覆率が高く、精度の高い距離推定を行う例を示す。
本実施例で求める「距離情報」とは、画像の画素に対応する点のカメラ位置からの距離とする。距離推定の結果がワールド座標で得られる場合に、推定結果を画像上の位置と距離情報に対応させるにはまずワールド座標をカメラ座標に変換し、カメラ座標を画像座標に変換すれば良い。なお、カメラ座標とはカメラ位置を原点としカメラの縦方向をy軸、横方向をx軸、x軸y軸に直交しカメラの中心を通る軸をz軸とした座標系のことであり、画像座標とは画像の中心を原点、縦方向をy軸、横方向をx軸、単位をピクセルとした座標とする。
ワールド座標からカメラ座標への変換は、次のように行われる。例えば、ワールド座標の点をPw=(x,y,z)、カメラ座標の点をPc、カメラ位置のワールド座標をC=(Cx,Cy,Cz)、カメラ座標のx軸・y軸・z軸方向それぞれの単位縦ベクトルをRx・Ry・Rzとしたとき、以下の座標変換の式で表せる。
Pc=(Pw-C)*[Rx,Ry,Rz] (式1)
ただし、ここで、「*」は行列の掛け算、「[Rx,Ry,Rz]」は縦ベクトルRx,Ry,Rzを横に並べた行列を表す。
カメラ座標から画像座標への変換は、カメラ座標の点をPc=(Pc_x,Pc_y,Pc_z)、画像座標の点をPi=(Pi_x,Pi_y)としたとき、以下のパース変換の式で表せる。
Pi_x=Fc*Pc_x/Pc_z, Pi_y=Fc*Pc_y/Pc_z (式2)
ただし、「*」は乗算、「/」は除算を表す。なお、ここでFcは画像とカメラ座標を対応させる定数であり、カメラの横解像度res、焦点距離fとセンサの横幅widから次の式3で決めることができる。
Fc=res * f / wid (式3)
以降、画像座標(Pi_x,Pi_y)の距離情報とはカメラ座標でのz座標Pc_zのこととする。ただし、距離情報を画像で表現するときは、諧調が表現できる範囲内で距離情報を表現するよう適切にシフトと定数倍をして表す。なお、本実施例では距離情報を前記カメラ座標のz座標としたが、点からカメラ位置までのユークリッド距離
sqrt(Pc_x^2+ Pc_y^2+ Pc_z^2) (式4)
でも良い。ただし、「sqrt(x)」はxの平方根、「m^n」はmのn乗を表す。
また、本実施例では複数の視点から得られる画像である多視点画像データを使って距離を推定する例を説明しているが、従来の技術に挙げたような1枚の画像データから距離を推定する手法を使っても同様の処理が可能である。
<距離情報推定装置>
図1は、本実施例に係る距離情報推定装置の構成の一例を示す図である。本実施例に係る距離情報推定装置は、多視点画像データ入力部11と、解像度変換部12と、画像領域分割部13と、カメラ情報入力部14と、距離情報推定部15と、距離情報合成部16と、距離情報出力部17とを有する。
図2は、距離情報推定装置の処理のフロー図である。以下、図1と図2を使って距離情報推定装置の処理フローを説明する。
まず、ステップS21において、多視点画像データ入力部11が多視点画像を示す多視点画像データを読み込む。ここで、多視点画像データとは基準画像1枚と参照画像1枚以上の少なくとも2枚の画像に対応する画像データとする。3枚以上の画像があっても良い。
次に、ステップS22において、解像度変換部12が多視点画像の解像度をそれぞれ変換する。すなわち、解像度変換部12が、基準画像と参照画像の画像データをそれぞれ解像度変換し、解像度変換画像データを取得する。例えば、図3(a)を入力画像とすると、解像度を4分の1に縮小した画像は図3(b)のようになる。また、ここでは、解像度変換画像が1つの例で説明するが、2種類以上であっても同様の処理が可能である。
次に、ステップS23において、画像領域分割部13が多視点画像の基準画像を領域分割する。領域分割方法には一般的な画像分割手法、例えば、平均値シフト(Mean shift)法やファジィc-平均法、ウォータシェッド(Watersheds)法などを用いればよい。
次に、ステップS24において、カメラ情報入力部14が多視点画像データのそれぞれの画像データに対応するカメラ情報を読み込む。ここで、カメラ情報にはカメラの位置(x,y,z)とカメラの傾き(Yaw,Pitch,Roll)、倍率(α)が含まれるとする。レンズの歪曲がある場合には歪曲のパラメータがあることが望ましい。
次に、ステップS25において、距離情報推定部15が解像度変換前の多視点画像と解像度変換後の多視点画像の距離情報をステップS24で得られたカメラ情報を用いてそれぞれ推定する。すなわち、距離情報推定部15は、解像度変換前の基準画像と参照画像とを用いた距離推定処理と、解像度変換後の基準画像と参照画像とを用いた距離推定処理とを行う。距離の推定方法は前述のエリアベースの手法でも特徴点ベースの手法でも良い。ここで、解像度が異なる画像を用いる理由は、解像度の違いによって形状推定の結果が異なるためである。
例えば、図4(a)が解像度変換なしの多視点画像を用いた距離推定結果を、図4(b)が解像度変換(例えば解像度2分の1)後の多視点画像を用いた距離推定結果を、距離が推定できた点を白、推定できなかった点を黒で示した図である。輪郭や模様のある部分では解像度変換なしの画像の方が詳細に推定出来ているが、一方で平坦な部分では解像度変換後の画像の方が推定できた領域が大きい。以下、この理由について図5を用いて説明する。図5はアーチ型をした図形を真上からの視点51と斜めからの視点52でそれぞれ見た図である。この図形には特徴点53が存在するものとする。図5(a)は横方向からそれぞれの位置関係を表している。図5(b)は解像度変換なしの画像である。図5(c)は解像度変換後の画像である。この特徴点53の周辺領域54の形状を求める時、図5(b)の解像度変換なしの画像では諧調の変化が滑らかであるため、視点52で視点51の周辺領域54に対応する位置を決めることが難しい。一方、図5(c)の解像度変換後の画像では諧調の変化に段差があるため、その諧調の変化を利用して視点52で視点51の周辺領域54に対応する位置を決めることができる。そのため、画像の平坦な領域では解像度が低い方が形状を求めることができる場合がある。ただし、解像度が低くなると精度も低下するというトレードオフの関係があるため、解像度が低ければ必ず良い結果になる訳ではない。
次に、ステップS26において、距離情報合成部16が解像度変換前の多視点画像の距離情報と、解像度変換後の多視点画像の距離情報とをステップ23で得られた領域分割情報に基づいて合成した距離情報を作成する。この処理の詳細は後述する。
最後に、ステップS27において、距離情報出力部17がステップS27で作成された距離情報を出力する。
<距離情報合成部>
以下では、距離情報合成部16の距離情報の合成処理について、図6のフローチャートと図7の模式図を用いてより詳細に説明する。なお、以下の合成処理は基準画像の全ての画素に対して行う。
まず、ステップS61において、距離情報合成部16は、ステップS25で作成した解像度変換前の多視点画像の距離情報と解像度変換後の多視点画像の距離情報とを読み込む。例えば、入力画像71に対する解像度変換前の距離情報は73、解像度変換後の距離情報は74で示すもののようになる。
次に、ステップS62において、距離情報合成部16は、ステップS22で作成された領域分割情報を読み込む。例えば、入力画像71に対する領域分割画像は72のようになる。
次に、ステップS63において、距離情報合成部16は、解像度変換前の多視点画像の距離情報と解像度変換後の多視点画像の距離情報それぞれに対して精度によって異なる重み係数(以降、精度重み係数と記述)を設定する。これは、例えば、解像度変換後の画像が解像度2分の1だったとき、変換前の精度重み係数(以下、αと記述する)をα=1、変換後の精度重み係数をα=0.25と設定すれば良い。すなわち、部分的に推定できない箇所があり得るものの、解像度の高い画像を用いて距離推定した方が、解像度の低い画像を用いて距離推定するよりも全体的な精度は高いと考えられる。よって、上記のよう精度重み係数の設定を行う。重みの設定はこれに限らない。
次に、ステップS64において、距離情報合成部16は、注目画素の距離情報算出のための周辺距離情報の重みフィルタ係数(以降、空間重みフィルタ係数と記述)を算出する。これは、例えば、下式のようなガウス関数の重み係数を設定すれば良い。
f(x,y;x0,y0)=1/(2π*σ^2)*exp(−1/2*((x-x0)^2/σ^2+ (y-y0)^2/σ^2)) (式5)
ただし、ここでσはガウス関数の標準偏差、注目画素のx,y座標をx0,y0とする。例えば、入力画像71で注目画素を「+」、フィルタ範囲を「□」で示すと空間重みフィルタは75のように表せる。この空間重みフィルタ係数は、注目画素に近いほど重みを重くしている。
次に、ステップS65において、距離情報合成部16は、注目画素の領域分割情報と周辺画素の領域分割情報とを比較し、重み係数(以降、領域重み係数と記述)を算出する。これは、例えば、下式のようなガウス関数の重み係数を設定すれば良い。
g(x,y;x0,y0)=1/(sqrt(2π)*σ)*exp(−1/2*((S(x,y)-S(x0,y0))^2/σ^2)) (式6)
ただし、ここで、S(x,y)は座標x,yでの領域分割画像の値を表す。標準偏差σは式5と異なる値でも良い。例えば、空間重みフィルタ75と同様に領域分割画像72上に領域分割重みフィルタを表すと76のように表せる。領域重み係数は、例えば分割された領域の色が類似する領域については、重みを重くしている。
次に、ステップS66において、距離情報合成部16は、算出した精度重み係数と空間重み係数と領域重み係数とを乗算して、距離合成の重み係数(以降、合成重み係数と記述)を算出する。これは、下式のような関数になる。
h(x,y;x0,y0)=α*f(x,y;x0,y0)*g(x,y;x0,y0) (式7)
例えば、空間重みフィルタ75と同様に表すと、解像度変換前距離情報73の合成重みフィルタは77、解像度変換後距離情報74の合成重みフィルタは78のように表せる。
次に、ステップS67において、注目画素の周辺画素の解像度変換前・後の距離情報と合成重み係数との乗算和を、合成重み係数の和で割って正規化し、それを注目画素の距離情報とする。なお、距離情報73、74のうち距離情報がない領域(黒色の領域)は乗算和にも正規化のための係数和にも含めない。式で記述すると下式のようになる。
ただし、ここで、D1(x,y)は座標x,yでの解像度変換前の距離情報、D2(x,y)は座標x,yでの解像度変換後の距離情報とし、距離情報がない領域ではD1(x,y)=0、D2(x,y)=0となっているとする。
最後に、全画素の処理が終了したかどうかを判定し、終了していなければステップS65に戻り、終了していれば距離情報合成部の処理を終了する。この結果得られる距離情報は図7の合成距離情報79のようになる。距離情報79では、詳細な距離情報73の細部の情報は残しつつ、粗い距離情報74で詳細な距離情報73で抜けている距離情報を補間できている。また、領域情報72を用いて領域内の補間を行うことで、補間してもエッジがぼけることを防ぐ効果がある。
さらに、よりエッジ部分を滑らかにしたい場合、合成距離情報79に対して、領域分割情報72を用いて領域内のスムージングを行った合成距離情報80を作成しても良い。
以上説明した処理を行うことで、被覆率が高く、精度の高い距離推定を行うことが可能となる。
なお、本実施例では、2種類の解像度の距離推定の結果の合成について説明したが、3種以上の合成も信頼度重みを合成する数だけ設定することで2種類の場合と同様に可能である。
また、本実施例では、距離情報の推定に際して複数の視点から得られた画像を用いる例について説明したが、1つの視点で得られた1枚の画像から距離情報を推定する形態を採用してもよい。
また、本実施例では、解像度の異なる画像の距離推定結果の合成の例を示したが、解像度に限らず、精度と被覆率に影響する他のパラメータ、例えば、エリアベースの対応点探索方法の参照範囲の大きさなどが異なる結果であっても良い。
なお、本実施例の構成においては、上記以外にも様々な構成要素が存在し得るが、本実施例の主眼ではないため、その説明は省略する。
実施例1では、距離情報推定部15の解像度や他のパラメータが異なる距離推定結果を合成する例を挙げた。実施例2では異なる距離推定方法、例えば、全体の構図から距離を推定する手法と特徴点の移動速度から距離を推定する手法など推定の基準が異なる距離推定結果を合成する例を挙げる。距離推定方法が異なっても、精度が高く被覆率の低い距離情報と、精度が低く被覆率の高い距離情報の組み合わせであれば実施例1と同様の距離情報の合成が可能である。
<距離情報推定装置>
図8は、実施例2の距離情報推定装置の構成の一例を示す図である。実施例2の距離情報推定装置は、多視点画像データ入力部11と、画像領域分割部13と、カメラ情報入力部14と、距離情報出力部17と、第一距離情報推定部81と、第二距離情報推定部82と、距離情報合成部83とを有する。なお、実施例1と同一の構成とすることができるものについては、図1と同一の符号を付している。
図9は、距離情報推定装置の処理のフロー図である。以下、図8と図9を使って実施例2の距離情報推定装置の処理フローを説明する。
ステップS91とS92〜S93はステップS21とS23〜S24と同様であるため、説明を省略する。
次に、ステップS94において、第一距離情報推定部81が多視点画像の距離情報(以降、第一距離情報と記述)を推定する。
次に、ステップS95において、第二距離情報推定部82が多視点画像の距離情報(以降、第二距離情報と記述)を推定する。
なお、第一距離情報推定部81と第二距離情報推定部82とは、それぞれ異なる距離推定方法を用いるものとする。また、第一距離情報と第二距離情報とは、精度と被覆率が異なる距離推定結果であるとする。ただし、必ずしも画像全面で同じ傾向でなくても良く、例えば、暗い部分では第一距離情報の方の精度が良く、明るい部分では第二距離情報の方の精度が良いなど画像の特徴によって精度の良い距離情報が変わっても良い。
次に、ステップS96において、距離情報合成部83が第一距離情報と第二距離情報とを合成する。距離情報合成部83の処理は後述する。
最後に、ステップS97において、距離情報出力部17がステップS96で合成された距離情報を出力する。
<距離情報合成部>
以下では、距離情報合成部83の距離情報の合成処理について、図10のフローチャートを用いてより詳細に説明する。なお、以下の合成処理は基準画像の全ての画素に対して行う。
まず、ステップS101において、距離情報合成部83は、ステップS94で作成した第一距離情報とステップS95で作成した第二距離情報とを読み込む。
ステップS102はステップS62と同様であるため、説明を省略する。
次に、ステップS103において、距離情報合成部83は、第一距離情報と第二距離情報に対して精度によって異なる重み係数(以降、精度重み係数と記述)を設定する。精度重み係数は、画面全体で第一距離情報と第二距離情報の精度の優劣の傾向が同じならば、精度が良い方の重みを上げれば良い。また、画像の特徴によって精度の優劣の傾向が異なるならば、画面内で画像の特徴に従って異なる精度係数を設定してもよい。
ステップS104〜S106はステップS64〜S66と同様であるため、説明を省略する。
次に、ステップS107において、距離情報合成部83は、注目画素の周辺画素の第一距離情報と第二距離情報それぞれとの合成重み係数の乗算和を、合成重み係数の和で割って正規化し、それを注目画素の距離情報とする。なお、第一距離情報、第二距離情報のうち距離データが存在しない領域の値は乗算和にも正規化のための係数和にも含めない。
最後に、距離情報合成部83は、全画素の処理が終了したかどうかを判定し、終了していなければステップS105に戻り、終了していれば距離情報合成部の処理を終了する。
以上説明した処理を行うことで、異なる距離推定方法の結果においても、被覆率が高く、精度の高い距離推定を行うことが可能となる。
なお、本実施例では、2種類の解像度の距離推定の結果の合成の説明をしたが、3種以上の合成も信頼度重みを合成する数だけ設定することで2種類の場合と同様に可能である。
本実施例の構成においては、上記以外にも様々な構成要素が存在し得るが、本発明の主眼ではないため、その説明は省略する。
以上が、距離情報推定装置の構成の一例についての説明である。なお、上記説明した、距離情報推定装置には、コンピュータが組み込まれていても良い。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、キーボード、マウス、ディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備される。なお、これら各構成手段は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. 第一の解像度を有する第一の画像データを取得する第一の取得手段と、
    前記第一の画像データと同じシーンに対応する、第二の解像度を有する第二の画像データを取得する第二の取得手段と、
    前記第一の画像データを用いて、前記シーンにおける被写体の距離に関する第一の距離情報を推定し、前記第二の画像データを用いて、前記被写体の距離に関する第二の距離情報を推定する距離情報推定手段と、
    前記第一の距離情報と前記第二の距離情報とを合成する距離情報合成手段と
    を有し、
    前記距離情報合成手段は、
    前記第一の解像度および前記第二の解像度に基づいて、前記第一の距離情報および前記第二の距離情報に対する合成の重み係数を設定し、
    前記第一の解像度および前記第二の解像度に基づいて設定された前記重み係数を用いて前記第一の距離情報および前記第二の距離情報を合成することを特徴とする距離情報推定装置。
  2. 前記距離情報推定手段は、前記第一の画像データおよび前記第二の画像データに対応するカメラ情報に基づいて前記第一の距離情報および前記第二の距離情報を推定することを特徴とする請求項1に記載の距離情報推定装置。
  3. 前記距離情報合成手段は、前記第一の画像データが示す第一の画像および前記第二の画像データが示す第二の画像の領域を分割して得られる領域分割情報に基づいて前記第一の距離情報および前記第二の距離情報を合成することを特徴とする請求項1または2に記載の距離情報推定装置。
  4. 前記距離情報合成手段は、前記領域分割情報に基づいて合成の重み係数を設定することを特徴とする請求項3に記載の距離情報推定装置。
  5. 前記距離情報合成手段は、前記第一の距離情報および前記第二の距離情報のそれぞれの精度に基づいて合成の重み係数を設定することを特徴とする請求項1から4のいずれかに記載の距離情報推定装置。
  6. 前記第一の画像データおよび前記第二の画像データは、複数の視点から得られた多視点画像を示す画像データであることを特徴とする請求項1からのいずれかに記載の距離情報推定装置。
  7. 前記距離情報合成手段は、
    前記第一の解像度が前記第二の解像度よりも大きい場合、前記第一の距離情報に対する重み係数を前記第二の距離情報に対する重み係数よりも大きく設定し、
    前記第二の解像度が前記第一の解像度よりも大きい場合、前記第二の距離情報に対する重み係数を前記第一の距離情報に対する重み係数よりも大きく設定することを特徴とする請求項に記載の距離情報推定装置。
  8. 画像データと、前記画像データの解像度を変換した解像度変換画像データとを取得する取得手段と、
    前記画像データが示す画像における被写体の距離に関する第一の距離情報と前記解像度変換画像データが示す解像度変換画像における前記被写体の距離に関する第二の距離情報とをそれぞれ推定する距離情報推定手段と、
    前記画像データの第一の解像度および前記解像度変換画像データの第二の解像度に基づいて、前記第一の距離情報および前記第二の距離情報に対する合成の重み係数を設定し、前記設定された重み係数を用いて前記第一の距離情報と前記第二の距離情報とを合成する距離情報合成手段と
    を有し、
    前記取得手段は2種類以上の異なる解像度で2種類以上の解像度変換画像データを取得し、
    前記距離情報推定手段は2種類以上の前記第二の距離情報を推定し、
    前記距離情報合成手段は2種類以上の前記第二の距離情報に対する合成の重み係数を設定して、2種類以上の前記第二の距離情報を用いて合成することを特徴とする距離情報推定装置。
  9. 第一の解像度を有する第一の画像データを取得する第一の取得ステップと、
    前記第一の画像データと同じシーンに対応する、第二の解像度を有する第二の画像データを取得する第二の取得ステップと、
    前記第一の画像データを用いて、前記シーンにおける被写体の距離に関する第一の距離情報を推定し、前記第二の画像データを用いて、前記被写体の距離に関する第二の距離情報を推定する距離情報推定ステップと、
    前記第一の距離情報と前記第二の距離情報とを合成する距離情報合成ステップと
    を有し、
    前記距離情報合成ステップは、
    前記第一の解像度および前記第二の解像度に基づいて、前記第一の距離情報および前記第二の距離情報に対する合成の重み係数を設定し、
    前記第一の解像度および前記第二の解像度に基づいて設定された前記重み係数を用いて前記第一の距離情報および前記第二の距離情報を合成することを特徴とする距離情報推定方法。
  10. 画像データと、前記画像データの解像度を変換した解像度変換画像データとを取得する取得ステップと、
    前記画像データが示す画像における被写体の距離に関する第一の距離情報と前記解像度変換画像データが示す解像度変換画像における前記被写体の距離に関する第二の距離情報とをそれぞれ推定する距離情報推定ステップと、
    前記画像データの第一の解像度および前記解像度変換画像データの第二の解像に基づいて、前記第一の距離情報および前記第二の距離情報に対する合成の重み係数を設定し、前記設定された重み係数を用いて前記第一の距離情報と前記第二の距離情報とを合成する距離情報合成ステップと
    を有し、
    前記取得ステップは2種類以上の異なる解像度で2種類以上の解像度変換画像データを取得し、
    前記距離情報推定ステップは2種類以上の前記第二の距離情報を推定し、
    前記距離情報合成ステップは2種類以上の前記第二の距離情報に対する合成の重み係数を設定し、2種類以上の前記第二の距離情報を用いて合成することを特徴とする距離情報推定方法。
  11. コンピュータを、請求項1からのいずれか一項に記載の距離情報推定装置の各手段として機能させるためのプログラム。
JP2012191315A 2012-08-31 2012-08-31 距離情報推定装置 Active JP5995614B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012191315A JP5995614B2 (ja) 2012-08-31 2012-08-31 距離情報推定装置
US13/973,321 US9243935B2 (en) 2012-08-31 2013-08-22 Distance information estimating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012191315A JP5995614B2 (ja) 2012-08-31 2012-08-31 距離情報推定装置

Publications (3)

Publication Number Publication Date
JP2014048896A JP2014048896A (ja) 2014-03-17
JP2014048896A5 JP2014048896A5 (ja) 2015-07-30
JP5995614B2 true JP5995614B2 (ja) 2016-09-21

Family

ID=50187027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012191315A Active JP5995614B2 (ja) 2012-08-31 2012-08-31 距離情報推定装置

Country Status (2)

Country Link
US (1) US9243935B2 (ja)
JP (1) JP5995614B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5995614B2 (ja) * 2012-08-31 2016-09-21 キヤノン株式会社 距離情報推定装置
JP2016015567A (ja) * 2014-07-01 2016-01-28 株式会社東芝 電子機器、処理方法およびプログラム
WO2021176873A1 (ja) * 2020-03-03 2021-09-10 ソニーグループ株式会社 情報処理装置と情報処理方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266128A (ja) * 2000-03-21 2001-09-28 Nippon Telegr & Teleph Corp <Ntt> 奥行き情報取得方法,装置および奥行き情報取得プログラムを記録した記録媒体
JP4392507B2 (ja) 2006-11-08 2010-01-06 国立大学法人東京工業大学 3次元サーフェス生成方法
US8331615B2 (en) 2007-08-01 2012-12-11 The Board Of Trustees Of The University Of Illinois Match, expand, and filter technique for multi-view stereopsis
JP5214811B2 (ja) * 2009-11-13 2013-06-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
US8153971B2 (en) * 2009-11-23 2012-04-10 Flir Systems Ab Camera with two visual imaging subsystems for determining parallax and for focusing an IR imaging subsystem
US8229172B2 (en) * 2009-12-16 2012-07-24 Sony Corporation Algorithms for estimating precise and relative object distances in a scene
US8878773B1 (en) * 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
JP5238767B2 (ja) 2010-07-26 2013-07-17 株式会社東芝 視差画像生成方法及び装置
JP5632762B2 (ja) * 2011-01-25 2014-11-26 パナソニック株式会社 測位情報形成装置、検出装置、及び測位情報形成方法
JP2012191486A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置
JP6112824B2 (ja) * 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
JP2014048714A (ja) * 2012-08-29 2014-03-17 Canon Inc 画像処理装置及び画像処理方法
JP5995614B2 (ja) * 2012-08-31 2016-09-21 キヤノン株式会社 距離情報推定装置

Also Published As

Publication number Publication date
JP2014048896A (ja) 2014-03-17
US9243935B2 (en) 2016-01-26
US20140063235A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
JP5762142B2 (ja) 撮像装置、画像処理装置およびその方法
JP5818514B2 (ja) 画像処理装置および画像処理方法、プログラム
CN111739146B (zh) 物体三维模型重建方法及装置
US9412151B2 (en) Image processing apparatus and image processing method
US20150097827A1 (en) Target Region Fill Utilizing Transformations
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10957062B2 (en) Structure depth-aware weighting in bundle adjustment
JP4737763B2 (ja) 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2009116532A (ja) 仮想視点画像生成方法および仮想視点画像生成装置
WO2015156149A1 (ja) 画像処理装置および画像処理方法
TW201921318A (zh) 用於產生場景之舖磚式三維影像表示之設備及方法
JP4631973B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP2016213574A (ja) 画像処理装置及び画像処理装置の制御方法
CN107077719B (zh) 数码照片中基于深度图的透视校正
JP5995614B2 (ja) 距離情報推定装置
CN108028904A (zh) 移动设备上光场增强现实/虚拟现实的方法和系统
CN117671031A (zh) 双目相机标定方法、装置、设备及存储介质
JP5194566B2 (ja) 画像処理装置、画像処理システム及び制御プログラム
JP4775903B2 (ja) 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
WO2013089183A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
JP2009146150A (ja) 特徴位置検出方法及び特徴位置検出装置
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP4925112B2 (ja) 自由視点画像の生成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150611

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160823

R151 Written notification of patent or utility model registration

Ref document number: 5995614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151