JP5954668B2 - 画像処理装置、撮像装置および画像処理方法 - Google Patents

画像処理装置、撮像装置および画像処理方法 Download PDF

Info

Publication number
JP5954668B2
JP5954668B2 JP2013521322A JP2013521322A JP5954668B2 JP 5954668 B2 JP5954668 B2 JP 5954668B2 JP 2013521322 A JP2013521322 A JP 2013521322A JP 2013521322 A JP2013521322 A JP 2013521322A JP 5954668 B2 JP5954668 B2 JP 5954668B2
Authority
JP
Japan
Prior art keywords
image
reliability
depth map
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013521322A
Other languages
English (en)
Other versions
JPWO2013054499A1 (ja
Inventor
育規 石井
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2013054499A1 publication Critical patent/JPWO2013054499A1/ja
Application granted granted Critical
Publication of JP5954668B2 publication Critical patent/JP5954668B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20008Globally adaptive

Description

本発明は、多視点画像を利用してデプスマップを作成する技術に関する。
近年、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子(以下、「撮像素子」と称する場合がある。)を用いたデジタルスチルカメラやデジタルムービーカメラの高機能化および高性能化には目を見張るものがある。特に半導体製造技術の進歩により、固体撮像素子における画素構造の微細化が進んでいる。その結果、固体撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加した。さらに、撮像によって得られる画像の質も飛躍的に向上している。
一方、表示装置に関しては、薄型の液晶ディスプレイやプラズマディスプレイが提供されている。液晶ディスプレイやプラズマディスプレイは、場所を取らず、高解像度かつ高コントラストな画像を表示することができ、高い性能を実現することができる。このような画像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。最近では、偏光メガネを用いて高画質な3次元画像を表示する3次元表示装置が開発され始めている。
また、代表的な3次元撮像技術として、2つのカメラから構成される撮像系を用いて、ステレオ画像(左画像および右画像)を取得する技術がある。このように取得されたステレオ画像を用いて、撮影シーンのデプスマップを作成する方法が提案されている。例えば、左画像および右画像において同じ対象物が写っている画素のペアを求め、求められた画素のペア間の画素位置のずれ量(視差)を用いて、三角測量の原理によってカメラから対象物までの距離(奥行き)を求めることにより、デプスマップを作成する。
このように作成されたデプスマップは、3次元画像の奥行き感の調整、あるいは奥行きに応じたぼかし処理などに利用される。例えば、奥行きが大きい領域ほどぼけ量が多くなるように3次元画像にぼかし処理を行うことができる。
特開2010−128608号公報 特開2010−128622号公報 特開2003−187261号公報
「新編 画像解析ハンドブック」(高木幹夫・下田陽久監修、東京大学出版会刊、2004年9月)、p.1289−1435 "An Experimental Comparison of Min−Cut/Max−Flow Algorithms for Energy Minimization in Vision"(2004),Yuri Boykov,Vladimir Kolmogorov,IEEE Transactions on Pattern Analysis and Machine Intelligence David G.Lowe,"Object recognition from local scale−invariant features," ICCV 1999. David G. Lowe,"Distinctive Image Features from Scale−Invariant Keypoints",International Journal of Computer Vision,60,2,pp.91−110,2004.
しかしながら、上記従来の方法では、奥行きを正確に求めることができずに、デプスマップの精度が大きく低下する場合がある。
そこで、本発明は、多視点画像を利用してデプスマップを作成する場合に、デプスマップの精度が大きく低下することを抑制することができる画像処理装置を提供する。
本発明の一態様に係る画像処理装置は、多視点画像を利用してデプスマップを作成する画像処理装置であって、前記多視点画像に対してエッジ検出またはコーナー検出を行うことにより、前記多視点画像に含まれる複数の画像の各々から少なくとも1つの特徴点を検出する検出部と、検出された前記特徴点の特徴量の類似性に基づいて、前記多視点画像に含まれる複数の画像間で対応する前記特徴点の組を対応点として導出する導出部と、導出された前記対応点に基づいて、デプスマップを作成する上での前記多視点画像に含まれる複数の画像間の対応関係の信頼度を算出する算出部と、算出された前記信頼度が閾値より高い第1信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成し、算出された前記信頼度が前記閾値以下の第2信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する作成部とを備える。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の一態様に係る画像処理装置は、多視点画像を利用してデプスマップの作成する場合に、デプスマップの精度が大きく低下することを抑制することができる。
図1は、実施の形態1に係る画像処理システムの構成を示す。 図2は、実施の形態1に係る画像処理装置の機能構成を示すブロック図である。 図3は、実施の形態1における画像処理装置の処理動作を示すフローチャートである。 図4は、実施の形態2に係る撮像装置の構成を示す。 図5は、実施の形態2に係る画像処理部の機能構成を示すブロック図である。 図6は、実施の形態2に係る画像処理部がデプスマップを作成する処理を示すフローチャートである。 図7は、実施の形態2におけるステレオ画像の平行化を説明するための図である。 図8は、実施の形態2における射影変換を説明するための図である。 図9は、実施の形態2におけるマッチング処理を説明するための図である。
(本発明の基礎となった知見)
特許文献1および特許文献2には、左画像および右画像において同じ対象物が写っている画素のペアを求める方法の1つとして、左画像および右画像間における局所領域の類似性を用いる方法が開示されている。この方法では、右画像において相関窓を移動させながら、左画像に設定された相関窓(局所領域)内の画素値パターンと最も類似する画素値パターンを有する相関窓の位置を探索することにより、左画像および右画像において同じ対象物が写っている画素のペアを求める。
また、特許文献3には、左画像および右画像において同じ対象物が写っている画素のペアを求める方法の他の1つとして、グラフカット法に代表される大域最適化に基づく方法が開示されている。この方法では、左画像および右画像間における局所領域の類似性と、デプスマップにおいて隣接する画素間における視差の変化の滑らかさ(視差分布の空間的な平滑性)とに基づいて、左画像および右画像において同じ対象物が写っている画素のペアを求める。具体的には、局所領域の類似性を表すデータ項と視差分布の空間的な平滑性を表す平滑化項とによって定義されたエネルギー関数が最小となる視差を求めることにより、デプスマップを作成する。グラフカットでは、各画素をグラフ構造とみなし、データ項と平滑化項とで算出されるエネルギーをグラフのノード間の重みとして設定する。そのグラフの最大流問題(Max−Flow)を解くことで、エネルギーが最小となる視差マップを得ることができる。最大流問題の解法については非特許文献2に記載されている。
しかしながら、上記方法では、左画像および右画像に特徴が少ない場合に、左画像および右画像において同じ対象物が写っている画素のペアを求めることが難しい。例えば、平坦しか存在しないシーン、あるいは、極端にテクスチャが少ないシーン(例えば、屋内の壁や空など)が撮影された場合には、平坦な領域が画像中の大部分を占める。また、カメラや被写体の動きが大きい場合、画像中の大部分が手ぶれや被写体ぶれによるぼやけを有する。これらの画像では、局所領域の類似性に基づいて左画像および右画像において同じ対象物が写っている画素のペアを求めることが難しい。
その結果、左画像および右画像において異なる対象物が写っている画素のペアが同じ対象物が写っている画素のペアとして求められることが多くなる。このように異なる対象物が写っている画素のペアに基づいて視差が算出された場合、デプスマップの精度が大きく低下する。
そこで、本発明の一態様に係る画像処理装置は、多視点画像を利用してデプスマップを作成する画像処理装置であって、前記多視点画像に含まれる複数の画像の各々から少なくとも1つの特徴点を検出する検出部と、検出された前記特徴点に基づいて、デプスマップを作成する上での前記多視点画像に含まれる複数の画像間の対応関係の信頼度を算出する算出部と、算出された前記信頼度が第1信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成し、算出された前記信頼度が前記第1信頼度よりも低い第2信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する作成部とを備える。
この構成によれば、特徴点に基づいて算出された信頼度に応じて、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成するか否かを切り替えることができる。複数の画像間の対応関係の信頼度は特徴点に依存する。例えば、特徴点が検出されないような平坦領域のみからなる複数の画像からは、正確な対応関係を得ることが難しい。したがって、特徴点に基づいて算出された信頼度に応じて、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成するか否かを切り替えることにより、不正確な対応関係を用いてデプスマップが作成されることを減少させることができる。その結果、デプスマップの精度が大きく低下することを抑制することができる。
例えば、前記画像処理装置は、さらに、前記多視点画像に含まれる複数の画像間で対応する前記特徴点の組を対応点として導出する導出部を備え、前記算出部は、前記対応点に基づいて前記信頼度を算出してもよい。
この構成によれば、対応点に基づいて信頼度を算出することができる。複数の画像間の対応関係の信頼度は対応点の正確さに依存するので、より適切に信頼度を算出することが可能となる。その結果、デプスマップの精度が大きく低下することをさらに抑制することができる。
例えば、前記画像処理装置は、さらに、導出された少なくとも4つの対応点を用いて、前記多視点画像に含まれる第1画像を前記多視点画像に含まれる第2画像に射影変換するための変換パラメータを算出し、前記変換パラメータを用いて前記第1画像を変換する変換部を備え、前記算出部は、変換された前記第1画像の前記第2画像に対する誤差が小さいほど信頼度が高くなるように前記信頼度を算出してもよい。
この構成によれば、少なくとも4つの対応点を用いて第1画像を第2画像に射影変換するための変換パラメータを算出することができる。そして、このように算出された変換パラメータを用いて変換された第1画像の第2画像に対する誤差に基づいて信頼度を算出することができる。導出された対応点が正確であれば、変換された第1画像の第2画像に対する誤差は小さくなる。したがって、より適切に信頼度を算出することができ、デプスマップの精度が大きく低下することをさらに抑制することができる。
例えば、前記変換部は、導出されたN(N≧5)個の対応点から選択された互いに組合せが異なる複数組のM(4≦M<N)個の対応点を用いて複数の変換パラメータをそれぞれ算出し、前記複数の変換パラメータを用いて前記第1画像を複数の変換された第1画像にそれぞれ変換し、前記算出部は、前記複数の変換された第1画像と前記第2画像との差分の二乗平均、絶対値平均、二乗和、および絶対値和のいずれかを前記誤差として算出し、前記誤差が小さいほど信頼度が高くなるように前記信頼度を算出してもよい。
この構成によれば、複数組のM個の対応点を用いて複数の変換された第1画像を得ることができる。そして、複数の変換された第1画像を用いて信頼度を算出することができる。したがって、安定的に信頼度を算出することができ、デプスマップの精度が大きく低下することをさらに抑制することができる。
例えば、前記検出部は、エッジを前記特徴点として検出し、前記算出部は、前記第2画像のうち、検出された前記エッジの強度が閾値を超える領域のみから、変換された前記第1画像の前記第2画像に対する誤差を算出してもよい。
この構成によれば、エッジが強い領域のみから誤差を算出することができる。エッジが強い領域は、複数の画像間の対応関係が得やすい領域である。したがって、確実に対応関係を得たい領域について信頼度を算出することができ、信頼度を算出するための負荷を低減することもできる。
例えば、前記算出部は、前記多視点画像に含まれる複数の画像の各々から検出された特徴点が多いほど信頼度が高くなるように前記信頼度を算出してもよい。
この構成によれば、特徴点の数に基づいて信頼度を算出することができる。特徴点が多いことは、画像が多くの特徴を有することを意味する。したがって、特徴点が多いほど信頼度が高くなるように信頼度を算出することにより、適切にかつ簡易に信頼度を算出することが可能となる。
例えば、前記算出部は、前記多視点画像に含まれる複数の画像の各々から検出された複数の特徴点の分布の中心が画像の中心に近いほど信頼度が高くなるように前記信頼度を算出してもよい。
この構成によれば、複数の特徴点の分布の中心が画像の中心に近いほど信頼度が高くなるように信頼度を算出することができる。画像の端の領域ほど、レンズ歪などの外乱によるノイズの影響を受けやすい。そのため、特徴点が画像全体に均等に散らばっており、かつ、特徴点集合の重心が画像の中心に近いほど、特徴点は、平均的に外乱の影響を受けにくい位置にあると考えることができる。したがって、特徴点の分布の中心と画像の中心との距離が近いほど信頼度が高くなるように信頼度を算出することにより、適切にかつ簡易に信頼度を算出することができる。
例えば、前記検出部は、前記多視点画像に含まれる複数の画像の各々からエッジを前記特徴点として検出し、前記算出部は、前記多視点画像に含まれる複数の画像の各々から検出された前記エッジの強度が高いほど信頼度が高くなるように前記信頼度を算出してもよい。
この構成によれば、エッジの強度に基づいて信頼度を算出することができる。エッジの強度が高いことは、画像が多くの特徴を有することを意味する。したがって、エッジの強度が高いほど信頼度が高くなるように信頼度を算出することにより、適切にかつ簡易に信頼度を算出することが可能となる。
例えば、前記作成部は、算出された前記信頼度が前記第1信頼度である場合に、局所領域の類似性に基づいて前記多視点画像に含まれる複数の画像間における視差を算出することにより、前記デプスマップを作成してもよい。
この構成によれば、信頼度が高い場合に、局所領域の類似性に基づいて視差を算出することにより、正確なデプスマップを作成することができる。
例えば、前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記多視点画像に含まれる1つの画像における幾何的な情報、色の情報、および物体の動き情報のうちの少なくとも1つを利用して奥行きを推定することにより、前記デプスマップを作成してもよい。
この構成によれば、信頼度が低い場合に、1つの画像から奥行きを推定することにより、デプスマップを作成することができる。したがって、複数の画像間の不正確な対応関係を用いてデプスマップが作成されることを抑制することができ、デプスマップの精度が大きく低下することを抑制することが可能となる。
例えば、前記多視点画像は、多視点動画像に含まれており、前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記多視点動画像に含まれる他の多視点画像であって前記多視点画像とは時間的に異なる他の多視点画像を用いて作成されたデプスマップを用いて前記多視点画像におけるデプスマップを作成してもよい。
この構成によれば、信頼度が低い場合に、他の多視点画像を用いて作成されたデプスマップを用いて、デプスマップを作成することができる。したがって、デプスマップの急激な時間変化を減らすことが可能となり、より適切にデプスマップを作成することができる。
例えば、前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記他の多視点画像間における局所領域の対応関係を用いて作成されたデプスマップと、前記多視点画像に含まれる1つの画像における幾何的な情報、色の情報、および物体の動き情報のうちの少なくとも1つを利用して推定される奥行きとの両方を用いて前記デプスマップを作成してもよい。
この構成によれば、信頼度が低い場合に、他の多視点画像を用いて作成されたデプスマップと、処理対象の多視点画像から推定されて奥行きとの両方を用いて、デプスマップを作成することができる。したがって、複数の画像間の対応関係を用いずにデプスマップを作成する場合に、デプスマップの精度を向上させることができる。
例えば、前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記他の多視点画像間における局所領域の対応関係を用いて作成されたデプスマップを前記多視点画像におけるデプスマップとして採用してもよい。
この構成によれば、信頼度が低い場合に、他の多視点画像を用いて作成されたデプスマップをそのまま処理対象の多視点画像におけるデプスマップとして採用することができる。したがって、より簡易にデプスマップを作成することができる。
例えば、前記多視点画像はステレオ画像であり、前記画像処理装置は、さらに、前記ステレオ画像においてエピポーララインが平行になるように前記ステレオ画像を平行化する変換部を備え、前記算出部は、算出された前記信頼度が前記第1信頼度である場合に、平行化された前記ステレオ画像間の対応関係を用いてデプスマップを作成してもよい。
この構成によれば、ステレオ画像の平行化を行うことができる。したがって、ステレオ画像間の対応関係を水平方向の関係に限定することができ、処理負荷を低減することが可能となる。
また、本発明の一態様に係る撮像装置は、上記画像処理装置と、前記多視点画像を撮影する撮像部とを備える。
この構成によれば、上記画像処理装置と同様の効果を奏することができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、請求の範囲を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
また、以下において必要以上に詳細な説明を省略する場合がある。例えば、既によく知られた事項の詳細説明あるいは実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
また、本明細書において、画像を示す信号または情報を単に「画像」と称する場合がある。
(実施の形態1)
図1は、実施の形態1に係る画像処理システムの構成を示す。この画像処理システムは、画像処理装置10と、撮像装置20とを備える。
画像処理装置10は、例えばネットワークに接続されたサーバである。画像処理装置10は、撮像装置20から多視点画像を受信する。なお、画像処理装置10は、1つのサーバによって実現されなくてもよく、クラウドサーバによって実現されてもよい。
撮像装置20は、例えば、デジタルスチルカメラ、デジタルビデオカメラまたはカメラ機能付き携帯端末などである。撮像装置20は、多視点画像を撮影する。
なお、多視点画像は、互いに異なる視点から略同一のシーンが撮影された複数の画像を含む。多視点画像の一例としては、左画像および右画像を含むステレオ画像がある。なお、多視点画像は、ステレオ画像でなくてもよい。多視点画像は、例えば、左画像、右画像、上画像および下画像の4つの画像を含んでもよい。
<画像処理装置の機能構成>
図2は、実施の形態1に係る画像処理装置10の機能構成を示すブロック図である。この画像処理装置10は、多視点画像を用いてデプスマップを作成する。
デプスマップとは、撮影シーンの奥行きを示す情報である。例えば、デプスマップは、奥行きを示す値を画素値として有する画像である。なお、デプスマップは、画素ごとではなく、複数の画素からなるブロックごとに奥行きを示す値を有してもよい。
奥行きを示す値は、例えば、カメラから対象物までの距離である。なお、奥行きを示す値は、カメラから対象物までの距離でなくてもよい。例えば、奥行きを示す値は、基準となる平面から対象物までの距離であってもよい。また例えば、奥行きを示す値は、多視点画像間における視差を示す値であってもよい。
図2に示すように、画像処理装置10は、検出部11と、算出部12と、作成部13とを備える。以下に、これらの各部について詳細に説明する。
検出部11は、多視点画像に含まれる複数の画像の各々から少なくとも1つの特徴点を検出する。具体的には、検出部11は、多視点画像に含まれる各画像において、例えばエッジ検出あるいはコーナー検出などを行うことにより、少なくとも1つの特徴点を検出する。
算出部12は、検出された特徴点に基づいて、デプスマップを作成する上での多視点画像に含まれる複数の画像間の対応関係の信頼度を算出する。この信頼度が高いほど、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップが作成された場合に正確なデプスマップが得られる可能性が高くなることを示す。なお、複数の画像間の対応関係とは、複数の画像間における局所領域(例えば、画素または画素の集合)の相関を意味する。
具体的には、算出部12は、例えば、多視点画像に含まれる複数の画像の各々から検出された特徴点が多いほど信頼度が高くなるように信頼度を算出する。特徴点が多いことは、画像が多くの特徴を有することを意味する。したがって、算出部12は、特徴点が多いほど信頼度が高くなるように信頼度を算出することにより、適切にかつ簡易に信頼度を算出することができる。
また例えば、算出部12は、多視点画像に含まれる複数の画像の各々から検出された特徴点の画像中心からの距離が小さいほど信頼度が高くなるように信頼度を算出してもよい。画像の端の領域ほど、レンズ歪などの外乱によるノイズの影響を受けやすい。そのため、特徴点が画像全体に均等に散らばっており、かつ、特徴点集合の重心が画像の中心に近いほど、特徴点は、平均的に外乱の影響を受けにくい位置にあると考えることができる。したがって、算出部12は、特徴点の分布の中心と画像の中心との距離が近いほど信頼度が高くなるように信頼度を算出することにより、適切にかつ簡易に信頼度を算出することができる。
また例えば、算出部12は、検出部11がエッジを検出する場合には、多視点画像に含まれる複数の画像の各々から検出されたエッジの強度が高いほど信頼度が高くなるように信頼度を算出してもよい。これにより、算出部12は、適切にかつ簡易に信頼度を算出することができる。これは、エッジの強度が高いことは、画像が多くの特徴を有することを意味するからである。
作成部13は、算出された信頼度に基づいて、多視点画像における撮影シーンのデプスマップを作成する。ここでは、作成部13は、算出された信頼度に応じてデプスマップの作成方法を切り替える。
具体的には、算出された信頼度が第1信頼度である場合に、作成部13は、多視点画像に含まれる複数の画像間における対応関係を用いてデプスマップを作成する。例えば、作成部13は、多視点画像に含まれる複数の画像間においてマッチング処理を行うことにより、複数の画像間における視差を算出する。つまり、作成部13は、多視点画像に含まれる複数の画像間において互いに類似する局所領域を探索することにより、複数の画像間における視差を算出する。そして、作成部13は、複数の画像間における視差に対応する奥行きを算出することによりデプスマップを作成する。
一方、算出された信頼度が第1信頼度よりも低い第2信頼度である場合には、作成部13は、多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する。例えば、作成部13は、多視点画像に含まれる1つの画像から奥行きを推定することによりデプスマップを生成する。つまり、作成部13は、多視点画像に含まれる複数の画像間においてマッチング処理を行わずにデプスマップを作成する。
<画像処理装置の処理動作>
次に、以上のように構成された画像処理装置10の各種動作について説明する。図3は、実施の形態1における画像処理装置10の処理動作を示すフローチャートである。
まず、検出部11は、多視点画像に含まれる各画像から少なくとも1つの特徴点を検出する(S11)。そして、算出部12は、特徴点に基づいて信頼度を算出する(S12)。次に、作成部13は、信頼度を閾値と比較する(S13)。この閾値は、複数の画像間の対応関係を用いてデプスマップを作成するか否かを判定する基準となる信頼度のレベルを示す。
ここで、信頼度が閾値より高い場合(S13のYes)、作成部13は、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成する(S14)。つまり、ステップS12において算出された信頼度が閾値より高い第1信頼度である場合に、作成部13は、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成する。
一方、信頼度が閾値より高くない場合(S13のNo)、作成部13は、多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する(S15)。つまり、ステップS12において算出された信頼度が、閾値以下の(つまり第1信頼度より低い)第2信頼度である場合、多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する。
以上のように、本実施の形態に係る画像処理装置10によれば、特徴点に基づいて算出された信頼度に応じて、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成するか否かを切り替えることができる。複数の画像間の対応関係の信頼度は特徴点に依存する。例えば、特徴点が検出されないような平坦領域のみからなる複数の画像からは、正確な対応関係を得ることが難しい。したがって、画像処理装置10は、特徴点に基づいて算出された信頼度に応じて、多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成するか否かを切り替えることにより、不正確な対応関係を用いてデプスマップが作成されることを減少させることができる。その結果、画像処理装置10は、デプスマップの精度が大きく低下することを抑制することができる。
(実施の形態2)
次に、実施の形態2について説明する。本実施の形態では、撮像装置が画像処理装置の機能を有する場合について説明する。
<撮像装置の全体構成>
図4は、実施の形態2に係る撮像装置1000の構成を示す。本実施の形態に係る撮像装置1000は、例えば、デジタル式の電子カメラである。撮像装置1000は、撮像部100aと、撮像部100bと、信号処理部200とを備える。
撮像部100aおよび撮像部100bは、互いに異なる視点から同一シーンを撮影することにより、ステレオ画像を生成する。撮像部100aおよび撮像部100bは、例えば、人間の眼の間の距離(約6.5cm)だけ離れて配置される。また例えば、撮像装置1000が狭い空間内に設置される必要がある場合には、撮像部100aおよび撮像部100bは、人間の眼の間の距離よりも狭い間隔で配置されてもよい。
図4に示すように、撮像部100aおよび撮像部100bの各々は、撮像素子101、透光板102、光学レンズ103、赤外カットフィルタ104、信号発生/受信部105、および、素子駆動部106を備える。
撮像素子101は、例えばCCDイメージセンサあるいはCMOSイメージセンサなどの固体撮像素子である。撮像素子101は、透光板102、光学レンズ103、および、赤外カットフィルタ104によって形成された光学像を電気信号に変換する。
なお、撮像素子101のサイズあるいは解像度は、撮影用途に適するように適宜決定されればよい。例えば、夜間など暗い環境で撮影が多く行われる場合には、解像度が低く、かつ、画素ピッチ(1画素のサイズ)が大きい撮像素子が用いられればよい。これにより、撮像装置1000は、被写体を明るく撮影できる。
透光板102は、光学レンズ103を保護するためのカバーである。
光学レンズ103は、対象物からの光を撮像素子101の撮像面上に結像する。
赤外カットフィルタ104は、可視光を透過して、近赤外光をカットする。
信号発生/受信部105は、撮像素子101を駆動するための基本信号を発生する。さらに、信号発生/受信部105は、撮像素子101から出力された信号を受信し、当該信号を信号処理部200に送信する。
素子駆動部106は、信号発生/受信部105によって発生された基本信号に基づいて撮像素子101を駆動する。信号発生/受信部105および素子駆動部106は、例えばCCDドライバなどのLSIから構成されている。
信号処理部200は、メモリ210と、画像処理部220と、インターフェース(IF)部230とを備える。
メモリ210は、例えば、DRAM(Dynamic Randam Access Memory)などの揮発性メモリである。メモリ210は、画像処理に用いられる各種のデータを格納する。例えば、メモリ210は、撮像部100aおよび撮像部100bから出力された信号を一時的に格納する。
画像処理部220は、撮像部100aおよび撮像部100bから出力された信号を処理してステレオ画像を生成する。さらに、画像処理部220は、ステレオ画像からデプスマップを作成する。そして、画像処理部220は、ステレオ画像およびデプスマップを含む画像データをインターフェース部230に出力する。
なお、画像処理部220は、公知のデジタル信号プロセッサ(DSP:Digital Signal Processor)などのハードウェアと、画像処理を実行するソフトウェアとの組合せによって実現され得る。
インターフェース部230は、画像処理部220によって生成された画像データを記録媒体(図示しない)あるいは表示部(図示しない)に出力する。
なお、本実施の形態に係る撮像装置1000は、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本実施の形態に係る撮像装置1000の理解に特に必要でないため省略する。
なお、撮像装置1000は、図4に示すような2つの撮像部を備えなくてもよい。例えば、撮像装置1000は、移動可能な1つの撮像部を備えてもよい。この場合、1つの撮像部によってステレオ画像が撮影される。
<画像処理部の機能構成>
次に、画像処理部220におけるデプスマップの作成に関して説明する。
図5は、実施の形態2に係る画像処理部220の機能構成を示すブロック図である。具体的には、図5は、デプスマップの作成に関する機能の構成を示す。画像処理部220は、対応点算出部221と、信頼度算出部222と、作成部223とを備える。
対応点算出部221は、ステレオ画像に含まれる左画像および右画像間で対応する特徴点のペアを対応点として導出する。対応点算出部221は、検出部221aと、導出部221bとを備える。
検出部221aは、左画像および右画像の各々から複数の特徴点を検出する。具体的には、検出部221aは、例えばエッジ検出あるいはコーナー検出などを行うことにより、左画像および右画像の各々から複数の特徴点を検出する。
導出部221bは、左画像および右画像間で対応する特徴点のペアを対応点として導出する。具体的には、導出部221bは、例えば、左画像の特徴点ごとに、当該左画像の特徴点が有する特徴量に類似する特徴量を有する右画像の特徴点を探索することにより対応点を導出する。
信頼度算出部222は、導出された対応点に基づいて、デプスマップを作成する上での左画像および右画像間の対応関係の信頼度を算出する。信頼度算出部222は、変換部222aと、算出部222bとを備える。
変換部222aは、ステレオ画像においてエピポーララインが平行になるように、ステレオ画像の平行化(rectification)を行う。具体的には、変換部222aは、左画像および右画像においてエピポーララインが平行となるように、左画像および右画像の少なくとも一方の座標変換を行うことにより、ステレオ画像の平行化を行う。
さらに、変換部222aは、射影変換(homography)を行う。具体的には、変換部222aは、導出された少なくとも4つの対応点を用いて、左画像および右画像の一方(第1画像)を他方(第2画像)に射影変換するための変換パラメータを算出する。そして、変換部222aは、算出された変換パラメータを用いて第1画像を変換する。
なお、変換部222aは、ステレオ画像の平行化を行わなくてもよい。例えば、エピポーララインが平行なステレオ画像が撮影されるように撮像部100aと撮像部100bとが適切に配置されている場合には、ステレオ画像の平行化は行われなくてもよい。
算出部222bは、変換された第1画像の第2画像に対する誤差が小さいほど信頼度が高くなるように信頼度を算出する。
作成部223は、算出された信頼度が第1信頼度である場合に、左画像および右画像間の対応関係を用いてデプスマップを作成する。一方、作成部223は、算出された信頼度が第1信頼度よりも低い第2信頼度である場合に、左画像および右画像間の対応関係を用いずにデプスマップを作成する。作成部223は、処理切替部223aと、ステレオマッチング部223bと、非ステレオマッチング部223cとを備える。
処理切替部223aは、ステレオマッチング部223bにデプスマップを作成させるか、非ステレオマッチング部223cにデプスマップを作成させるかを切り替える。具体的には、処理切替部223aは、信頼度が第1信頼度である場合に、ステレオマッチング部223bにデプスマップを作成させる。一方、処理切替部223aは、信頼度が第2信頼度である場合に、非ステレオマッチング部223cにデプスマップを作成させる。
ステレオマッチング部223bは、左画像および右画像間の対応関係を用いてデプスマップを作成する。具体的には、ステレオマッチング部223bは、例えば、局所領域の類似性に基づいて左画像および右画像間における視差を算出することにより、デプスマップを作成する。
非ステレオマッチング部223cは、左画像および右画像間の対応関係を用いずにデプスマップを作成する。具体的には、非ステレオマッチング部223cは、左画像および右画像の一方における幾何的な情報、色の情報、および物体の動き情報のうちの少なくとも1つを利用して奥行きを推定することによりデプスマップを作成する。
<画像処理部220の処理動作>
次に、以上のように構成された画像処理部220における各種動作について説明する。ここでは、左画像が第1画像であり、右画像が第2画像であるとする。
図6は、実施の形態2に係る画像処理部220がデプスマップを作成する処理を示すフローチャートである。
まず、検出部221aは、左画像および右画像の各々から複数の特徴点を検出する(S101)。ここでは、検出部221aは、例えば、SIFT(Scale−Invariant Feature Transform)あるいはSURF(Speeded Up Robust Features)などにより複数の特徴点を検出する(例えば、非特許文献3を参照)。
導出部221bは、左画像および右画像間で対応する特徴点のペアを対応点として導出する(S102)。具体的には、導出部221bは、例えば、特徴点が有する特徴量の類似性に基づいて対応点を導出する。また例えば、導出部221bは、特徴点を含む局所領域内の画素値パターンの類似性に基づいて対応点を導出してもよい。
変換部222aは、左画像および右画像にアライメント処理を施す(S103)。具体的には、変換部222aは、ステレオ画像の平行化および射影変換を行う。ステレオ画像の平行化および射影変換の詳細は後述する。
そして、算出部222bは、対応点に基づいて、デプスマップの作成する上での左画像および右画像間の対応関係の信頼度を算出する(S104)。具体的には、算出部222bは、変換された第1画像の第2画像に対する誤差が小さいほど信頼度が高くなるように信頼度を算出する。
なお、本実施の形態では、算出部222bは、信頼性が高いほど値が小さい信頼度を算出する。以下において、この信頼性が高いほど値が小さい信頼度を、信頼性が高いほど値が大きい信頼度と区別するために非信頼度と呼ぶ。
処理切替部223aは、算出された非信頼度が閾値未満か否かを判定する(S105)。つまり、処理切替部223aは、信頼度が第1信頼度であるか否かを判定する。
ここで、非信頼度が閾値未満であると判定された場合(S105のYes)、ステレオマッチング部223bは、平行化された左画像および右画像においてステレオマッチング処理を行うことにより、デプスマップを作成する(S106)。ステレオマッチング処理とは、左画像および右画像間の対応関係を導出する処理である。具体的には、ステレオマッチング処理には、局所的な探索窓を用いる方法や大域的なエネルギー関数を用いる方法(例えばグラフカットやBelief Propagationなど)がある。このステレオマッチング処理の詳細は後述する。
一方、非信頼度が閾値以上であると判定された場合(S105のNo)、非ステレオマッチング部223cは、ステレオマッチング処理とは異なる処理によりデプスマップを作成する(S107)。ステレオマッチング処理とは異なる処理とは、左画像および右画像間の対応関係を利用しない処理である。具体的には、ステレオマッチング処理とは異なる処理とは、例えば、左画像および右画像のうちの一方の性質を利用して奥行きを推定する処理(いわゆる2D−3D変換と呼ばれる擬似的な奥行き情報を生成する処理)等である。一般に、擬似的な奥行き情報によって得られる奥行き感は乏しい。しかし、マッチング処理によって正確なデプスマップが作成できない撮影シーンについても、デプスマップを用いて処理された画像が破綻しないようなデプスマップを作成することができる。
以降、図6に示す各ステップに関して、その詳細を説明する。
まず、ステップS103に関して詳しく説明する。ステップS103では、ステレオ画像の平行化と、射影変換とが行われる。まず、ステレオ画像の平行化について説明する。
ステレオカメラで撮影されたステレオ画像(左画像および右画像)は完全に平行であることは稀である。そこで、変換部222aは、まず、ステレオ画像においてエピポーララインを平行に揃えるためにステレオ画像の平行化を行う。本実施の形態では、変換部222aは、非特許文献1に記載された方法に基づいてステレオ画像を平行化する。
図7は、実施の形態2におけるステレオ画像の平行化を説明するための図である。ここでは、対象物Pが撮影された左画像と右画像とが示されている。左画像上の点P’Lに対応する右画像上の点P’Rは、左画像の投影中心OL、右画像の投影中心OR、および点P’Lを有する平面と、右画像の投影面とが交わる直線上に存在する。
この直線をエピポーララインと呼ぶ。また、対象物Pと左画像の投影中心OLと右画像の投影中心ORとを有する平面をエピポーラプレーンと呼ぶ。すなわち、エピポーラプレーンと左画像および右画像のそれぞれの投影面との交線がエピポーララインとなる。
平行化されていないステレオ画像では、エピポーララインは画像の走査線と一致しない。そのため、平行化されていないステレオ画像においてマッチング処理を行う場合、探索範囲が2次元となるので、マッチング処理の計算量が増加する。そこで、本実施の形態では、変換部222aは、探索を簡単化するために、以下に示す方法でステレオ画像の平行化を行う。
まず、変換部222aは、左画像の投影中心OLを原点とし、x’軸およびy’軸がそれぞれuL軸およびvL軸と平行になる座標系(x’,y’,z’)を設定する。この座標系(x’,y’,z’)をモデル座標系と呼ぶ。
モデル座標系では、左画像のセンサの投影中心OLの位置が(0,0,0)となり、左画像のセンサの姿勢が(0,0,0)となる。また、右画像のセンサの投影中心ORの位置は(Bx’,By’,Bz’)となり、右画像のセンサの姿勢は(ω’,φ’,χ’)となる。Bx’を単位長さと定義し、by’=By’/Bx’、bz’=Bz’/Bx’と定義すれば、このモデル座標系とそれぞれの仮想投影面座標系との間の座標変換は、次の式(1)および式(2)のように表される。
Figure 0005954668
Figure 0005954668
この座標変換式における未知数は、右画像に関する(by’,bz’)および(ω’,φ’,χ’)の5個である。この5個の未知数は、次の共面条件式(3)を満足するように決定される。
Figure 0005954668
そこで、まず、変換部222aは、導出部221bによって導出された5つ以上の対応点を用いて、仮想投影面座標を決定する。次に、変換部222aは、決定された仮想投影面座標を用いて、式(3)に最小二乗法を適用することにより、(by’,bz’)および(ω’,φ’,χ’)を決定する。
次に、変換部222aは、以下の式(4)および式(5)に従って左画像L(uL,vL)および右画像R(uR,vR)の座標変換を行うことにより、ステレオ画像の平行化を行う。
Figure 0005954668
Figure 0005954668
この座標変換を行った後の左画像L’(u’L,v’L)および右画像R’(u’R,v’R)は、エピポーララインに沿って再配列された画像となる。これらの2つの画像において対応する画素のペアの垂直方向の座標値は等しくなる(v’L=v’R)。すなわち、これらの2つの画像を用いてマッチング処理を行う場合は、探索範囲は水平方向の走査線上に限定される。したがって、ステレオ画像の平行化によってマッチング処理の負荷を軽減できる。
なお、ここでは中心投影を仮定した平行化処理について述べたが、透視投影あるいは弱透視投影などの場合も撮像系に応じた幾何モデルを用いて同様に平行化処理を行うことができる。
次に、射影変換について説明する。変換部222aは、導出された少なくとも4つの対応点を用いて、第1画像を第2画像に射影変換するための変換パラメータを算出する。そして、変換部222aは、算出された変換パラメータを用いて第1画像を変換する。
図8は、実施の形態2における射影変換を説明するための図である。本実施の形態では、変換部222aは、左画像(第1画像)を、平行化処理が行われた右画像(第2画像)に射影変換するための射影変換行列(ホモグラフィ行列)を変換パラメータとして算出する。この射影変換行列Hは、以下の式(6)を満たす。
Figure 0005954668
変換部222aは、導出された少なくとも4つの対応点の座標を代入して得られる連立方程式を解くことにより、射影変換行列Hを算出する。そして、変換部222aは、このようにして得られた射影変換行列を用いて左画像を変換する。
本実施の形態では、変換部222aは、導出されたN(N≧5)個の対応点から選択された互いに組合せが異なる複数組のM(4≦M<N)個の対応点を用いて複数の射影変換行列をそれぞれ算出する。そして、変換部222aは、複数の射影変換行列を用いて第1画像を複数の変換された第1画像にそれぞれ変換する。
具体的には、変換部222aは、導出されたN個の対応点からK組(K≧2)のM個の対応点を選択する。このK組のM個の対応点は、M個の対応点の組合せが互いに異なる。ただし、K組のM個の対応点は、M個の対応点のすべてが互いに異ならなくてもよい。つまり、K組のM個の対応点は、同一の対応点を含んでもよい。
さらに、変換部222aは、選択されたK組のM個の対応点を用いてK個の射影変換行列Hk(1≦k≦K)をそれぞれ算出する。そして、変換部222aは、K個の射影変換行列Hkを用いて左画像L’をK個の変換された左画像L’kにそれぞれ変換する。
次に、ステップS104の詳細について説明する。
一般的に、対応点には、誤差が含まれる。この対応点の誤差が小さいほど、対応点を用いて算出された射影変換行列を用いて変換された左画像の右画像に対する誤差が小さくなる。つまり、対応点の信頼度が高ければ、変換された左画像の右画像に対する誤差が小さくなる。
また、左画像および右画像間の対応関係の信頼度は、対応点の信頼度に依存する。つまり、対応点の信頼度が高いほど、左画像および右画像間の対応関係の信頼度も高くなる。
そこで、算出部222bは、射影変換行列を用いて変換された左画像の右画像に対する誤差が小さいほど信頼度が高くなるように信頼度を算出する。つまり、算出部222bは、変換された左画像の右画像に対する誤差が大きいほど非信頼度が高くなるように非信頼度を算出する。
具体的には、算出部222bは、K個の変換された左画像L’kの右画像R’に対する誤差の二乗平均、絶対値平均、二乗和、および絶対値和のいずれかが小さいほど信頼度が高くなるように信頼度を算出する。つまり、算出部222bは、K個の変換された左画像L’kの右画像R’に対する誤差の二乗平均、絶対値平均、二乗和、および絶対値和のいずれかが大きいほど非信頼度が高くなるように非信頼度を算出する。
ここで、本実施の形態における信頼度算出の具体例について説明する。まず、算出部222bは、N個の対応点を用いて平行化された右画像R’を取得する。次に、算出部222bは、K組のM個の対応点からそれぞれ算出されたK個の射影変換行列Hkを用いて、左画像L’をK個の変換された左画像L’kに変換する。そして、算出部222bは、右画像R’とK個の変換された左画像L’kとの差分の二乗平均、絶対値平均、二乗和、または絶対値和等を誤差として算出する。
具体的には、算出部222bは、例えば式(7)に示すように、K個の変換された左画像L’kと右画像R’とにおける各画素値の差分の絶対値和を画像数と画素数とで平均化することで、非信頼度Confを算出する。ここで、pixは、画像の画素数を示す。
Figure 0005954668
このように算出された非信頼度は、ステレオ画像に含まれる左画像および右画像間の対応関係の信頼度の低さを表す。
次に、ステップS106の詳細について述べる。ここでは、ステレオマッチング部223bは、左画像および右画像間の対応関係を利用して左画像および右画像間における視差を算出することによりデプスマップを作成する。
具体的には、ステレオマッチング部223bは、例えば、局所領域の類似性に基づいて、左画像および右画像間における視差を算出する。すなわち、ステレオマッチング部223bは、例えばブロックマッチングを行うことにより視差を算出する。
より具体的には、ステレオマッチング部223bは、図9に示すように、平行化されたステレオ画像に含まれる左画像に相関窓を設定する。そして、ステレオマッチング部223bは、平行化されたステレオ画像に含まれる右画像において、左画像の相関窓と同一の位置から水平方向に相関窓を走査することにより、左画像の相関窓と最も類似する画素値パターンを有する右画像の相関窓の位置を探索する。このように探索された位置にある右画像の相関窓の代表画素(例えば中心画素)と左画像の相関窓の代表画素との水平方向のずれ量(例えば、画素数)が代表画素の視差に相当する。
なお、画素値パターンの類似性は、例えば、SAD(差の絶対値の和)、SSD(差の二乗誤差)、あるいはNCOR(正規化相関)を用いて判定される。例えば、相関窓の左下の画素の座標が(x,y)であり、相関窓のサイズがBi×Bjの場合に、SADは、式(8)のように算出される。
Figure 0005954668
式(8)において、L(x+i,y+j)は、左画像の画素(x+i,y+j)の画素値を表す。また、R(x’+i,y+j)は、右画像の画素(x’+i,y+j)の画素値を表す。左画像の相関窓内の画素値と右画像の相関窓内の画素値との差分の絶対値の総和(SAD)が小さいほど、左画像の相関窓と右画像の相関窓との類似性が高い。したがって、ステレオマッチング部223bは、右画像内においてSADが最小となる相関窓の位置を探索することにより、左画像内の相関窓の代表画素の視差dを算出することができる。
このような視差の算出を左画像の全画素に対して行うことで視差マップ(デプスマップ)が得られる。このようなステレオマッチング部223bにおけるデプスマップの作成方法は、特許文献1および特許文献2にも開示されているので、さらなる詳細な説明は省略する。
なお、ステレオマッチング部223bにおけるデプスマップの作成方法は、上記の方法に限定されない。例えば、ステレオマッチング部223bは、画素値パターンのではなく特徴量を用いて、局所領域の類似性を判定してもよい。
また例えば、ステレオマッチング部223bは、大局的な特徴点の類似性に基づいて、各画素の視差を算出してもよい。具体的には、ステレオマッチング部223bは、例えば、局所領域の類似性と視差分布の空間的な平滑性との両方に基づいてデプスマップを作成してもよい。具体的には、ステレオマッチング部223bは、例えば、特許文献3に開示された方法によりデプスマップを作成してもよい。つまり、ステレオマッチング部223bは、局所領域の類似性と視差分布の空間的な平滑性とに基づいて視差を算出することによりデプスマップを作成してもよい。また例えば、ステレオマッチング部223bは、非特許文献4に開示された方法によりデプスマップを作成してもよい。
次に、ステップS107の詳細について説明する。ここでは、非ステレオマッチング部223cは、左画像および右画像の一方のみを用いて奥行きを推定することにより、デプスマップを作成する。
具体的には、非ステレオマッチング部223cは、画像のシーンの解析結果(例えば、幾何的な情報、色の情報、および物体の動き情報等のうちの少なくとも1つ)を利用して奥行きを推定することにより、デプスマップを作成する。この方法では、非ステレオマッチング部223cは、2つの画像のマッチングによる視差の算出を行わないため、特徴点の算出が難しいシーンでもデプスマップの作成することが可能である。
この奥行きの推定は、いわゆる2D−3D変換と呼ばれるものである。具体的には、人間が両眼視差の情報以外に奥行きを理解するために利用している情報を用いて、2次元の画像から3次元の奥行きが推定される。そのような奥行きを理解するために利用している情報の例として、画像のボケ具合、動きの情報、あるいは典型的なシーンの事前知識などがある。
例えば、一眼レフカメラのように絞りの口径が大きいカメラを用いて画像が撮影された場合、主要な被写体に合焦し、背景がぼけた画像が撮影される。そこで、非ステレオマッチング部223cは、例えば、画像に含まれる画素毎に合焦度合いを解析し、解析結果に基づいてデプスマップを作成してもよい。
また、同じ速度で動く物体がある場合、遠くの物体ほど画像上での動き量が小さく、近くの物体ほど画像上での動き量が大きい。そこで、非ステレオマッチング部223cは、例えば、物体の移動量情報を利用して距離を推定することにより、デプスマップを作成してもよい。
また、例えば、海のシーンでは、画像の中央より上が青くかつ遠くなり、下に行くほど白く近くなる。このように特定のシーンにおいて、シーン中の色の配置と奥行きとに相関がある場合が存在する。そこで、非ステレオマッチング部223cは、例えば、予め記憶された典型的なシーンの色の配置と奥行きとを示すテンプレートと、入力された画像と比較することで、当該画像の撮影シーンの奥行きを推定することにより、デプスマップを作成してもよい。
また、非ステレオマッチング部223cは、例えば、画像から顔検出を行い、検出された顔領域の大きさに基づいて奥行きを推定してもよい。また、非ステレオマッチング部223cは、例えば、消失点を検出し、消失点に基づいて奥行きを推定してもよい。
以上のように、非ステレオマッチング部223cは、左画像および右画像間の対応関係を用いずに、1つの2次元画像からデプスマップを推定する。なお、非ステレオマッチング部223cは、左画像または右画像のみの情報を利用するため、高精度なデプスマップを作成することは難しい。しかしながら、非ステレオマッチング部223cは、左画像および右画像の特量が少ない場合であっても、デプスマップの精度が大きく低下することを抑制することができる。
なお、非ステレオマッチング部223cは、上記とは異なる方法でデプスマップを作成してもよい。例えば、ステレオ画像が連続的に入力される場合(つまり、ステレオ動画像が入力される場合)に、非ステレオマッチング部223cは、時間的に異なる他のステレオ画像を用いて作成されたデプスマップを用いて処理対象のステレオ画像におけるデプスマップを作成してもよい。
具体的には、非ステレオマッチング部223cは、例えば、ジャイロセンサの出力から手ぶれが瞬間的に生じたことが検出されたときには、時間的に前および後のフレームのステレオ画像から作成された2つのデプスマップを用いて補間を行うことにより、処理対象のステレオ画像におけるデプスマップを作成してもよい。これにより、非ステレオマッチング部223cは、デプスマップの急激な時間変化を減らすことができるため、デプスマップを用いて処理される画像の見た目の違和感を減らすことが可能になる。このように、非ステレオマッチング部223cは、時間的に異なるステレオ画像から得られるデプスマップを利用することで、より自然なデプスマップを作成することができる。
また例えば、非ステレオマッチング部223cは、ステレオマッチング部223bまたは非ステレオマッチング部223cが前のステレオ画像を用いて既に作成したデプスマップと、非ステレオマッチング部223cが処理対象のステレオ画像を用いて推定する奥行きとの少なくとも一方を用いて、処理対象のステレオ画像におけるデプスマップを作成してもよい。具体的には、非ステレオマッチング部223cは、例えば、他のステレオ画像を用いてステレオマッチング部223bが既に作成したデプスマップと、処理対象のステレオ画像を用いて非ステレオマッチング部223cが推定した奥行きとの両方を用いて、処理対象のステレオ画像におけるデプスマップを作成してもよい。より具体的には、非ステレオマッチング部223cは、例えば、他のステレオ画像を用いて作成されたデプスマップが示す奥行きと処理対象のステレオ画像を用いて推定された奥行きとの統計的な代表値(例えば、算術平均値あるいは加重平均値など)を用いて、処理対象のデプスマップを作成してもよい。これにより、非ステレオマッチング部223cは、左画像および右画像間の対応関係を用いずにデプスマップを作成する場合に、デプスマップの精度を向上させることができる。
また例えば、非ステレオマッチング部223cは、他のステレオ画像を用いてステレオマッチング部223bが既に作成したデプスマップを処理対象のステレオ画像におけるデプスマップとして採用してもよい。これにより、非ステレオマッチング部223cは、簡易にデプスマップを作成することができる。
以上のように、本実施の形態に係る画像処理部220によれば、あらゆるシーンにおいて、適切な方法でデプスマップを作成することが可能となる。例えばステレオマッチングが難しいシーンにおいて、画像処理部220は、一般に処理量が大きいとされるステレオマッチングを行わずに、デプスマップを作成することが可能となる。そのため、画像処理部220は、消費電力を低下させることができる。また、ステレオマッチングが難しいシーンにおいて、ステレオマッチングを行って得られるデプスマップの精度は大きく低下する。そのようなデプスマップを用いて処理された画像を表示した場合、人に違和感あるいは不快感を与えてしまう。そこで、画像処理部220は、ステレオマッチングが難しいシーンでは、ステレオマッチングを行わずにデプスマップを作成するので、デプスマップの精度が大きく低下することを抑制することができる。
また、本実施の形態に係る画像処理部220によれば、少なくとも4つの対応点を用いて第1画像を第2画像に射影変換するための変換パラメータを算出することができる。そして、画像処理部220は、このように算出された変換パラメータを用いて変換された第1画像の第2画像に対する誤差に基づいて信頼度を算出することができる。導出された対応点が正確であれば、変換された第1画像の第2画像に対する誤差は小さくなる。したがって、画像処理部220より適切に信頼度を算出することができ、デプスマップの精度が大きく低下することをさらに抑制することができる。
また、本実施の形態に係る画像処理部220によれば、K組のM個の対応点を用いて複数の変換された第1画像を得ることができる。そして、画像処理部220は、複数の変換された第1画像を用いて信頼度を算出することができる。したがって、画像処理部220は、安定的に信頼度を算出することができ、デプスマップの精度が大きく低下することをさらに抑制することができる。
なお、本実施の形態では、ステレオ画像を用いてデプスマップを作成する方法について説明したが、2つ以上の画像を含む多視点画像が入力されたときにも、同様の方法によりデプスマップを作成することができる。例えば、多視点画像に含まれる複数の画像の中から任意の2つの画像を用いてデプスマップが作成されればよい。
また、本実施の形態では、算出部222bは、式(7)に示すように、複数の変換された第1画像を用いて非信頼度を算出していたが、1つの変換された第1画像を用いて非信頼度を算出してもよい。この場合、変換部222aは、1組のM個またはN個の対応点を用いて1つの射影変換行列を算出すればよい。
また、本実施の形態では、算出部222bは、例えば式(7)に示すように、第2画像の全領域から誤差を算出していたが、第2画像の一部領域から誤差を算出してもよい。例えば、算出部222bは、第2画像のうち、検出されたエッジの強度が閾値を超える領域のみから、変換された第1画像の第2画像に対する誤差を算出してもよい。これにより、算出部222bは、エッジが強い領域のみから誤差を算出することができる。エッジが強い領域は、複数の画像間の対応関係が得やすい領域である。したがって、算出部222bは、確実に対応関係を得たい領域について信頼度を算出することができ、信頼度を算出するための負荷を低減することもできる。
また、本実施の形態では、算出部222bは、射影変換された第1画像の第2画像に対する誤差に基づいて信頼度を算出していたが、対応点を構成する2つの特徴点間の類似性に基づいて信頼度を算出してもよい。具体的には、算出部222bは、対応点を構成する2つの特徴点間の類似性が高いほど信頼度が高くなるように信頼度を算出してもよい。つまり、算出部222bは、対応点に基づいて信頼度を算出すればよい。このような場合であっても、複数の画像間の対応関係の信頼度は対応点の正確さに依存するので、より適切に信頼度を算出することが可能となる。なお、2つの特徴点間の類似性に基づいて信頼度を算出する場合、信頼度算出部222は、変換部222aを備えなくてもよい。
また、本実施の形態では、画像処理部は、撮像装置に含まれていたが、画像処理装置に含まれなくてもよい。つまり、実施の形態1と同様に、画像処理部は、画像処理装置として実現されてもよい。
以上、一つまたは複数の態様に係る画像処理装置および撮像装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
例えば、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、多視点画像を利用してデプスマップを作成する画像処理方法であって、前記多視点画像に含まれる複数の画像の各々から少なくとも1つの特徴点を検出する検出ステップと、検出された前記特徴点に基づいて、デプスマップを作成する上での前記多視点画像に含まれる複数の画像間の対応関係の信頼度を算出する算出ステップと、算出された前記信頼度が第1信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成し、算出された前記信頼度が前記第1信頼度よりも低い第2信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する作成ステップとを含む画像処理方法を実行させる。
(その他変形例)
なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されない。以下のような変形例も本発明に含まれる。
(1)上記の画像処理装置または画像処理部は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。ROMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、画像処理装置または画像処理部は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の画像処理装置または画像処理部を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の画像処理装置または画像処理部を構成する構成要素の一部または全部は、撮像装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されているデジタル信号であるとしてもよい。
また、本発明は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、メモリは、上記コンピュータプログラムを記憶しており、マイクロプロセッサは、コンピュータプログラムにしたがって動作するとしてもよい。
また、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態および上記変形例をそれぞれ組み合わせるとしてもよい。
本発明の3次元撮像装置は、固体撮像素子を用いたすべてのカメラに有効である。例えば、デジタルスチルカメラやデジタルビデオカメラなどの民生用カメラや、産業用の固体監視カメラなどに利用できる。
10 画像処理装置
11、221a 検出部
12、222b 算出部
13、223 作成部
20、1000 撮像装置
100a、100b 撮像部
101 撮像素子
102 透光板
103 光学レンズ
104 赤外カットフィルタ
105 信号発生/受信部
106 素子駆動部
200 信号処理部
210 メモリ
220 画像処理部
221 対応点算出部
221b 導出部
222 信頼度算出部
222a 変換部
223a 処理切替部
223b ステレオマッチング部
223c 非ステレオマッチング部
230 インターフェース(IF)部

Claims (14)

  1. 多視点画像を利用してデプスマップを作成する画像処理装置であって、
    前記多視点画像に対してエッジ検出またはコーナー検出を行うことにより、前記多視点画像に含まれる複数の画像の各々から少なくとも1つの特徴点を検出する検出部と、
    検出された前記特徴点の特徴量の類似性に基づいて、前記多視点画像に含まれる複数の画像間で対応する前記特徴点の組を対応点として導出する導出部と、
    導出された前記対応点に基づいて、デプスマップを作成する上での前記多視点画像に含まれる複数の画像間の対応関係の信頼度を算出する算出部と、
    算出された前記信頼度が閾値より高い第1信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成し、算出された前記信頼度が前記閾値以下の第2信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する作成部とを備える
    画像処理装置。
  2. 前記画像処理装置は、さらに、
    導出された少なくとも4つの対応点を用いて、前記多視点画像に含まれる第1画像を前記多視点画像に含まれる第2画像に射影変換するための変換パラメータを算出し、前記変換パラメータを用いて前記第1画像を変換する変換部を備え、
    前記算出部は、変換された前記第1画像の前記第2画像に対する誤差が小さいほど信頼度が高くなるように前記信頼度を算出する
    請求項1に記載の画像処理装置。
  3. 前記変換部は、導出されたN(N≧5)個の対応点から選択された互いに組合せが異なる複数組のM(4≦M<N)個の対応点を用いて複数の変換パラメータをそれぞれ算出し、前記複数の変換パラメータを用いて前記第1画像を複数の変換された第1画像にそれぞれ変換し、
    前記算出部は、前記複数の変換された第1画像と前記第2画像との差分の二乗平均、絶対値平均、二乗和、および絶対値和のいずれかを前記誤差として算出し、前記誤差が小さいほど信頼度が高くなるように前記信頼度を算出する
    請求項2に記載の画像処理装置。
  4. 前記検出部は、エッジを前記特徴点として検出し、
    前記算出部は、前記第2画像のうち、検出された前記エッジの強度が閾値を超える領域のみから、変換された前記第1画像の前記第2画像に対する誤差を算出する
    請求項2に記載の画像処理装置。
  5. 前記作成部は、算出された前記信頼度が前記第1信頼度である場合に、局所領域の類似性に基づいて前記多視点画像に含まれる複数の画像間における視差を算出することにより、前記デプスマップを作成する
    請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記多視点画像に含まれる1つの画像における幾何的な情報、色の情報、および物体の動き情報のうちの少なくとも1つを利用して奥行きを推定することにより、前記デプスマップを作成する
    請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記多視点画像は、多視点動画像に含まれており、
    前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記多視点動画像に含まれる他の多視点画像であって前記多視点画像とは時間的に異なる他の多視点画像を用いて作成されたデプスマップを用いて前記多視点画像におけるデプスマップを作成する
    請求項1〜5のいずれか1項に記載の画像処理装置。
  8. 前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記他の多視点画像間における局所領域の対応関係を用いて作成されたデプスマップと、前記多視点画像に含まれる1つの画像における幾何的な情報、色の情報、および物体の動き情報のうちの少なくとも1つを利用して推定される奥行きとの両方を用いて前記デプスマップを作成する
    請求項7に記載の画像処理装置。
  9. 前記作成部は、算出された前記信頼度が前記第2信頼度である場合に、前記他の多視点画像間における局所領域の対応関係を用いて作成されたデプスマップを前記多視点画像におけるデプスマップとして採用する
    請求項7に記載の画像処理装置。
  10. 前記多視点画像はステレオ画像であり、
    前記画像処理装置は、さらに、
    前記ステレオ画像においてエピポーララインが平行になるように前記ステレオ画像を平行化する変換部を備え、
    前記算出部は、算出された前記信頼度が前記第1信頼度である場合に、平行化された前記ステレオ画像間の対応関係を用いてデプスマップを作成する
    請求項1に記載の画像処理装置。
  11. 前記画像処理装置は、集積回路として構成されている
    請求項1〜10のいずれか1項に記載の画像処理装置。
  12. 請求項1〜11のいずれか1項に記載の画像処理装置と、
    前記多視点画像を撮影する撮像部とを備える
    撮像装置。
  13. 多視点画像を利用してデプスマップを作成する画像処理方法であって、
    前記多視点画像に対してエッジ検出またはコーナー検出を行うことにより、前記多視点画像に含まれる複数の画像の各々から少なくとも1つの特徴点を検出する検出ステップと、
    検出された前記特徴点の特徴量の類似性に基づいて、前記多視点画像に含まれる複数の画像間で対応する前記特徴点の組を対応点として導出する導出ステップと、
    導出された前記対応点に基づいて、デプスマップを作成する上での前記多視点画像に含まれる複数の画像間の対応関係の信頼度を算出する算出ステップと、
    算出された前記信頼度が閾値より高い第1信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いてデプスマップを作成し、算出された前記信頼度が前記閾値以下の第2信頼度である場合に、前記多視点画像に含まれる複数の画像間の対応関係を用いずにデプスマップを作成する作成ステップとを含む
    画像処理方法。
  14. 請求項13に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2013521322A 2011-10-11 2012-10-05 画像処理装置、撮像装置および画像処理方法 Active JP5954668B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011223735 2011-10-11
JP2011223735 2011-10-11
PCT/JP2012/006420 WO2013054499A1 (ja) 2011-10-11 2012-10-05 画像処理装置、撮像装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2013054499A1 JPWO2013054499A1 (ja) 2015-03-30
JP5954668B2 true JP5954668B2 (ja) 2016-07-20

Family

ID=48081569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013521322A Active JP5954668B2 (ja) 2011-10-11 2012-10-05 画像処理装置、撮像装置および画像処理方法

Country Status (4)

Country Link
US (1) US9374571B2 (ja)
JP (1) JP5954668B2 (ja)
CN (1) CN103339651B (ja)
WO (1) WO2013054499A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101901495B1 (ko) * 2016-12-23 2018-09-28 전자부품연구원 다중 시점 카메라 기반 깊이 영상 추정 방법

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6140935B2 (ja) 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
TW201421423A (zh) * 2012-11-26 2014-06-01 Pixart Imaging Inc 影像感測器及其運作方法
US9171373B2 (en) * 2012-12-26 2015-10-27 Ncku Research And Development Foundation System of image stereo matching
US10257506B2 (en) * 2012-12-28 2019-04-09 Samsung Electronics Co., Ltd. Method of obtaining depth information and display apparatus
CN103996206B (zh) * 2014-02-24 2017-01-11 航天恒星科技有限公司 一种基于GraphCut的复杂背景遥感图像中交互式目标提取方法
CN105451009B (zh) * 2014-06-13 2017-12-29 联想(北京)有限公司 一种信息处理方法及电子设备
JP6655869B2 (ja) * 2014-10-09 2020-03-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10187623B2 (en) * 2014-12-26 2019-01-22 Korea Electronics Technology Institute Stereo vision SoC and processing method thereof
CN107666606B (zh) * 2016-07-29 2019-07-12 东南大学 双目全景图像获取方法及装置
CN106355550B (zh) * 2016-10-31 2024-04-09 河北鼎联科技有限公司 图像拼接系统和图像拼接方法
JP6636963B2 (ja) * 2017-01-13 2020-01-29 株式会社東芝 画像処理装置及び画像処理方法
KR102472767B1 (ko) * 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
CN109785390B (zh) * 2017-11-13 2022-04-01 虹软科技股份有限公司 一种用于图像矫正的方法和装置
CN109785225B (zh) * 2017-11-13 2023-06-16 虹软科技股份有限公司 一种用于图像矫正的方法和装置
JP6760656B2 (ja) * 2017-11-24 2020-09-23 国立大学法人 岡山大学 物体識別方法
JP6857147B2 (ja) * 2018-03-15 2021-04-14 株式会社日立製作所 三次元画像処理装置、及び三次元画像処理方法
CN109981982B (zh) * 2019-03-25 2021-02-19 联想(北京)有限公司 控制方法、装置以及系统
US11303877B2 (en) * 2019-08-13 2022-04-12 Avigilon Corporation Method and system for enhancing use of two-dimensional video analytics by using depth data
WO2021131950A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN111192308B (zh) * 2019-12-31 2023-11-03 浙江商汤科技开发有限公司 图像处理方法及装置、电子设备和计算机存储介质
JP2023515669A (ja) 2020-03-05 2023-04-13 マジック リープ, インコーポレイテッド マルチビューステレオのための疎点の三角測量および緻密化を学習することによる深度推定のためのシステムおよび方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
WO1998003021A1 (en) * 1996-06-28 1998-01-22 Sri International Small vision module for real-time stereo and motion analysis
US6487304B1 (en) * 1999-06-16 2002-11-26 Microsoft Corporation Multi-view approach to motion and stereo
US7236622B2 (en) * 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
JP4065488B2 (ja) 2001-12-14 2008-03-26 キヤノン株式会社 3次元画像生成装置、3次元画像生成方法及び記憶媒体
JP3855812B2 (ja) * 2002-03-15 2006-12-13 ソニー株式会社 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP4035018B2 (ja) 2002-08-23 2008-01-16 日本電信電話株式会社 形状獲得方法、装置、プログラム、およびこのプログラムを記録した記録媒体
JP4389602B2 (ja) 2004-02-24 2009-12-24 パナソニック電工株式会社 物体検出装置、物体検出方法、プログラム
US7697749B2 (en) * 2004-08-09 2010-04-13 Fuji Jukogyo Kabushiki Kaisha Stereo image processing device
JP4889351B2 (ja) * 2006-04-06 2012-03-07 株式会社トプコン 画像処理装置及びその処理方法
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
JP2009133753A (ja) 2007-11-30 2009-06-18 Toshiba Corp 画像処理装置及びその方法
CN101287142A (zh) * 2008-05-16 2008-10-15 清华大学 基于双向跟踪和特征点修正的平面视频转立体视频的方法
BRPI0916963A2 (pt) * 2008-08-20 2015-11-24 Thomson Licensing mapa de profundidade refinado
JP5311465B2 (ja) 2008-11-25 2013-10-09 Necシステムテクノロジー株式会社 ステレオマッチング処理システム、ステレオマッチング処理方法、及びプログラム
JP5229733B2 (ja) 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法およびプログラム
JP4852591B2 (ja) * 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US8411966B2 (en) * 2009-03-10 2013-04-02 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Estimation of image relations from point correspondences between images
JP5188430B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
US9445072B2 (en) * 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
AU2009243439A1 (en) * 2009-11-30 2011-06-16 Canon Kabushiki Kaisha Robust image alignment for distributed multi-view imaging systems
US20120249751A1 (en) * 2009-12-14 2012-10-04 Thomson Licensing Image pair processing
WO2011104151A1 (en) * 2010-02-26 2011-09-01 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
JP2011182325A (ja) * 2010-03-03 2011-09-15 Sharp Corp 撮像装置
US8391590B2 (en) * 2010-03-04 2013-03-05 Flashscan3D, Llc System and method for three-dimensional biometric data feature detection and recognition
US8970672B2 (en) * 2010-05-28 2015-03-03 Qualcomm Incorporated Three-dimensional image processing
JP5545036B2 (ja) * 2010-05-28 2014-07-09 三菱電機株式会社 画像処理装置、画像処理方法および画像表示装置
JP2011253376A (ja) * 2010-06-02 2011-12-15 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
CN101902657B (zh) * 2010-07-16 2011-12-21 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8442307B1 (en) * 2011-05-04 2013-05-14 Google Inc. Appearance augmented 3-D point clouds for trajectory and camera localization
US8629901B2 (en) * 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US10027952B2 (en) * 2011-08-04 2018-07-17 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
US9554114B2 (en) * 2011-09-15 2017-01-24 Broadcom Corporation Depth range adjustment for three-dimensional images
US20130070049A1 (en) * 2011-09-15 2013-03-21 Broadcom Corporation System and method for converting two dimensional to three dimensional video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101901495B1 (ko) * 2016-12-23 2018-09-28 전자부품연구원 다중 시점 카메라 기반 깊이 영상 추정 방법

Also Published As

Publication number Publication date
CN103339651B (zh) 2016-12-07
CN103339651A (zh) 2013-10-02
US9374571B2 (en) 2016-06-21
WO2013054499A1 (ja) 2013-04-18
JPWO2013054499A1 (ja) 2015-03-30
US20140049612A1 (en) 2014-02-20

Similar Documents

Publication Publication Date Title
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
JP6271609B2 (ja) 立体カメラのためのオートフォーカス
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
US10789765B2 (en) Three-dimensional reconstruction method
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP4852591B2 (ja) 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
CN107545586B (zh) 基于光场极线平面图像局部的深度获取方法及系统
WO2009008864A1 (en) System and method for three-dimensional object reconstruction from two-dimensional images
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP4701848B2 (ja) 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
JP6622575B2 (ja) 制御装置、制御方法、およびプログラム
JP2015184121A (ja) 距離算出装置
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP6648916B2 (ja) 撮像装置
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
US10769805B2 (en) Method, image processing device, and system for generating depth map
JP2013190938A (ja) ステレオ画像処理装置
WO2020017209A1 (ja) 測距カメラ
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160603

R151 Written notification of patent or utility model registration

Ref document number: 5954668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151