JP2016145753A - 奥行推定装置、奥行推定方法及び奥行推定プログラム - Google Patents

奥行推定装置、奥行推定方法及び奥行推定プログラム Download PDF

Info

Publication number
JP2016145753A
JP2016145753A JP2015022857A JP2015022857A JP2016145753A JP 2016145753 A JP2016145753 A JP 2016145753A JP 2015022857 A JP2015022857 A JP 2015022857A JP 2015022857 A JP2015022857 A JP 2015022857A JP 2016145753 A JP2016145753 A JP 2016145753A
Authority
JP
Japan
Prior art keywords
value
depth
pixel
estimated
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015022857A
Other languages
English (en)
Inventor
妹尾 孝憲
Takanori Senoo
孝憲 妹尾
光喜 涌波
Koki WAKUNAMI
光喜 涌波
保之 市橋
Yasuyuki Ichihashi
保之 市橋
久幸 佐々木
Hisayuki Sasaki
久幸 佐々木
隆太朗 大井
Ryutaro Oi
隆太朗 大井
健詞 山本
Kenji Yamamoto
健詞 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2015022857A priority Critical patent/JP2016145753A/ja
Priority to PCT/JP2016/052857 priority patent/WO2016129430A1/ja
Publication of JP2016145753A publication Critical patent/JP2016145753A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】本願発明は、処理速度が速い奥行推定装置を提供する。【解決手段】奥行推定装置1は、カメラCL,CRで同一の被写体Tを撮影した複数のカメラ映像(FL,FR)を入力する映像入力手段10と、注目画素PRの画素値と、注目画素PRの推定奥行値Deの視差に対応する画素位置にある隣接映像FLの対応画素PLの画素値との差分絶対値である対応画素差分値Eを演算する対応画素差分演算手段20と、対応画素差分値Eを記憶する差分値記憶手段30と、簡易な演算式で最小評価値及び推定評価値を演算し、推定評価値が最小評価値より小さい場合、推定奥行値を奥行値として決定する奥行値推定手段100とを備える。【選択図】図1

Description

本願発明は、複数のカメラで被写体を撮影したカメラ映像から、多視点映像用の被写体の奥行値を推定する奥行推定装置、奥行推定方法及び奥行推定プログラムに関する。
近年、複数のカメラで同一の被写体を撮影した複数のカメラ映像(多視点映像)を用いて、立体映像や自由視点映像を生成、符号化、伝送する研究が進められている。これらの立体映像や自由視点映像を生成、符号化、伝送する技術では、複数のカメラで被写体を撮影したカメラ映像の視差量を推定することで、被写体の奥行値を求めている(特許文献1参照)。そして、この奥行値を用いることで、伝送すべき視点映像の数を減らしたり、任意の視点映像を合成することができる。
例えば、特許文献1に記載の発明は、図23のように、複数のカメラで撮影された視差方向に異なるカメラ映像(FLL〜FRR)から、対応する画素の差分値を複数求めるものである。そして、特許文献1に記載の発明は、この中から最適な差分値を選択し、選択した差分値に平滑化処理を施し、その結果から最終的な奥行値を決定する。
特開2012−73813号公報
しかし、特許文献1に記載の発明は、Graph−Cutsアルゴリズムを映像全体に施しているため、処理速度が遅く、リアルタイム処理(実時間処理)に適用することが困難であった。
そこで、本願発明は、処理速度が速い奥行推定装置、奥行推定方法及び奥行推定プログラムを提供することを課題とする。
本願第1発明に係る奥行推定装置は、予め定めた位置に複数配列したカメラで同一の被写体を撮影した複数のカメラ映像から、前記被写体の奥行きを示す奥行値を推定する奥行推定装置であって、映像入力手段と、対応画素差分演算手段と、奥行値初期化手段と、最小評価値演算手段と、推定評価値演算手段と、奥行値決定手段と、を備える構成とした。
かかる構成によれば、奥行推定装置は、映像入力手段によって、前記複数配列した前記カメラの何れかにおいて、予め定めた基準カメラで前記被写体を撮影した基準映像と、前記基準カメラ以外の隣接カメラで前記被写体を撮影した隣接映像とを入力する。この隣接映像は、基準映像からの視差を計測するための映像である。
奥行推定装置は、対応画素差分演算手段によって、予め定めた最小値から最大値までの推定奥行値及び前記基準映像の注目画素ごとに、前記注目画素の画素値と、当該注目画素の前記推定奥行値の視差に対応する画素位置にある前記隣接映像の対応画素の画素値との差分絶対値である対応画素差分値を演算する。この推定奥行値は、基準映像の画素に対応する被写体の奥行値を推定した値であって、例えば、最小視差(‘0’)から最大視差までの値とする。この対応画素差分演算手段によって、基準映像の注目画素の画素値と、隣接映像の推定奥行値に対応した対応画素値との差分絶対値が演算される。なお、この差分絶対値(隣接映像の対応画素差分値)は、その値が小さい程、推定奥行値が実際の被写体において同一の対応点を指し示している可能性が高いと言える。
奥行推定装置は、奥行値初期化手段によって、前記最小値を、前記基準映像の全画素における奥行値の初期値として決定する。そして、奥行推定装置は、最小評価値演算手段によって、前記推定奥行値及び前記注目画素ごとに、前記注目画素と前記注目画素に隣接する隣接画素との奥行値の差分の和に予め設定した平滑係数が乗算された値を、決定された前記奥行値における前記注目画素の対応画素差分値に加えた最小評価値を演算する。さらに、奥行推定装置は、推定評価値演算手段によって、前記推定奥行値及び前記注目画素ごとに、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記平滑係数が乗算された値を、前記推定奥行値における前記注目画素の対応画素差分値に加えた推定評価値を演算する。
奥行推定装置は、奥行値決定手段によって、前記推定奥行値及び前記注目画素ごとに、前記最小評価値と前記推定評価値とを比較し、前記推定評価値が前記最小評価値より小さい場合、前記推定奥行値を前記注目画素の奥行値として決定し、前記注目画素ごとの奥行値からなる奥行マップを生成する。
このように、奥行推定装置は、Graph−Cutsアルゴリズムを映像全体に施すのではなく、注目画素及び隣接画素の局所領域を対象として、簡易な演算式により評価値を求めるので、演算量が減少する。
本願第2発明に係る奥行推定装置は、前記注目画素と前記注目画素の近傍画素との画素値の差分によりエッジを検出するエッジ検出手段、をさらに備え、前記最小評価値演算手段は、前記エッジが検出された場合、前記平滑係数よりも小さな値で予め定めた第2平滑係数を、前記注目画素と前記隣接画素の奥行値との差分の和に乗算し、前記推定評価値演算手段は、前記エッジが検出された場合、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記第2平滑係数が乗算された値と、前記平滑係数及び前記第2平滑係数の間で予め定めた第3平滑係数が前記決定された奥行値と前記推定奥行値との差分に乗算された値とを、前記推定奥行値における前記注目画素の対応画素差分値に加えた前記推定評価値を演算することを特徴とする。
かかる構成によれば、第2平滑係数を用いて、エッジ部分で奥行値の連続性重みを下げると共に、第3平滑係数を用いて、奥行値の大きな変動を押さえるので、エッジがある場合でもより正確な奥行マップを生成することができる。
本願第3発明に係る奥行推定装置は、前記映像入力手段に入力された基準映像及び隣接映像を縮小する映像縮小手段、をさらに備え、前記対応画素差分演算手段は、前記推定奥行値及び縮小された前記基準映像の注目画素ごとに、前記対応画素差分値を演算し、前記奥行値初期化手段は、前記最小値を前記縮小された基準映像の全画素の奥行値として初期設定し、前記最小評価値演算手段は、前記推定奥行値及び前記縮小された基準映像の注目画素ごとに、前記最小評価値を演算し、前記推定評価値演算手段は、前記推定奥行値及び前記縮小された基準映像の注目画素ごとに、前記推定評価値を演算し、前記奥行値決定手段は、前記縮小された基準映像と同一サイズの前記奥行マップである縮小奥行マップを生成することを特徴とする。
かかる構成によれば、奥行推定装置は、カメラ映像を縮小するので、処理対象の注目画素数が少なくなり、さらに高速に奥行マップを生成することができる。
本願第4発明に係る奥行推定装置は、前記映像入力手段に入力された基準映像と同一サイズまで前記縮小奥行マップが拡大された参照奥行マップを生成する奥行マップ拡大手段と、前記推定奥行値及び前記映像入力手段に入力された基準映像の注目画素ごとに、当該注目画素の画素値と、前記映像入力手段に入力された隣接映像の対応画素の画素値との差分絶対値である第2対応画素差分値を演算する第2対応画素差分演算手段と、前記参照奥行マップの全画素の奥行値を、第2奥行マップの全画素における奥行値の初期値として決定する第2奥行値初期化手段と、前記第2奥行マップの第2注目画素ごとに、前記第2注目画素の奥行値が前記第2注目画素に隣接する第2隣接画素の奥行値よりも小さい場合、前記第2注目画素と前記第2隣接画素との奥行値の差分の和に前記平滑係数が乗算された値を、決定された前記奥行値における前記第2注目画素の第2対応画素差分値に加えた第2最小評価値を演算する第2最小評価値演算手段と、前記第2注目画素ごとに、前記第2注目画素の奥行値が前記第2注目画素に隣接する第2隣接画素の奥行値よりも小さい場合、前記第2隣接画素同士の奥行値の差分に前記平滑係数が乗算された値を、前記第2隣接画素の奥行値における前記第2注目画素の第2対応画素差分値に加えた推定評価値を演算する第2推定評価値演算手段と、前記第2注目画素ごとに、前記第2最小評価値と前記第2推定評価値とを比較し、前記第2推定評価値が前記第2最小評価値より小さい場合、前記第2隣接画素の奥行値を前記第2注目画素の奥行値として決定し、前記第2注目画素ごとの奥行値からなる前記第2奥行マップを生成する第2奥行値決定手段と、を備えることを特徴とする。
かかる構成によれば、奥行推定装置は、エッジ部分に含まれる画素の奥行値を簡易な演算式で推定し直すので、より正確な奥行マップを生成することができる。
本願第5発明に係る奥行推定装置は、前記奥行マップが縮小された縮小奥行マップを生成する奥行マップ縮小手段、をさらに備え、前記奥行値決定手段は、前記推定奥行値及び前記縮小奥行マップの第3注目画素ごとに、前記第3注目画素に隣接する全ての第3隣接画素について、前記第3隣接画素の奥行値から所定値を減算した減算値を演算し、前記第3注目画素の奥行値が全ての前記第3隣接画素から演算した減算値以上となる場合、前記第3注目画素に対応する前記基準映像の画像領域の再評価を指令し、前記最小評価値演算手段は、前記再評価の指令に応じて、前記推定奥行値及び前記画像領域の注目画素ごとに、当該注目画素と前記隣接画素との奥行値の差分の和に前記平滑係数よりも大きな値で予め定めた第4平滑係数が乗算された値を、決定された前記奥行値における当該注目画素の対応画素差分値に加えた最小評価値を再び演算し、前記推定評価値演算手段は、前記再評価の指令に応じて、前記推定奥行値及び前記画像領域の注目画素ごとに、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記第4平滑係数が乗算された値を、前記推定奥行値における当該注目画素の対応画素差分値に加えた推定評価値を再び演算し、前記奥行値決定手段は、前記推定奥行値及び前記画像領域の注目画素ごとに、再び演算された前記最小評価値と前記推定評価値とを比較し、当該推定評価値が当該最小評価値より小さい場合、当該推定奥行値を当該注目画素の奥行値として決定することを特徴とする。
かかる構成によれば、奥行推定装置は、エッジ部分に含まれない画素の奥行値をより強く平滑化すると共に、エッジ部分に含まれる画素の奥行値を平滑化しないので、エッジ部分が潰れずに、より正確な奥行マップを生成することができる。
本願第6発明に係る奥行推定装置は、前記最小評価値演算手段が、前記基準映像の4隅何れかの起点側から前記起点側に対向する終点側まで前記注目画素を移動させながら前記最小評価値を演算した後、前記終点側から前記起点側まで前記注目画素を移動させながら前記最小評価値を再び演算し、前記推定評価値演算手段は、前記起点側から前記終点側まで前記注目画素を移動させながら前記推定評価値を演算した後、前記終点側から前記起点側まで前記注目画素を移動させながら前記推定評価値を再び演算し、前記奥行値決定手段は、前記注目画素の奥行値を決定した後、再び演算した前記最小評価値と前記推定評価値とを比較し、当該推定評価値が当該最小評価値より小さい場合、当該推定奥行値を当該注目画素の奥行値として再び決定することを特徴とする。
かかる構成によれば、奥行推定装置は、終点側から起点側に向けて奥行値を再び演算するので、より連続性が高い奥行マップを生成することができる。
本願第7発明に係る奥行推定装置は、前記映像入力手段が、前記基準映像と、前記基準カメラの左右に配置された前記隣接カメラで撮影された前記隣接映像である左隣接映像及び右隣接映像とを入力し、前記対応画素差分演算手段は、前記基準映像及び前記左隣接映像の間での前記対応画素差分値である左対応画素差分値と、前記基準映像及び前記右隣接映像の間での前記対応画素差分値である右対応画素差分値とを演算し、前記左対応画素差分値又は前記右対応画素差分値のうち小さい方を最小対応画素差分値として選択する最小値選択手段、をさらに備え、前記最小評価値演算手段は、前記対応画素差分値として、前記最小対応画素差分値を用いて前記最小評価値を演算し、前記推定評価値演算手段は、前記対応画素差分値として、前記最小対応画素差分値を用いて前記推定評価値を演算することを特徴とする。
かかる構成によれば、奥行推定装置は、左右の隣接映像の何れか一方において、オクルージョンにより対応画素が被写体に隠れてしまう場合でも、残りの隣接映像で対応画素が見えるので、正確な対応画素差分値を求めることができる。
本願第8発明に係る奥行推定装置は、前記映像入力手段に入力されたカメラ映像のうち、最小サイズのカメラ映像に合わせて他のカメラ映像を縮小する映像縮小手段、をさらに備えることを特徴とする。
かかる構成によれば、奥行推定装置は、カメラ映像のサイズが異なる場合でも、より正確な奥行マップを生成することができる。
ここで、本願発明に係る奥行推定装置は、コンピュータが備えるCPU、メモリ等のハードウェア資源を、前記した各手段として協調動作させる奥行推定プログラムで実現することもできる(本願第9発明)。
本願第10発明に係る奥行推定方法は、予め定めた位置に複数配列したカメラで同一の被写体を撮影した複数のカメラ映像から、前記被写体の奥行きを示す奥行値を推定する奥行推定方法であって、映像入力ステップと、対応画素差分演算ステップと、奥行値初期化ステップと、評価値演算ステップと、評価値判定ステップと、奥行値決定ステップと、を順に実行する手順とした。
かかる手順によれば、奥行推定方法は、映像入力ステップにおいて、前記複数配列した前記カメラの何れかにおいて、予め定めた基準カメラで前記被写体を撮影した基準映像と、前記基準カメラ以外の隣接カメラで前記被写体を撮影した隣接映像とを入力する。
奥行推定方法は、対応画素差分演算ステップにおいて、予め定めた最小値から最大値までの推定奥行値及び前記基準映像の注目画素ごとに、前記注目画素の画素値と、当該注目画素の前記推定奥行値の視差に対応する画素位置にある前記隣接映像の対応画素の画素値との差分絶対値である対応画素差分値を演算する。
奥行推定方法は、奥行値初期化ステップにおいて、前記最小値を、前記基準映像の全画素における奥行値の初期値として決定する。
奥行推定方法は、評価値演算ステップにおいて、前記推定奥行値及び前記注目画素ごとに、前記注目画素と前記注目画素に隣接する隣接画素との奥行値の差分の和に予め設定した平滑係数が乗算された値を、決定された前記奥行値における前記注目画素の対応画素差分値に加えた最小評価値を演算すると共に、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記平滑係数が乗算された値を、前記推定奥行値における前記注目画素の対応画素差分値に加えた推定評価値を演算する。
奥行推定方法は、評価値判定ステップにおいて、前記推定奥行値及び前記注目画素ごとに、前記最小評価値と前記推定評価値とを比較し、前記推定評価値が前記最小評価値より小さいか否かを判定する。
奥行推定方法は、奥行値決定ステップにおいて、前記推定評価値が前記最小評価値より小さい場合、前記推定奥行値を前記注目画素の奥行値として決定し、前記注目画素ごとの奥行値からなる奥行マップを生成する。
このように、奥行推定方法は、Graph−Cutsアルゴリズムを映像全体に施すのではなく、注目画素及び隣接画素の局所領域を対象として、簡易な演算式により評価値を求めるので、演算量が減少する。
本願発明は、以下に示す優れた効果を奏するものである。
本願第1,9,10発明によれば、注目画素及び隣接画素の局所領域を対象として、簡易な演算式により評価値を求めるため、演算量が減少する。これにより、本願第1,9,10発明よれば、処理速度が速くなり、リアルタイム処理に容易に適用することができる。
本願第2発明によれば、エッジ部分で奥行値の連続性重みを下げると共に、奥行値の大きな変動を押さえるので、より正確な奥行マップを生成することができる。
本願第3発明によれば、カメラ映像を縮小するので、処理対象の注目画素数が少なくなり、さらに高速に奥行マップを生成することができる。
本願第4発明によれば、エッジ部分に含まれる画素の奥行値を簡易な演算式で推定し直すので、より正確な奥行マップを生成することができる。
本願第5発明によれば、エッジ部分に含まれない画素の奥行値をより強く平滑化すると共に、エッジ部分に含まれる画素の奥行値を平滑化しないので、より正確な奥行マップを生成することができる。
本願第6発明によれば、終点側から起点側に向けて奥行値を再び演算するので、より連続性が高い奥行マップを生成することができる。
本願第7発明によれば、オクルージョンが発生しても対応画素差分値を求められるので、より正確な奥行マップを生成することができる。
本願第8発明によれば、カメラ映像のサイズが異なる場合でも、より正確な奥行マップを生成することができる。
本願発明の第1実施形態に係る奥行推定装置の構成を示すブロック図である。 視差量及び奥行値を説明する説明図である。 図1の奥行値推定手段の構成を示すブロック図である。 注目画素と左隣接画素又は上隣接画素とのマッチング誤差を説明する説明図である。 図1の奥行推定装置の動作を示すフローチャートである。 本願発明の変形系1に係る奥行推定装置の動作を示すフローチャートである。 注目画素と右隣接画素又は下隣接画素とのマッチング誤差を説明する説明図である。 本願発明の第2実施形態において、奥行値推定手段の構成を示すブロック図である。 縮小奥行マップの1画素と、基準映像の画像領域との対応関係を説明する説明図である。 図8の奥行推定装置の動作を示すフローチャートである。 本願発明の第3実施形態に係る奥行推定装置の構成を示すブロック図である。 図11の奥行推定装置の動作を示すフローチャートである。 本願発明の第4実施形態に係る奥行推定装置の構成を示すブロック図である。 図13の奥行推定装置の動作を示すフローチャートである。 本願発明の第5実施形態に係る奥行推定装置の構成を示すブロック図である。 図15の奥行値推定手段の構成を示すブロック図である。 図15の奥行推定装置の動作を示すフローチャートである。 図17の奥行値推定処理を示すフローチャートである。 図17の奥行値推定処理を示すフローチャートである。 本願発明の第6実施形態に係る奥行推定装置の構成を示すブロック図である。 図20の奥行推定装置の動作を示すフローチャートである。 (a)及び(b)は、本願発明の実施例を説明する画像である。 従来の奥行推定手法を説明するための説明図である。
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一手段及び同一処理には同一の符号を付し、説明を省略した。
(第1実施形態)
[奥行推定システムの概略]
図1を参照して、本願発明の第1実施形態に係る奥行推定装置1が含まれる奥行推定システムSの概略について説明する。
奥行推定システムSは、予め定めた位置に複数配列したカメラCMで被写体Tを撮影したカメラ映像(F,F)から、被写体Tの奥行値を推定した奥行マップDを生成するものである。図1に示した奥行推定システムSは、カメラCM(C,C)と、奥行推定装置1とを備えている。
カメラCMは、被写体Tを撮影する一般的な撮影装置である。また、被写体Tは、例えば、背景A及び前景Bを含んでいる。
ここでは、水平方向の視差に応じて奥行値を生成することとし、視差の基準となるカメラ(基準カメラ)Cに対し、水平方向に予め定めた距離Lだけ互いに離間して、カメラ(隣接カメラ)Cを平行に配置している。このカメラCM(C,C)で撮影された映像(F,F)は、奥行推定装置1に入力される。
この距離Lは、奥行値と視差量とが対応可能な範囲であれば、その距離は任意である。
また、垂直方向の視差に応じて奥行値を生成する場合、カメラCMは、垂直方向に離間させて配置すればよい。
カメラCは、視差の基準となる基準映像Fを撮影するものである。また、カメラCは、カメラCの左に配置されたカメラであって、基準映像Fとの視差を求めるための隣接映像Fを撮影するものである。本実施形態では、隣接映像Fは、基準映像Fと同一サイズであることとする。
なお、本実施形態では、カメラCを基準カメラとし、カメラCを隣接カメラとしたが、カメラCを基準カメラとし、カメラCを隣接カメラとしてもよい。
カメラCMが撮影するカメラ映像(F,F)は、静止画であっても動画であっても構わない。カメラ映像が動画である場合、フレーム同期を行うことで、順次、静止画のフレーム画像として奥行推定装置1に入力されることとする。あるいは、フレーム画像ごとにタイムコードを付加し、奥行推定装置1で同期をとることとしてもよい。
[奥行推定装置の構成]
以下、本願発明の第1実施形態に係る奥行推定装置1の構成について説明する
奥行推定装置1は、予め定めた位置に複数配列したカメラC,Cで同一の被写体Tを撮影した複数のカメラ映像(F,F)から、被写体Tの奥行きを示す奥行値を推定するものである。図1のように、奥行推定装置1は、映像入力手段10と、対応画素差分演算手段20と、差分値記憶手段30と、奥行値推定手段100とを備える。
映像入力手段10は、カメラCMで撮影された複数のカメラ映像(F,F)を入力するものである。ここでは、映像入力手段10は、基準カメラCで撮影した基準映像Fと、隣接カメラCで撮影した隣接映像Fとを入力する。
この映像入力手段10に入力されたカメラ映像(F,F)は、図示を省略したメモリに記憶され、後記する対応画素差分演算手段20及び奥行値推定手段100(エッジ検出手段110)によって参照されるものとする。
ここで、視差量及び奥行値について説明する。図2のように、カメラ映像(F,F)に写る被写体T(背景A,前景B)の位置は、互いに内側にずれる。被写体Tのズレ量は、カメラCMから被写体Tまでの距離の逆数に比例する。このズレ量を、被写体Tの視差量と呼び、この視差量を、被写体Tの最大距離と最小距離で所定の範囲に正規化したものを奥行値と呼ぶ。この奥行値の最大値は、カメラCMの焦点が合う被写体Tの最近距離となり、最小値は無限遠で予め分かる。また、被写体Tの存在する距離の範囲が予め分かる場合、その最近距離及び最遠距離から奥行値の最大値と最小値を決める。しかし、個々の被写体Tの各部の奥行値は未知のため、以下に述べる手法で推定する。
対応画素差分演算手段20は、推定奥行値De及び基準映像Fの注目画素Pごとに、注目画素Pの画素値と、注目画素Pの推定奥行値Deの視差に対応する画素位置にある隣接映像Fの対応画素Pの画素値との差分絶対値である対応画素差分値Eを演算するものである。
なお、注目画素Pとは、基準映像Fにおいて奥行値を推定する対象となっている画素である。
また、図1では、対応画素差分値Eを‘差分値E’と図示した。
画素値の差分絶対値は、カメラ映像(F,F)が、輝度(輝度値)と色差信号(色差値)との各要素で構成される場合、当該画素の輝度値の差分絶対値と、色差値の差分絶対値とを加算平均した値とする。このとき、色差値の差分絶対値に任意の係数を掛けて、色成分の重みを調整することとしてもよい。
また、画素値の差分絶対値は、カメラ映像(F,F)が、RGBのカラー信号で構成される場合、カラー信号の要素であるR値の差分絶対値と、G値の差分絶対値と、B値の差分絶対値とを加算平均した値とする。
また、推定奥行値Deは、被写体Tの奥行値を仮に設定する値であって、最小視差量から最大視差量までに対応する奥行値までの値をとる。例えば、奥行値を8ビットのデータで表す場合、推定奥行値Deは、‘0’(最小視差量)〜‘255’(最大視差量)の範囲の値をとる。ここでは、奥行値の単位と画素間の視差の単位とを同一とし、奥行値が‘1’増加することで、1画素ずつ視差が増加することとする。
カメラCMが平行に配置されている場合、図2のように、左側のカメラCで撮影された隣接映像Fでは、右側のカメラCで撮影された基準映像Fと比べて、前景Bの対応する画素(対応画素)Pが右側に寄っている。そこで、隣接映像Fにおいて、基準映像Fの画素Pと同じ画素位置(X,Y)を、前景Bのズレ方向と同じ側(つまり、右側)に推定奥行値Deだけ移動させれば、対応画素Pに近づく。このとき、推定奥行値Deが適切であれば、基準映像Fの画素Pが対応画素Pに重なる。
以上より、対応画素差分演算手段20は、推定奥行値Deを最小値から最大値まで順に変えながら、基準映像Fの全ての注目画素Pについて、隣接映像F内で注目画素Pの座標位置(X,Y)を、推定奥行値Deに相当する視差量だけ右側に移動させて、隣接映像Fの対応画素Pを求める。そして、対応画素差分演算手段20は、注目画素Pの画素値Prと、対応画素Pの画素値Plの差分|Pl−Pr|を求める。その後、対応画素差分演算手段20は、求めた差分|Pl−Pr|を、推定奥行値Deに対する注目画素Pの対応画素差分値Eとして、差分値記憶手段30に記憶する。
なお、‘|’は、絶対値を表す。
ここで、対応画素差分演算手段20は、1画素ごとに差分を求めてもよく、注目画素Pを中心とする複数画素の差分を総和してもよい。また、対応画素差分演算手段20は、カラー信号の場合、輝度成分と色差成分とのそれぞれの差分の平均値を求めてもよい。これにより、対応画素差分演算手段20は、奥行値Dfのノイズを低減させることができる。
差分値記憶手段30は、推定奥行値De及び注目画素Pごとに、対応画素差分演算手段20が演算した対応画素差分値Eを記憶するものである。例えば、差分値記憶手段30は、磁気メモリや半導体メモリ等の一般的な記憶媒体である。
この差分値記憶手段30に記憶された対応画素差分値Eは、後記する奥行値推定手段100によって参照される。
図3を参照し、奥行値推定手段100の構成について説明する。
図3のように、奥行値推定手段100は、注目画素Pの奥行値を推定するものであり、エッジ検出手段110と、奥行差加算手段120と、奥行値決定手段130と、奥行値記憶手段140とを備える。
エッジ検出手段110は、基準映像Fの注目画素Pの画素値Pfと注目画素Pの近傍画素の画素値との差分が予め定めた閾値Thより小さいか否かを判定するものである。
具体的には、エッジ検出手段110は、注目画素Pの画素値Pfと左近傍画素の画素値Plとの差分|Pf−Pl|、及び、注目画素Pの画素値Pfと上近傍画素の画素値Puとの差分|Pf−Pu|が閾値Th(例えば、‘60’)より小さいか否かを判定する。
なお、左近傍画素は、注目画素の左側近傍に位置する隣接画素である。また、上近傍画素は、注目画素の上側近傍に位置する隣接画素である。
そして、エッジ検出手段110は、差分|Pf−Pl|及び差分|Pf−Pu|の両方が閾値Thより小さい場合、注目画素Pの位置にエッジが無いことを示すフラグGを奥行差加算手段120に出力する。
一方、エッジ検出手段110は、差分|Pf−Pl|又は差分|Pf−Pu|が閾値Th以上の場合、フラグGを奥行差加算手段120に出力しない。
奥行差加算手段120は、対応画素差分値Eに注目画素Pと隣接画素との奥行差を加算するものであり、最小評価値演算手段122と、推定評価値演算手段124とを備える。
最小評価値演算手段122は、推定奥行値De及び注目画素Pごとに、決定された奥行値Dfにおける注目画素Pの対応画素差分値E(Df)に、注目画素Pと注目画素に隣接する隣接画素との奥行値の差分の和に平滑係数λを乗算した値を加えた最小評価値Ffを演算するものである。
具体的には、最小評価値演算手段122は、奥行値決定手段130を介して、奥行値記憶手段140から注目画素Pの奥行値Dfを読み出し、この奥行値Dfに対応した対応画素差分値E(Df)を差分値記憶手段30から読み出す。
そして、最小評価値演算手段122は、エッジ検出手段110からフラグGが入力された場合(エッジが無い場合)、下記の式(1)により最小評価値Ffを演算し、演算した最小評価値Ffを奥行値決定手段130に出力する。
Ff=E(Df)+λ(|Df−Dl|+|Df−Du|) …式(1)
この式(1)では、Dlが左隣接画素の奥行値を表し、Duが上隣接画素の奥行値を表す。つまり、式(1)では、奥行値Dfをとる場合において、対応画素差分値E(Df)と、注目画素P及び左隣接画素の奥行差Df−Dlと、注目画素P及び上隣接画素の奥行差Df−Duとを加味し、マッチング誤差を評価している(図4参照)。
なお、左隣接画素は、注目画素Pの左側に位置する隣接画素である。また、上隣接画素は、注目画素Pの上側に位置する隣接画素である。
ここで、式(1)の第2項は、画素間の奥行値の連続性重みを表しており、この値が大きい程奥行マップDが滑らかになる(後記する式(2)、式(3)及び式(4)も同様)。
また、平滑係数λは、その値を大きくすると、奥行マップDが滑らかになる一方、その細部が潰れてしまう。そこで、平滑係数λは、適切な値(例えば、‘1.0’)に予め定めておく。
一方、最小評価値演算手段122は、エッジ検出手段110からフラグGが入力されない場合(エッジが有る場合)、下記の式(2)により最小評価値Ffを演算し、演算した最小評価値Ffを奥行値決定手段130に出力する。この平滑係数(第2平滑係数)λ´は、平滑係数λよりも小さな値(例えば、‘0.004’)に予め定めておく。
Ff=E(Df)+λ´(|Df−Dl|+|Df−Du|) …式(2)
なお、最小評価値演算手段122は、注目画素Pの左側又は上側に隣接画素が無い場合、奥行差Df−Dl又はDf−Duを演算せずともよい。この場合、最小評価値演算手段122は、演算できなかった項を除いて最小評価値Ffを演算する。
また、最小評価値演算手段122は、左隣接画素が無い場合、右隣接画素の奥行値をDlとして代用してもよく、上隣接画素が無い場合、下隣接画素の奥行値をDuとして代用してもよい。
また、右隣接画素は、注目画素の右側に位置する隣接画素である。また、下隣接画素は、注目画素の下側に位置する隣接画素である。
推定評価値演算手段124は、推定奥行値De及び注目画素Pごとに、推定奥行値Deにおける注目画素Pの対応画素差分値E(De)に、推定奥行値Deと隣接画素の奥行値との差分の和に平滑係数を乗算した値を加えた推定評価値Feを演算するものである。
具体的には、推定評価値演算手段124は、推定奥行値Deに対応した対応画素差分値E(De)を差分値記憶手段30から読み出す。そして、推定評価値演算手段124は、エッジ検出手段110からフラグGが入力された場合、下記の式(3)により推定評価値Feを演算し、演算した推定評価値Feを奥行値決定手段130に出力する。
Fe=E(De)+λ(|De−Dl|+|De−Du|) …式(3)
つまり、式(3)では、推定奥行値Deをとる場合において、対応画素差分値E(De)と、注目画素P及び左隣接画素の奥行差De−Dlと、注目画素P及び上隣接画素の奥行差De−Duとを加味して、マッチング誤差を評価している(図4参照)。
なお、図3では、最小評価値Ff及び推定評価値Feを‘評価値Ff,Fe’と略記した。
また、推定評価値演算手段124は、エッジ検出手段110からフラグGが入力されない場合、下記の式(4)により推定評価値Feを演算し、演算した推定評価値Feを奥行値決定手段130に出力する。
Fe=E(De)+λ´(|De−Dl|+|De−Du|)+λ´´|De−Df| …式(4)
ここで、式(4)の第3項は、奥行値の連続性重みが小さいときに生じる奥行値の変動を抑える重みである。この平滑係数(第3平滑係数)λ´´は、平滑係数λと平滑係数λ´との間の値(例えば、‘0.04’)に予め定めておく。
なお、推定評価値演算手段124は、注目画素Pの左側又は上側に隣接画素が無い場合、奥行差De−Dl又はDe−Duを演算せずともよい。この場合、推定評価値演算手段124は、演算できなかった項を除いて推定評価値Feを演算する。
また、推定評価値演算手段124は、左隣接画素が無い場合、右隣接画素の奥行値をDlとして代用してもよく、上隣接画素が無い場合、下隣接画素の奥行値をDuとして代用してもよい。
奥行値決定手段130は、推定奥行値De及び注目画素Pごとに、最小評価値演算手段122から入力された最小評価値Ffと、推定評価値演算手段124から入力された推定評価値Feとを比較するものである。
そして、奥行値決定手段130は、推定評価値Feが最小評価値Ffより小さい場合、推定奥行値Deを注目画素Pの奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140を更新する。このようにして、奥行値決定手段130は、注目画素Pごとの奥行値Dfからなる奥行マップDを生成する。つまり、奥行マップDは、各画素が奥行値Dfを表した奥行映像のことである。
また、奥行値決定手段130は、奥行値初期化手段132を備える。
奥行値初期化手段132は、推定奥行値Deの最小値を、基準映像Fの全画素における奥行値Dfの初期値として決定し、決定した奥行値Dfの初期値を奥行値記憶手段140に書き込むものである。例えば、奥行値初期化手段132は、最小評価値演算手段122が最小評価値Ffを演算する前に、奥行値Dfの初期値を決定する。
奥行値記憶手段140は、推定奥行値De及び注目画素Pごとの奥行値Dfを記憶するものである。例えば、奥行値記憶手段140は、磁気メモリや半導体メモリ等の一般的な記憶媒体である。
この奥行値記憶手段140に記憶された奥行値Dfは、奥行マップDとして外部に出力される。
[奥行推定装置の動作]
図5を参照して、図1の奥行推定装置1の動作について説明する。
奥行推定装置1は、映像入力手段10によって、カメラ映像(F,F)を入力する(映像入力ステップS10)。
奥行推定装置1は、推定奥行値Deが最小値から最大値になり、Yが‘0’から映像高さになり、Xが‘0’から映像幅になるまで、下記のステップS20の処理を繰り返す。ここで、注目画素Pの座標を(X,Y)とする。また、基準映像Fの幅及び高さを、映像幅及び映像高さとして予め定めておく。
奥行推定装置1は、対応画素差分演算手段20によって、注目画素P(X,Y)の対応画素差分値Eを演算し、演算した対応画素差分値Eを差分値記憶手段30に記憶する(対応画素差分演算ステップS20)。
奥行推定装置1は、奥行値初期化手段132によって、推定奥行値Deの最小値を、基準映像Fの全画素における奥行値Dfの初期値として決定し、決定した奥行値Dfの初期値を奥行値記憶手段140に書き込む(奥行値初期化ステップS30)。
奥行推定装置1は、推定奥行値Deが最小値+1から最大値になり、Yが‘0’から映像高さになり、Xが‘0’から映像幅になるまで、下記のステップS40〜S60の処理を繰り返す。つまり、奥行推定装置1は、基準映像Fの左上側(起点側)から右下側(終点側)まで、ジグザグスキャンのように注目画素P(X,Y)を移動させながら、ステップS40〜S60の処理を行う。
奥行推定装置1は、エッジ検出手段110によって、注目画素Pの画素値Pfと近傍画素の画素値との差分が閾値Thより小さい場合、フラグGを出力する。
奥行推定装置1は、最小評価値演算手段122によって、フラグGに応じて式(1)又は式(2)を用いて、注目画素P(X,Y)における最小評価値Ffを演算する。
奥行推定装置1は、推定評価値演算手段124によって、フラグGに応じて式(3)又は式(4)を用いて、注目画素P(X,Y)における推定評価値Feを演算する(評価値演算ステップS40)。
奥行推定装置1は、奥行値決定手段130によって、ステップS40で演算された最小評価値Ffと推定評価値Feとを比較する(評価値判定ステップS50)。
推定評価値Feが最小評価値Ffより小さい場合(ステップS50でYes)、奥行推定装置1は、奥行値決定手段130によって、推定奥行値Deを注目画素P(X,Y)の奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140を更新する(奥行値決定ステップS60)。
推定評価値Feが最小評価値Ff以上の場合(ステップS50でNo)、奥行推定装置1は、ステップS60の処理を行わない。
ステップS60の終了後、奥行推定装置1は、奥行値記憶手段140に記憶された奥行マップDを出力する(ステップS70)。
なお、ステップS40〜S60において、奥行推定装置1は、注目画素P(X,Y)を、右下側(始点側)から左上側(終点側)まで移動させてもよい。
[作用・効果]
以上のように、本願発明の第1実施形態に係る奥行推定装置1は、推定奥行値Deを最小値から最大値まで増加させながら、その推定奥行値Deに対して、注目画素Pで既に決定された奥行値Dfを推定奥行値Deに変更するか否かを一意的に判定するので、奥行マップDを高速に生成することができる。
さらに、奥行推定装置1は、注目画素P及び隣接画素の局所領域を対象として、式(1)から式(4)のような簡易な演算式により評価値Ff,Feを求めるため、処理速度が速くなり、リアルタイム処理への適用が容易となる。
さらに、奥行推定装置1は、エッジ部分で奥行値の連続性重みを下げると共に、奥行値の大きな変動を押さえるので、エッジがある場合でもより正確な奥行マップDを生成することができる。
その結果、奥行推定装置1は、高速に正確な奥行マップDが得られるので、ロボット等のコンピュータによる立体空間の認識手段として利用できる。
さらに、奥行推定装置1は、奥行マップDから他の視点映像内での対応画素位置が得られるので、これを使って少数の視点映像から、他の視点映像を合成することができる。これにより、奥行推定装置1は、立体映像の生成に必要な多数の視点映像からなる立体映像データを、少数の視点映像とその奥行マップDに削減して蓄積や伝送をすることが可能になる。
(変形例1)
図6,図7を参照し、本願発明の変形例1に係る奥行推定装置1の動作について、第1実施形態と異なる点を説明する。
奥行推定装置1は、基準映像Fの左上側から右下側まで注目画素Pを移動させながら奥行値Dfを決定した後、基準映像Fの右下側から左上側までジグザグスキャンのように注目画素Pを移動させながら奥行値Dfを再び決定する点が、第1実施形態と異なる。
奥行推定装置1は、図5のステップS10〜S30の処理を実行する(図6不図示)。
図6のように、奥行推定装置1は、図5のステップS30の処理後、以下の処理を行う。
奥行推定装置1は、推定奥行値Deが最小値+1から最大値になるまで、ステップS40〜S60及びステップS80〜S100の処理を繰り返す。
奥行推定装置1は、Yが‘0’から映像高さになり、Xが‘0’から映像幅になるまで、ステップS40〜S60の処理を繰り返す。
奥行推定装置1は、Yが映像高さから‘0’になり、Xが映像幅から‘0’になるまで、ステップS80〜S100の処理を繰り返す。つまり、奥行推定装置1は、基準映像Fの右下側から左上側まで、ジグザグスキャンのように注目画素P(X,Y)を移動させながら、ステップS80〜S100の処理を行う。
奥行推定装置1は、エッジ検出手段110によって、注目画素P(X,Y)の画素値Pfと近傍画素の画素値との差分が閾値Thより小さい場合、フラグGを出力する。
奥行推定装置1は、最小評価値演算手段122によって、エッジ検出手段110からフラグGが入力された場合、下記の式(5)で注目画素P(X,Y)における最小評価値Ffを演算する。
Ff=E(Df)+λ(|Df−Dr|+|Df−Dd|) …式(5)
つまり、式(5)では、奥行値Dfをとる場合において、対応画素差分値E(Df)と、注目画素P及び右隣接画素との奥行差Df−Drと、注目画素P及び下隣接画素との奥行差Df−Ddとを加味し、マッチング誤差を評価している(図7参照)。
また、奥行推定装置1は、最小評価値演算手段122によって、エッジ検出手段110からフラグGが入力されない場合、下記の式(6)で注目画素P(X,Y)における最小評価値Ffを演算する。
Ff=E(Df)+λ´(|Df−Dr|+|Df−Dd|) …式(6)
奥行推定装置1は、推定評価値演算手段124によって、エッジ検出手段110からフラグGが入力された場合、下記の式(7)で注目画素P(X,Y)における推定評価値Feを演算する。
Ff=E(De)+λ(|De−Dr|+|De−Dd|) …式(7)
つまり、式(7)では、推定奥行値Deをとる場合において、対応画素差分値E(De)と、注目画素P及び右隣接画素との奥行差De−Drと、注目画素P及び下隣接画素との奥行差De−Ddとを加味し、マッチング誤差を評価している(図7参照)。
また、奥行推定装置1は、推定評価値演算手段124によって、エッジ検出手段110からフラグGが入力されない場合、下記の式(8)で注目画素P(X,Y)における推定評価値Feを演算する(ステップS80)。
Ff=E(De)+λ´(|De−Dr|+|De−Dd|)+λ´´|De−Df| …式(8)
奥行推定装置1は、奥行値決定手段130によって、ステップS80で演算された最小評価値Ffと推定評価値Feとを比較する(ステップS90)。
推定評価値Feが最小評価値Ffより小さい場合(ステップS90でYes)、奥行推定装置1は、奥行値決定手段130によって、推定奥行値Deを注目画素P(X,Y)の奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140を更新する(ステップS100)。
推定評価値Feが最小評価値Ff以上の場合(ステップS90でNo)、奥行推定装置1は、ステップS100の処理を行わない。
以上のように、本願発明の変形例1に係る奥行推定装置1は、ステップS80〜S100で奥行値Dfを再び決定するため、さらに連続性が高い奥行マップDを生成することができる。
なお、ステップS40〜S60の処理において、奥行推定装置1は、注目画素P(X,Y)を右下側から左上側まで移動させてもよい。この場合、奥行推定装置1は、ステップS80〜S100の処理において、注目画素P(X,Y)を左上側から右下側まで移動させてもよい。
(第2実施形態)
[奥行推定装置の構成]
図8を参照し、本願発明の第2実施形態に係る奥行推定装置1Aの構成について、第1実施形態と異なる点を説明する(適宜図3参照)。
奥行推定装置1Aは、奥行マップDを縮小する点が第1実施形態と異なる。図8のように、奥行推定装置1Aは、図3の奥行値推定手段100の代わりに、奥行値推定手段100Aを備える。
奥行値推定手段100Aは、エッジ検出手段110と、奥行差加算手段120Aと、奥行値決定手段130Aと、奥行値記憶手段140と、奥行マップ縮小手段150とを備える。
奥行差加算手段120Aは、最小評価値演算手段122Aと、推定評価値演算手段124Aとを備える。
奥行マップ縮小手段150は、奥行値記憶手段140の奥行マップDが縮小された縮小奥行マップDmを生成するものである。
具体的には、奥行マップ縮小手段150は、奥行マップDで水平方向に連続する2画素の奥行値D(2n),D(2n+1)に対して、下記の式(9)の演算を行う。
D´(n)={D(2n)+D(2n+1)}/2 …式(9)
nは、‘0’から、奥行マップDで水平方向の最大画素数の半分までの値を取る自然数である。また、D´(n)は、水平方向に縮小された奥行マップD´の画素nの奥行値を表す。
また、奥行マップ縮小手段150は、式(9)で水平方向に縮小された奥行マップDにおいて、垂直方向に連続する2画素の奥行値D´(2m),D´(2m+1)に対して、下記の式(10)の演算を行う。つまり、奥行マップDは、式(9)及び式(10)の演算により、水平方向画素数及び垂直方向画素数が半分になり、総画素数が1/4に縮小される。
D´´(m)={D´(2m)+D´(2m+1)}/2 …式(10)
mは、‘0’から、奥行マップDで垂直方向の最大画素数の半分までの値を取る自然数である。また、D´´(m)は、水平方向及び垂直方向に縮小された奥行マップD´´の画素mの奥行値を表す。
ここで、奥行マップ縮小手段150は、式(9)及び式(10)の演算を所定回数(例えば、4回)繰り返し、縮小奥行マップDmを生成してもよい。この場合、縮小奥行マップDmは、奥行マップDmを1/16に縮小したものとなる。その後、奥行マップ縮小手段150は、生成した縮小奥行マップDmを奥行値決定手段130Aに出力する。
なお、奥行マップ縮小手段150は、式(10)を演算した後、式(9)を演算してもよい。
最小評価値演算手段122Aは、第1実施形態の最小評価値演算手段122と同様の機能を備える。
さらに、最小評価値演算手段122Aは、奥行値決定手段130Aからの再評価の指令に応じて、推定奥行値De及び後記する画像領域Aの注目画素P(図9)ごとに、奥行値Dfにおける注目画素Pの対応画素差分値E(Df)と、注目画素Pと隣接画素との奥行値の差分の和に平滑係数(第4平滑係数)λ´´´が乗算された値を加えた最小評価値Ffを再び演算する。この平滑係数λ´´´は、平滑係数λよりも大きな値(例えば、‘8’)と予め定めておく。
具体的には、最小評価値演算手段122Aは、下記の式(11)により最小評価値Ffを再び演算し、演算した最小評価値Ffを奥行値決定手段130Aに出力する。つまり、最小評価値演算手段122Aは、式(1)の平滑係数λを平滑係数λ´´´に代えて、画像領域に含まれる全注目画素Pの最小評価値Ffを再び演算する。
Ff=E(Df)+λ´´´(|Df−Dl|+|Df−Du|) …式(11)
推定評価値演算手段124Aは、第1実施形態の推定評価値演算手段124と同様の機能を備える。
さらに、推定評価値演算手段124Aは、奥行値決定手段130Aからの再評価の指令に応じて、推定奥行値De及び画像領域Aの注目画素Pごとに、推定奥行値Deにおける注目画素Pの対応画素差分値E(De)と、推定奥行値Deと隣接画素の奥行値との差分の和に平滑係数λ´´´が乗算された値を加えた推定評価値Feを再び演算する。
具体的には、推定評価値演算手段124Aは、下記の式(12)により推定評価値Feを再び演算し、演算した推定評価値Feを奥行値決定手段130Aに出力する。つまり、推定評価値演算手段124Aは、式(2)の平滑係数λを平滑係数λ´´´に代えて、画像領域に含まれる全注目画素Pの推定評価値Feを再び演算する。
Ff=E(De)+λ´´´(|De−Dl|+|De−Du|) …式(12)
奥行値決定手段130Aは、第1実施形態の奥行値決定手段130と同様の機能を備える。
さらに、奥行値決定手段130Aは、推定奥行値De及び奥行マップ縮小手段150から入力された縮小奥行マップDmの注目画素(第3注目画素)ごとに、注目画素に隣接する全ての隣接画素(第3隣接画素)について、隣接画素の奥行値から所定値を減算した減算値を演算する。
具体的には、奥行値決定手段130Aは、推定奥行値Deを最小値から最大値まで順に変えて、縮小奥行マップDmの注目画素を左上側から右下側までジグザグスキャンするように移動させる。このとき、奥行値決定手段130Aは、左隣接画素Dm(l)から所定値Δを減算した減算値と、上隣接画素Dm(u)から所定値Δを減算した減算値と、右隣接画素Dm(r)から所定値Δを減算した減算値と、下隣接画素Dm(d)から所定値Δを減算した減算値とを求める。例えば、所定値Δは、推定奥行値Deの最大値の1/10で予め定めておく。
そして、奥行値決定手段130Aは、下記の式(13)のように、縮小奥行マップDmの注目画素の奥行値Dmが、上下左右の隣接画素から演算した減算値以上となるか否かを判定する。
Dm(l)−Δ≦Dm、かつ、Dm(u)−Δ≦Dm、かつ、Dm(r)−Δ≦Dm、かつ、Dm(d)−Δ≦Dm …式(13)
ここで、縮小奥行マップDmは、基準映像Fと比べて、1/16のサイズになっている。つまり、図9のように、縮小奥行マップDmの1画素PDmが、基準映像Fで横16画素×縦16画素(256画素)の画素領域Aに対応する。そこで、注目画素の奥行値Dmが式(13)を満たす場合、奥行値決定手段130Aは、注目画素PDmに対応する画像領域Aの再評価を、最小評価値演算手段122A及び推定評価値演算手段124Aに指令する。
再評価の指令に応じて、奥行値決定手段130Aは、最小評価値演算手段122Aで再び演算された最小評価値Ffと、推定評価値演算手段124Aで再び演算された推定評価値Feとが入力される。
続いて、奥行値決定手段130Aは、推定奥行値De及び画像領域Aの注目画素Pごとに、再び演算された最小評価値Ffと推定評価値Feとを比較する。そして、奥行値決定手段130Aは、推定評価値Feが最小評価値Ffより小さい場合、推定奥行値Feを注目画素Pの奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140を更新する。
[奥行推定装置の動作]
図10を参照して、図8の奥行推定装置1Aの動作について説明する。
奥行推定装置1Aは、奥行マップ縮小手段150によって、奥行マップDの水平方向画素数を半分に縮小する(ステップS200)。
奥行推定装置1Aは、奥行マップ縮小手段150によって、ステップS200で水平方向に縮小された奥行マップDの垂直方向画素数を半分に縮小する(ステップS210)。
なお、奥行推定装置1は、所定の回数(例えば、4回)、ステップS200,S210の処理を繰り返してもよい。
奥行推定装置1Aは、奥行マップ縮小手段150によって、ステップS200,S210で生成した縮小奥行マップDmを奥行値決定手段130Aに出力する(ステップS220)。
奥行推定装置1Aは、推定奥行値Deが最小値から最大値になり、Yが‘0’から縮小マップ高さになり、Xが‘0’から縮小マップ幅になるまで、下記のステップS230〜S260の処理を繰り返す。ここで、縮小マップDmの注目画素の座標を(X,Y)とする。また、縮小マップDmの幅及び高さを、縮小マップ幅及び縮小マップ高さとして予め定めておく。
奥行推定装置1Aは、奥行値決定手段130Aによって、縮小奥行マップDmの注目画素に隣接する全ての隣接画素について減算値を演算し、式(13)を満たすか否かを判定する(ステップS230)。
式(13)を満たす場合(ステップS230でYes)、奥行推定装置1Aは、最小評価値演算手段122Aによって、式(11)で画素領域Aの注目画素Pごとに最小評価値Ffを演算する。
奥行推定装置1Aは、推定評価値演算手段124Aによって、式(12)で画素領域Aの注目画素Pごとに推定評価値Feを演算する(ステップS240)。
奥行推定装置1Aは、奥行値決定手段130Aによって、ステップS240で演算された最小評価値Ffと推定評価値Feとを比較する(ステップS250)。
式(13)を満たさない場合(ステップS230でNo)、奥行推定装置1Aは、ステップS240,S250,S260の処理を行わない。
推定評価値Feが最小評価値Ffより小さい場合(ステップS250でYes)、奥行推定装置1Aは、奥行値決定手段130Aによって、推定奥行値Deを画素領域Aの注目画素Pの奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140を更新する(ステップS260)。
推定評価値Feが最小評価値Ff以上の場合(ステップS250でNo)、奥行推定装置1Aは、ステップS260の処理を行わない。
ステップ260の終了後、奥行推定装置1Aは、奥行値記憶手段140に記憶された奥行マップDを出力する(ステップS270)。
[作用・効果]
以上のように、本願発明の第2実施形態に係る奥行推定装置1Aは、式(13)により奥行マップDでエッジ以外の部分を検出する。これにより、奥行推定装置1Aは、式(1)及び式(2)で平滑しきれなかった奥行マップDでエッジを含まない部分の奥行値を、式(11)及び式(12)でより強く平滑化できると共に、エッジ部分の奥行値を潰すことがない。その結果、奥行推定装置1Aは、より正確な奥行マップDを生成することができる。
(第3実施形態)
[奥行推定装置の構成]
図11を参照し、本願発明の第3実施形態に係る奥行推定装置1Bの構成について、第1実施形態と異なる点を説明する。
奥行推定装置1Bは、カメラ映像を縮小してから奥行マップを生成した後、この奥行マップを拡大する点が第1実施形態と異なる。
図11のように、奥行推定装置1Bは、映像入力手段10と、対応画素差分演算手段20と、差分値記憶手段30と、映像縮小手段40と、奥行マップ拡大手段50と、奥行値推定手段100とを備える。
映像縮小手段40は、映像入力手段10から入力されたカメラ映像(基準映像F及び隣接映像F)を縮小するものである。
具体的には、映像縮小手段40は、基準映像Fで水平方向に連続する2画素の画素値P(2n´),P(2n´+1)に対して、下記の式(14)の演算を行う。
P´(n´)={P(2n´)+P(2n´+1)}/2 …式(14)
n´は、‘0’から、基準映像Fで水平方向の最大画素数の半分までの値を取る自然数である。また、P´(n´)は、水平方向に縮小された基準映像P´の画素n´の画素値を表す。
また、映像縮小手段40は、式(14)で水平方向に縮小された基準映像Fにおいて、垂直方向に連続する2画素の画素値P´(2m´),P´(2m´+1)に対して、下記の式(15)の演算を行う。
P´´(m´)={P´(2m´)+P´(2m´+1)}/2 …式(15)
m´は、‘0’から、基準映像Fで垂直方向の最大画素数の半分までの値を取る自然数である。また、P´´(m´)は、水平方向及び垂直方向に縮小された基準映像P´´の画素m´の画素値を表す。
また、映像縮小手段40は、基準映像Fと同様、隣接映像Fについても式(14)及び式(15)の演算を行う。その後、映像縮小手段40は、縮小された基準映像P´´(図11の基準映像F´)及び隣接映像F´を対応画素差分演算手段20に出力する。
ここで、基準映像F´は、基準映像Fと比べて、総画素数が1/4に縮小される。このため、奥行マップDも第1実施形態の各画像と比べて、総画素数が1/4に縮小されてしまう。
そこで、奥行マップ拡大手段50は、奥行推定装置100から入力された奥行マップDを映像入力手段10に入力された基準映像Fと同一サイズまで拡大するものである。
具体的には、奥行マップ拡大手段50は、奥行マップDで水平方向に連続する3画素の奥行値D(n−1),D(n),D(n+1)に対して、下記の式(16)及び式(17)の演算を行う。
D´(2n)=D(n)+[−{−D(n−1)+D(n+1)}/4+1]/2 …式(16)
D´(2n+1)=D(n)+{−D(n−1)+D(n+1)}/4]/2 …式(17)
なお、奥行値D(n−1),D(n+1)が無い場合、その値を‘0’としてもよく、反対側に位置する画素の奥行値D(n−1),D(n+1)を用いてもよい。また、D´(2n),D´(2n+1)は、水平方向に拡大された奥行マップDの画素2n,2n+1の奥行値を表す。
また、奥行マップ拡大手段50は、式(16)及び式(17)で水平方向に拡大された奥行マップDにおいて、垂直方向に連続する3画素の奥行値D´(m−1),D´(m),D´(m+1)に対して、下記の式(18)及び式(19)の演算を行う。その後、奥行マップ拡大手段50は、拡大奥行マップD´を出力する。
D´´(2m)=D´(m)+[−{−D´(m−1)+D´(m+1)}/4+1]/2 …式(18)
D´´(2m+1)=D´(m)+{−D´(m−1)+D´(m+1)}/4]/2 …式(19)
なお、奥行値D´(m−1),D´(m+1)が無い場合、その値を‘0’としてもよく、反対側に位置する画素の奥行値D´(m−1),D´(m+1)を用いてもよい。また、D´´(2m),D´´(2m+1)は、水平方向及び垂直方向に拡大された奥行マップD´´の画素2m,2m+1の奥行値を表す。
[奥行推定装置の動作]
図12を参照して、図11の奥行推定装置1Bの動作について説明する。
なお、図12では、図面を見やすくするため、繰り返し条件の図示を省略した(図14,図17,図21も同様)。
また、奥行値推定処理は、図5のステップS40〜S60の処理に対応している。
奥行推定装置1Bは、映像縮小手段40によって、ステップS10で入力されたカメラ映像(基準映像F及び隣接映像F)を縮小する(ステップS300)。
奥行推定装置1Bは、奥行マップ拡大手段50によって、奥行マップDを映像入力手段10に入力された基準映像Fと同一サイズまで拡大する(ステップS310)。
奥行推定装置1Bは、奥行マップ拡大手段50によって、ステップS310で拡大した拡大奥行マップD´を出力する(ステップS320)。
[作用・効果]
本願発明の第3実施形態に係る奥行推定装置1Bは、処理対象の注目画素数が少なくなり、さらに高速に奥行マップを生成することができる。
さらに、奥行推定装置1Bは、映像縮小手段40がカメラ映像を縮小する処理と、奥行マップ拡大手段50が奥行マップDを拡大する処理とを同一回数繰り返すことで、さらなる高速化を図ることもできる。
(第4実施形態)
[奥行推定装置の構成]
図13を参照し、本願発明の第4実施形態に係る奥行推定装置1Cの構成について、第3実施形態と異なる点を説明する。
奥行推定装置1Cは、隣接映像Fが基準映像Fよりも大きいため、基準映像Fに合わせて隣接映像Fを縮小する点が第3実施形態と異なる。
図13のように、奥行推定装置1Cは、映像入力手段10Cと、対応画素差分演算手段20と、差分値記憶手段30と、映像縮小手段40Cと、奥行マップ拡大手段50Cと、奥行値推定手段100とを備える。
映像入力手段10Cは、第3実施形態の映像入力手段10と同様の機能を備える。
さらに、映像入力手段10Cは、入力されたカメラ映像のうち、最小のカメラ映像のサイズを縮小目標サイズとして、映像縮小手段40Cに出力する。さらに、映像入力手段10Cは、入力されたカメラ映像のうち、最大のカメラ映像のサイズを拡大目標サイズとして、奥行マップ拡大手段50Cに出力する。
映像縮小手段40Cは、映像入力手段10Cに入力されたカメラ映像のうち、最小サイズのカメラ映像(基準映像F)に合わせて他のカメラ映像(隣接映像F)を縮小するものである。例えば、映像縮小手段40Cは、第3実施形態の映像縮小手段40と同様の手法で、映像入力手段10Cから入力された縮小目標サイズ(基準映像Fのサイズ)まで隣接映像Fを縮小する。そして、映像縮小手段40Cは、縮小した隣接映像F´を対応画素差分演算手段20に出力する。
奥行マップ拡大手段50Cは、奥行推定装置100から入力された奥行マップDを、映像入力手段10Cに入力されたカメラ映像のうち、最大のカメラ映像(隣接映像F)に合わせて拡大するものである。例えば、奥行マップ拡大手段50Cは、第3実施形態の奥行マップ拡大手段50と同様の手法で、映像入力手段10Cから入力された拡大目標サイズ(隣接映像Fのサイズ)まで奥行マップDを拡大する。そして、奥行マップ拡大手段50Cは、拡大された奥行マップD´を出力する。
なお、奥行マップ拡大手段50Cは、奥行マップDを拡大せずにそのまま出力してもよい。
[奥行推定装置の動作]
図14を参照して、図13の奥行推定装置1Cの動作について説明する。
奥行推定装置1Cは、映像入力手段10Cによって、カメラ映像(F,F)を入力する。
奥行推定装置1Cは、映像入力手段10Cによって、縮小目標サイズを映像縮小手段40Cに出力し、拡大目標サイズを奥行マップ拡大手段50Cに出力する(ステップS400)。
奥行推定装置1Cは、映像縮小手段40Cによって、ステップS400で入力されたカメラ映像(隣接映像F)を縮小目標サイズまで縮小する(ステップS410)。
奥行推定装置1Cは、奥行マップ拡大手段50Cによって、奥行マップDを拡大目標サイズまで拡大する(ステップS420)。
[作用・効果]
本願発明の第4実施形態に係る奥行推定装置1Cは、基準映像F及び隣接映像Fが異なるサイズの場合でも、高速に奥行マップを生成することができる。
(第5実施形態)
[奥行推定装置の構成]
図15を参照し、本願発明の第5実施形態に係る奥行推定装置1Dの構成について、第3実施形態と異なる点を説明する。
奥行推定装置1Dは、生成した奥行マップ(参照奥行マップDref)を利用して奥行値を推定し直す点が、第3実施形態と異なる。
図15のように、奥行推定装置1Dは、映像入力手段10と、対応画素差分演算手段20と、対応画素差分演算手段(第2対応画素差分演算手段)20Dと、差分値記憶手段30,30Dと、映像縮小手段40と、奥行マップ拡大手段50と、奥行値推定手段100,100Dとを備える。
対応画素差分演算手段20Dは、第1実施形態と同様、推定奥行値De及び基準映像Fの注目画素Pごとに、対応画素差分値(第2対応画素差分値)Eを演算するものである。そして、対応画素差分演算手段20Dは、演算した対応画素差分値Eを差分値記憶手段30Dに記憶する。
差分値記憶手段30Dは、推定奥行値De及び注目画素Pごとに、対応画素差分演算手段20Dが演算した対応画素差分値Eを記憶するものである。例えば、差分値記憶手段30Dは、磁気メモリや半導体メモリ等の一般的な記憶媒体である。
図16を参照し、奥行値推定手段100Dの構成について説明する。
奥行値推定手段100Dは、奥行差加算手段120Dと、奥行値決定手段(第2奥行値決定手段)130Dと、奥行値記憶手段140Dとを備える。
また、奥行差加算手段120Dは、最小評価値演算手段(第2最小評価値演算手段)1122Dと、推定評価値演算手段(第2推定評価値演算手段)124Dとを備える。
最小評価値演算手段122Dは、奥行マップ(第2奥行マップ)D″の注目画素(第2注目画素)ごとに、注目画素の奥行値が注目画素に隣接する隣接画素(第2隣接画素)の奥行値よりも小さい場合、最小評価値(第2最小評価値)Ffを演算するものである。
なお、最小評価値演算手段122Dの詳細は、奥行推定装置1Dの動作で説明する。
推定評価値演算手段124Dは、奥行マップD″の注目画素ごとに、注目画素の奥行値が隣接画素の奥行値よりも小さい場合、推定奥行値Deにおける注目画素の対応画素差分値を推定評価値Feとして演算するものである。
なお、推定評価値演算手段124Dの詳細は、奥行推定装置1Dの動作で説明する。
奥行値決定手段130Dは、奥行マップD″の注目画素ごとに、最小評価値演算手段122Dから入力された最小評価値Ffと、推定評価値演算手段124Dから入力された推定評価値Feとを比較するものである。本実施形態では、奥行値決定手段130Dは、同一方向の隣接画素についての最小評価値Ffと推定評価値Feとを比較する。そして、奥行値決定手段130Dは、推定評価値Feが最小評価値Ffより小さい場合、隣接画素の奥行値Duを注目画素の奥行値Dfとして決定する。
なお、奥行値決定手段130Dの詳細は、奥行推定装置1Dの動作で説明する。
また、奥行値決定手段130Dは、奥行値初期化手段132Dを備える。
奥行値初期化手段132Dは、参照奥行マップDrefの奥行値を、奥行マップD″の全画素における奥行値Dfの初期値として決定し、決定した奥行値Dfの初期値を奥行値記憶手段140Dに書き込むものである。例えば、奥行値初期化手段132Dは、最小評価値演算手段122Dが最小評価値Ffを演算する前に、奥行値Dfの初期値を決定する。
なお、参照奥行マップDrefとは、奥行マップ拡大手段50で拡大された奥行マップD´のことである。
奥行値記憶手段140Dは、奥行マップD″の注目画素ごとの奥行値Dfを記憶するものである。例えば、奥行値記憶手段140Dは、磁気メモリや半導体メモリ等の一般的な記憶媒体である。
[奥行推定装置の動作]
図17を参照して、図16の奥行推定装置1Dの動作について説明する。
奥行推定装置1Dは、対応画素差分演算手段20Dによって、注目画素Pの対応画素差分値Eを演算し、演算した対応画素差分値Eを差分値記憶手段30Dに記憶する(ステップS500)。
奥行推定装置1Dは、奥行値初期化手段132Dによって、参照奥行マップDrefの奥行値を、奥行マップD″の全画素における奥行値Dfの初期値として決定し、決定した奥行値Dfの初期値を奥行値記憶手段140に書き込む(ステップS510)。
奥行推定装置1Dは、奥行値推定手段100Dによって、後記する奥行値推定処理を行う(ステップS520)。
[奥行値推定処理]
図18,図19を参照し、奥行値推定処理について説明する。
図18のように、奥行推定装置1Dは、Yが‘0’からマップ高さになり、Xが‘0’からマップ幅になるまで、下記のステップS600〜S670の処理を繰り返す。つまり、奥行推定装置1Dは、奥行マップD″の左上側(起点側)から右下側(終点側)まで、ジグザグスキャンのように注目画素を移動させながら、ステップS600〜S670の処理を行う。ここで、奥行マップD″の注目画素の座標を(X,Y)とする。また、奥行マップD″の幅及び高さを、マップ幅及びマップ高さとして予め定めておく。
奥行推定装置1Dは、最小評価値演算手段122Dによって、奥行マップD″の注目画素の奥行値Dfが、上隣接画素の奥行値Duよりも小さいか否かを判定する(ステップS600)。
奥行値Dfが奥行値Du以上の場合(ステップS600でNo)、奥行推定装置1Dは、ステップS610〜S630の処理を行わない。
奥行値Dfが奥行値Duよりも小さい場合(ステップS600でYes)、奥行推定装置1Dは、最小評価値演算手段122Dによって、下記の式(20)を用いて、上隣接画素に対する最小評価値Ffを演算する。
Ff=E(Df)+λ(|Df−Dl|+|Df−Du|) …式(20)
この式(20)は、決定された奥行値Dfにおける注目画素の対応画素差分値E(Df)と、注目画素と左隣接画素との奥行値の差分と、注目画素と上隣接画素との奥行値の差分との和に平滑係数λが乗算された値を加算し、最小評価値Ffを求めることを表す。
奥行推定装置1Dは、推定評価値演算手段124Dによって、下記の式(21)を用いて、上隣接画素に対する推定評価値Feを演算する(ステップS610)。
Fe=E(Du)+λ|Du−Dl| …式(21)
この式(21)は、上隣接画素の奥行値Duにおける注目画素の対応画素差分値E(Du)と、上隣接画素の奥行値Duを推定奥行値Deとみなして、左隣接画素との奥行値の差分との和に平滑係数λが乗算された値を加算し、推定評価値Feとして求めることを表す。
奥行推定装置1Dは、奥行値決定手段130Dによって、ステップS610で演算された上隣接画素に対する最小評価値Ffと推定評価値Feとを比較する(ステップS620)。
推定評価値Feが最小評価値Ffより小さい場合(ステップS620でYes)、奥行推定装置1Dは、奥行値決定手段130Dによって、上隣接画素の奥行値Duを注目画素の奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140Dを更新する(ステップS630)。
推定評価値Feが最小評価値Ff以上の場合(ステップS620でNo)、奥行推定装置1Dは、ステップS630の処理を行わない。
奥行推定装置1Dは、最小評価値演算手段122Dによって、奥行マップD″の注目画素の奥行値Dfが、左隣接画素の奥行値Dlよりも小さいか否かを判定する(ステップS640)。
奥行値Dfが奥行値Dl以上の場合(ステップS640でNo)、奥行推定装置1Dは、ステップS650〜S670の処理を行わない。
奥行値Dfが奥行値Dlよりも小さい場合(ステップS640でYes)、奥行推定装置1Dは、最小評価値演算手段122Dによって、下記の式(22)を用いて、左隣接画素に対する最小評価値Ffを演算する。
Ff=E(Df)+λ(|Df−Dl|+|Df−Du|) …式(22)
奥行推定装置1Dは、推定評価値演算手段124Dによって、下記の式(23)を用いて、左隣接画素の奥行値Dlを推定奥行値Deとみなして推定評価値Feを演算する(ステップS650)。
Fe=E(Dl)+λ|Dl−Du| …式(23)
奥行推定装置1Dは、奥行値決定手段130Dによって、ステップS650で演算された左隣接画素に対する最小評価値Ffと推定評価値Feとを比較する(ステップS660)。
推定評価値Feが最小評価値Ffより小さい場合(ステップS660でYes)、奥行推定装置1Dは、奥行値決定手段130Dによって、左隣接画素の奥行値Dlを注目画素の奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140Dを更新する(ステップS670)。
推定評価値Feが最小評価値Ff以上の場合(ステップS660でNo)、奥行推定装置1Dは、ステップS670の処理を行わない。
図19のように、奥行推定装置1Dは、Yがマップ高さから‘0’になり、Xがマップ幅から‘0’になるまで、下記のステップS680〜S750の処理を繰り返す。つまり、奥行推定装置1Dは、奥行マップの右下側(終点側)から左上側(起点側)まで、ジグザグスキャンのように注目画素を移動させながら、ステップS680〜S750の処理を行う。
奥行推定装置1Dは、最小評価値演算手段122Dによって、奥行マップD″の注目画素の奥行値Dfが、下隣接画素の奥行値Ddよりも小さいか否かを判定する(ステップS680)。
奥行値Dfが奥行値Dd以上の場合(ステップS680でNo)、奥行推定装置1Dは、ステップS690〜S710の処理を行わない。
奥行値Dfが奥行値Ddよりも小さい場合(ステップS680でYes)、奥行推定装置1Dは、最小評価値演算手段122Dによって、下記の式(24)を用いて、下隣接画素に対する最小評価値Ffを演算する。
Ff=E(Df)+λ(|Df−Dr|+|Df−Dd|) …式(24)
奥行推定装置1Dは、推定評価値演算手段124Dによって、下記の式(25)を用いて、下隣接画素に対する推定評価値Feを演算する(ステップS690)。
Fe=E(Dd)+λ|Dd−Dr| …式(25)
奥行推定装置1Dは、奥行値決定手段130Dによって、ステップS690で演算された下隣接画素に対する最小評価値Ffと推定評価値Feとを比較する(ステップS700)。
推定評価値Feが最小評価値Ffより小さい場合(ステップS700でYes)、奥行推定装置1Dは、奥行値決定手段130Dによって、下側の隣接画素の奥行値Ddを注目画素の奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140Dを更新する(ステップS710)。
推定評価値Feが最小評価値Ff以上の場合(ステップS700でNo)、奥行推定装置1Dは、ステップS710の処理を行わない。
奥行推定装置1Dは、最小評価値演算手段122Dによって、奥行マップD″の注目画素の奥行値Dfが、右隣接画素の奥行値Drよりも小さいか否かを判定する(ステップS720)。
奥行値Dfが奥行値Dr以上の場合(ステップS720でNo)、奥行推定装置1Dは、ステップS730〜S750の処理を行わない。
奥行値Dfが奥行値Drよりも小さい場合(ステップS720でYes)、奥行推定装置1Dは、最小評価値演算手段122Dによって、下記の式(26)を用いて、右隣接画素に対する最小評価値Ffを演算する。
Ff=E(Df)+λ(|Df−Dr|+|Df−Dd|)| …式(26)
奥行推定装置1Dは、推定評価値演算手段124Dによって、下記の式(27)を用いて、右隣接画素に対する推定評価値Feを演算する(ステップS730)。
Fe=E(Dr)+λ|Dd−Dr| …式(27)
奥行推定装置1Dは、奥行値決定手段130Dによって、ステップS730で演算された右隣接画素に対する最小評価値Ffと推定評価値Feとを比較する(ステップS740)。
推定評価値Feが最小評価値Ffより小さい場合(ステップS740でYes)、奥行推定装置1Dは、奥行値決定手段130Dによって、右隣接画素の奥行値Drを注目画素の奥行値Dfとして決定し、決定した奥行値Dfで奥行値記憶手段140Dを更新する(ステップS750)。
推定評価値Feが最小評価値Ff以上の場合(ステップS740でNo)、奥行推定装置1Dは、ステップS750の処理を行わない。
[作用・効果]
以上のように、本願発明の第5実施形態に係る奥行推定装置1Dは、縮小されたカメラ映像から参照奥行マップDrefを生成する。そして、奥行推定装置1Dは、生成した参照奥行マップDrefを用いて、エッジ部分で正しくない可能性がある奥行値のみを、簡単な演算式で推定し直すので、より高速に正確な奥行マップD″を生成することができる。
(第6実施形態)
[奥行推定装置の構成]
図20を参照し、本願発明の第6実施形態に係る奥行推定装置1Eの構成について、第1実施形態と異なる点を説明する。
奥行推定装置1Eは、3台のカメラCMで被写体Tを撮影したカメラ映像から、奥行マップDを生成する点が第1実施形態と異なる。
図20のように、基準カメラCは、中央に位置するカメラCMである。
また、隣接カメラC,Cは、基準カメラCに対し、距離Lだけ互いに等間隔で離間して、基準カメラCの左右に配置されている。そして、各カメラCM(C,C,C)で撮影されたカメラ映像(F,F,F)は、奥行推定装置1Eに入力される。
ここで、基準映像Fは、基準カメラCで撮影されたカメラ映像である。また、左隣接映像Fは、隣接カメラCで撮影されたカメラ映像である。また、右隣接映像Fは、隣接カメラCで撮影されたカメラ映像である。
奥行推定装置1Eは、映像入力手段10Eと、対応画素差分演算手段20Eと、差分値記憶手段30と、最小値選択手段60と、奥行値推定手段100とを備える。
映像入力手段10Eは、基準カメラCで撮影した基準映像Fと、隣接カメラCで撮影された左隣接映像Fと、隣接カメラCで撮影された右隣接映像Fとを入力する。
この映像入力手段10Eで入力されたカメラ映像(F,F,F)は、図示を省略したメモリに記憶され、後記する対応画素差分演算手段20Eによって参照されるものとする。
対応画素差分演算手段20Eは、推定奥行値De及び基準映像Fの注目画素ごとに、左対応画素差分値El及び右対応画素差分値Erを演算するものである。そして、対応画素差分演算手段20Eは、演算した左対応画素差分値El及び右対応画素差分値Erを最小値選択手段60に出力する。
ここで、左対応画素差分値Elとは、基準映像F及び左隣接映像Fの間での対応画素差分値のことである。また、右対応画素差分値Erとは、基準映像F及び右隣接映像Fの間での対応画素差分値のことである。
なお、左対応画素差分値El及び右対応画素差分値Erの演算手法は、第1実施形態の演算手法と同様のため、説明を省略する。
また、図20では、左対応画素差分値Elを‘左差分値El’と略記し、右対応画素差分値Erを‘右差分値Er’と略記した。
最小値選択手段60は、推定奥行値De及び注目画素ごとに、対応画素差分演算手段20Eから入力された左対応画素差分値El又は右対応画素差分値Erのうち小さい方を、最小対応画素差分値Eminとして選択するものである。そして、最小値選択手段60は、推定奥行値De及び注目画素ごとに、最小対応画素差分値Eminを差分値記憶手段30に記憶する。つまり、差分値記憶手段30に記憶された最小対応画素差分値Eminが、対応画素差分値Eとして利用される。
なお、図20では、最小対応画素差分値Eminを‘最小差分値Emin’ と略記した。
[奥行推定装置の動作]
図21を参照して、図20の奥行推定装置1Eの動作について説明する。
奥行推定装置1Eは、映像入力手段10Eによって、カメラ映像(F,F,F)を入力する(ステップS800)。
奥行推定装置1Eは、対応画素差分演算手段20Eによって、推定奥行値De及び注目画素ごとに、左対応画素差分値El及び右対応画素差分値Erを演算する(ステップS810)。
奥行推定装置1Eは、最小値選択手段60によって、推定奥行値De及び注目画素ごとに、ステップS810で演算された左対応画素差分値El又は右対応画素差分値Erのうち小さい方を、最小対応画素差分値Eminとして選択する(ステップS820)。
[作用・効果]
以上のように、本願発明の第6実施形態に係る奥行推定装置1Eは、オクルージョンが発生しても対応画素差分値を求められるので、より正確な奥行マップDを生成することができる。
なお、各実施形態では、本願発明に係る奥行推定装置を独立した装置として説明したが、これに限定されない。例えば、本願発明では、一般的なコンピュータのハードウェア資源を、奥行推定装置の各手段として協調動作させる奥行推定プログラムによって実現することができる。また、この奥行推定プログラムは、通信回線を介して配布したり、CD−ROM等の記録媒体に記録して配布したりすることも可能である。
(実施例)
図22を参照し、本願発明の実施例として、本願発明の第1実施形態に係る奥行推定装置で生成した奥行マップについて説明する。
図22(a)の奥行マップは、注目画素と隣接画素との奥行値の差分(奥行差)を考慮しない従来手法で生成したものである(比較例)。この比較例では、被写体の場所ごとのテクスチャに大きく影響を受けて、擬似マッチングが多数発生し、ノイズが多い奥行マップとなる。
一方、本願発明の実施例では、図22(b)のように、式(1)で注目画素と隣接画素との奥行差が考慮されるため、擬似マッチングが減少し、滑らかな奥行マップとなる。
本願発明は、立体映像による、東京オリンピック等のイベントの実況中継や、立体テレビ放送、立体テレビ電話等のネットワークを通じたサービスや機器に利用できる。また、本願発明は、光ディスクやハードディスクを用いた立体映像の記録再生機器や配信サービス、立体映画にも利用できる。さらに、本願発明は、多視点映像と奥行マップから、立体映像であるホログラムを生成出来るので、電子ホログラフィ機器やそれを用いた配信サービスにも利用できる。さらに、本願発明は、ロボットにおける立体空間の認識に用いたり、コンピュータによる映像解析に用いることもできる。
1,1A,1B,1C,1D,1E 奥行推定装置
10,10E 映像入力手段
20,20E 対応画素差分演算手段
20D 対応画素差分演算手段(第2対応画素差分演算手段)
30,30D 差分値記憶手段
40,40C 映像縮小手段
50,50C 奥行マップ拡大手段
60 最小値選択手段
100,100A,100D 奥行値推定手段
110 エッジ検出手段
120,120A、120D 奥行差加算手段
122,122A 最小評価値演算手段
122D 最小評価値演算手段(第2最小評価値演算手段)
124,124A 推定評価値演算手段
124D 推定評価値演算手段(第2推定評価値演算手段)
130,130A 奥行値決定手段
130D 奥行値決定手段(第2奥行値決定手段)
132,132A,132D 奥行値初期化手段
140,140D 奥行値記憶手段

Claims (10)

  1. 予め定めた位置に複数配列したカメラで同一の被写体を撮影した複数のカメラ映像から、前記被写体の奥行きを示す奥行値を推定する奥行推定装置であって、
    前記複数配列した前記カメラの何れかにおいて、予め定めた基準カメラで前記被写体を撮影した基準映像と、前記基準カメラ以外の隣接カメラで前記被写体を撮影した隣接映像とを入力する映像入力手段と、
    予め定めた最小値から最大値までの推定奥行値及び前記基準映像の注目画素ごとに、前記注目画素の画素値と、当該注目画素の前記推定奥行値の視差に対応する画素位置にある前記隣接映像の対応画素の画素値との差分絶対値である対応画素差分値を演算する対応画素差分演算手段と、
    前記最小値を、前記基準映像の全画素における奥行値の初期値として決定する奥行値初期化手段と、
    前記推定奥行値及び前記注目画素ごとに、前記注目画素と前記注目画素に隣接する隣接画素との奥行値の差分の和に予め設定した平滑係数が乗算された値を、決定された前記奥行値における前記注目画素の対応画素差分値に加えた最小評価値を演算する最小評価値演算手段と、
    前記推定奥行値及び前記注目画素ごとに、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記平滑係数が乗算された値を、前記推定奥行値における前記注目画素の対応画素差分値に加えた推定評価値を演算する推定評価値演算手段と、
    前記推定奥行値及び前記注目画素ごとに、前記最小評価値と前記推定評価値とを比較し、前記推定評価値が前記最小評価値より小さい場合、前記推定奥行値を前記注目画素の奥行値として決定し、前記注目画素ごとの奥行値からなる奥行マップを生成する奥行値決定手段と、
    を備えることを特徴とする奥行推定装置。
  2. 前記注目画素と前記注目画素の近傍画素との画素値の差分によりエッジを検出するエッジ検出手段、をさらに備え、
    前記最小評価値演算手段は、前記エッジが検出された場合、前記平滑係数よりも小さな値で予め定めた第2平滑係数を、前記注目画素と前記隣接画素の奥行値との差分の和に乗算し、
    前記推定評価値演算手段は、前記エッジが検出された場合、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記第2平滑係数が乗算された値と、前記平滑係数及び前記第2平滑係数の間で予め定めた第3平滑係数が前記決定された奥行値と前記推定奥行値との差分に乗算された値とを、前記推定奥行値における前記注目画素の対応画素差分値に加えた前記推定評価値を演算することを特徴とする請求項1に記載の奥行推定装置。
  3. 前記映像入力手段に入力された基準映像及び隣接映像を縮小する映像縮小手段、をさらに備え、
    前記対応画素差分演算手段は、前記推定奥行値及び縮小された前記基準映像の注目画素ごとに、前記対応画素差分値を演算し、
    前記奥行値初期化手段は、前記最小値を前記縮小された基準映像の全画素の奥行値として初期設定し、
    前記最小評価値演算手段は、前記推定奥行値及び前記縮小された基準映像の注目画素ごとに、前記最小評価値を演算し、
    前記推定評価値演算手段は、前記推定奥行値及び前記縮小された基準映像の注目画素ごとに、前記推定評価値を演算し、
    前記奥行値決定手段は、前記縮小された基準映像と同一サイズの前記奥行マップである縮小奥行マップを生成することを特徴とする請求項1又は請求項2に記載の奥行推定装置。
  4. 前記映像入力手段に入力された基準映像と同一サイズまで前記縮小奥行マップが拡大された参照奥行マップを生成する奥行マップ拡大手段と、
    前記推定奥行値及び前記映像入力手段に入力された基準映像の注目画素ごとに、当該注目画素の画素値と、前記映像入力手段に入力された隣接映像の対応画素の画素値との差分絶対値である第2対応画素差分値を演算する第2対応画素差分演算手段と、
    前記参照奥行マップの全画素の奥行値を、第2奥行マップの全画素における奥行値の初期値として決定する第2奥行値初期化手段と、
    前記第2奥行マップの第2注目画素ごとに、前記第2注目画素の奥行値が前記第2注目画素に隣接する第2隣接画素の奥行値よりも小さい場合、前記第2注目画素と前記第2隣接画素との奥行値の差分の和に前記平滑係数が乗算された値を、決定された前記奥行値における前記第2注目画素の第2対応画素差分値に加えた第2最小評価値を演算する第2最小評価値演算手段と、
    前記第2注目画素ごとに、前記第2注目画素の奥行値が前記第2注目画素に隣接する第2隣接画素の奥行値よりも小さい場合、前記第2隣接画素同士の奥行値の差分に前記平滑係数が乗算された値を、前記第2隣接画素の奥行値における前記第2注目画素の第2対応画素差分値に加えた推定評価値を演算する第2推定評価値演算手段と、
    前記第2注目画素ごとに、前記第2最小評価値と前記第2推定評価値とを比較し、前記第2推定評価値が前記第2最小評価値より小さい場合、前記第2隣接画素の奥行値を前記第2注目画素の奥行値として決定し、前記第2注目画素ごとの奥行値からなる前記第2奥行マップを生成する第2奥行値決定手段と、
    を備えることを特徴とする請求項3に記載の奥行推定装置。
  5. 前記奥行マップが縮小された縮小奥行マップを生成する奥行マップ縮小手段、をさらに備え、
    前記奥行値決定手段は、前記推定奥行値及び前記縮小奥行マップの第3注目画素ごとに、前記第3注目画素に隣接する全ての第3隣接画素について、前記第3隣接画素の奥行値から所定値を減算した減算値を演算し、前記第3注目画素の奥行値が全ての前記第3隣接画素から演算した減算値以上となる場合、前記第3注目画素に対応する前記基準映像の画像領域の再評価を指令し、
    前記最小評価値演算手段は、前記再評価の指令に応じて、前記推定奥行値及び前記画像領域の注目画素ごとに、当該注目画素と前記隣接画素との奥行値の差分の和に前記平滑係数よりも大きな値で予め定めた第4平滑係数が乗算された値を、決定された前記奥行値における当該注目画素の対応画素差分値に加えた最小評価値を再び演算し、
    前記推定評価値演算手段は、前記再評価の指令に応じて、前記推定奥行値及び前記画像領域の注目画素ごとに、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記第4平滑係数が乗算された値を、前記推定奥行値における当該注目画素の対応画素差分値に加えた推定評価値を再び演算し、
    前記奥行値決定手段は、前記推定奥行値及び前記画像領域の注目画素ごとに、再び演算された前記最小評価値と前記推定評価値とを比較し、当該推定評価値が当該最小評価値より小さい場合、当該推定奥行値を当該注目画素の奥行値として決定することを特徴とする請求項1又は請求項2に記載の奥行推定装置。
  6. 前記最小評価値演算手段は、前記基準映像の4隅何れかの起点側から前記起点側に対向する終点側まで前記注目画素を移動させながら前記最小評価値を演算した後、前記終点側から前記起点側まで前記注目画素を移動させながら前記最小評価値を再び演算し、
    前記推定評価値演算手段は、前記起点側から前記終点側まで前記注目画素を移動させながら前記推定評価値を演算した後、前記終点側から前記起点側まで前記注目画素を移動させながら前記推定評価値を再び演算し、
    前記奥行値決定手段は、前記注目画素の奥行値を決定した後、再び演算した前記最小評価値と前記推定評価値とを比較し、当該推定評価値が当該最小評価値より小さい場合、当該推定奥行値を当該注目画素の奥行値として再び決定することを特徴とする請求項1又は請求項2に記載の奥行推定装置。
  7. 前記映像入力手段は、前記基準映像と、前記基準カメラの左右に配置された前記隣接カメラで撮影された前記隣接映像である左隣接映像及び右隣接映像とを入力し、
    前記対応画素差分演算手段は、前記基準映像及び前記左隣接映像の間での前記対応画素差分値である左対応画素差分値と、前記基準映像及び前記右隣接映像の間での前記対応画素差分値である右対応画素差分値とを演算し、
    前記左対応画素差分値又は前記右対応画素差分値のうち小さい方を最小対応画素差分値として選択する最小値選択手段、をさらに備え、
    前記最小評価値演算手段は、前記対応画素差分値として、前記最小対応画素差分値を用いて前記最小評価値を演算し、
    前記推定評価値演算手段は、前記対応画素差分値として、前記最小対応画素差分値を用いて前記推定評価値を演算することを特徴とする請求項1又は請求項2に記載の奥行推定装置。
  8. 前記映像入力手段に入力されたカメラ映像のうち、最小サイズのカメラ映像に合わせて他のカメラ映像を縮小する映像縮小手段、
    をさらに備えることを特徴とする請求項1又は請求項2に記載の奥行推定装置。
  9. コンピュータを、請求項1に記載の奥行推定装置として機能させるための奥行推定プログラム。
  10. 予め定めた位置に複数配列したカメラで同一の被写体を撮影した複数のカメラ映像から、前記被写体の奥行きを示す奥行値を推定する奥行推定方法であって、
    前記複数配列した前記カメラの何れかにおいて、予め定めた基準カメラで前記被写体を撮影した基準映像と、前記基準カメラ以外の隣接カメラで前記被写体を撮影した隣接映像とを入力する映像入力ステップと、
    予め定めた最小値から最大値までの推定奥行値及び前記基準映像の注目画素ごとに、前記注目画素の画素値と、当該注目画素の前記推定奥行値の視差に対応する画素位置にある前記隣接映像の対応画素の画素値との差分絶対値である対応画素差分値を演算する対応画素差分演算ステップと、
    前記最小値を、前記基準映像の全画素における奥行値の初期値として決定する奥行値初期化ステップと、
    前記推定奥行値及び前記注目画素ごとに、前記注目画素と前記注目画素に隣接する隣接画素との奥行値の差分の和に予め設定した平滑係数が乗算された値を、決定された前記奥行値における前記注目画素の対応画素差分値に加えた最小評価値を演算すると共に、前記推定奥行値と前記隣接画素の奥行値との差分の和に前記平滑係数が乗算された値を、前記推定奥行値における前記注目画素の対応画素差分値に加えた推定評価値を演算する評価値演算ステップと、
    前記推定奥行値及び前記注目画素ごとに、前記最小評価値と前記推定評価値とを比較し、前記推定評価値が前記最小評価値より小さいか否かを判定する評価値判定ステップと、
    前記推定評価値が前記最小評価値より小さい場合、前記推定奥行値を前記注目画素の奥行値として決定し、前記注目画素ごとの奥行値からなる奥行マップを生成する奥行値決定ステップと、
    を順に実行することを特徴とする奥行推定方法。
JP2015022857A 2015-02-09 2015-02-09 奥行推定装置、奥行推定方法及び奥行推定プログラム Pending JP2016145753A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015022857A JP2016145753A (ja) 2015-02-09 2015-02-09 奥行推定装置、奥行推定方法及び奥行推定プログラム
PCT/JP2016/052857 WO2016129430A1 (ja) 2015-02-09 2016-02-01 奥行推定装置、奥行推定方法及び奥行推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015022857A JP2016145753A (ja) 2015-02-09 2015-02-09 奥行推定装置、奥行推定方法及び奥行推定プログラム

Publications (1)

Publication Number Publication Date
JP2016145753A true JP2016145753A (ja) 2016-08-12

Family

ID=56614312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015022857A Pending JP2016145753A (ja) 2015-02-09 2015-02-09 奥行推定装置、奥行推定方法及び奥行推定プログラム

Country Status (2)

Country Link
JP (1) JP2016145753A (ja)
WO (1) WO2016129430A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055390A (ja) * 2016-09-29 2018-04-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019184308A (ja) * 2018-04-04 2019-10-24 日本放送協会 奥行推定装置およびそのプログラム、ならびに、仮想視点映像生成装置およびそのプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018042481A1 (ja) * 2016-08-29 2018-03-08 株式会社日立製作所 撮影装置及び撮影方法
CN115220051A (zh) * 2022-08-02 2022-10-21 星宸科技股份有限公司 基于智慧处理器的飞行时间数据处理装置及数据处理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141710A (ja) * 2010-01-07 2011-07-21 National Institute Of Information & Communication Technology 奥行推定装置、奥行推定方法および奥行推定プログラム
JP5565839B2 (ja) * 2010-09-29 2014-08-06 独立行政法人情報通信研究機構 奥行推定装置、奥行推定方法および奥行推定プログラム
JP5682065B2 (ja) * 2011-03-02 2015-03-11 独立行政法人産業技術総合研究所 ステレオ画像処理装置及びステレオ画像処理方法
JP2013076621A (ja) * 2011-09-30 2013-04-25 Nippon Hoso Kyokai <Nhk> 距離指標情報推定装置及びそのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055390A (ja) * 2016-09-29 2018-04-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019184308A (ja) * 2018-04-04 2019-10-24 日本放送協会 奥行推定装置およびそのプログラム、ならびに、仮想視点映像生成装置およびそのプログラム
JP7233150B2 (ja) 2018-04-04 2023-03-06 日本放送協会 奥行推定装置およびそのプログラム

Also Published As

Publication number Publication date
WO2016129430A1 (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
US9659382B2 (en) System and method for depth extraction of images with forward and backward depth prediction
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
KR101518531B1 (ko) 스테레오스코픽 모션 픽쳐들의 잠재적인 아이스트레인을 측정하기 위한 시스템 및 방법
KR101669840B1 (ko) 다시점 비디오로부터 일관성 있는 변이를 추정하는 변이 추정 시스템 및 방법
KR101502362B1 (ko) 영상처리 장치 및 방법
TWI493505B (zh) 影像處理方法以及影像處理裝置
US8803947B2 (en) Apparatus and method for generating extrapolated view
US20150022631A1 (en) Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images
JP6173218B2 (ja) 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
WO2016129430A1 (ja) 奥行推定装置、奥行推定方法及び奥行推定プログラム
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
JP4892113B2 (ja) 画像処理方法及び装置
JP2011081605A (ja) 画像処理装置、方法及びプログラム
JP2015146526A (ja) 画像処理装置および方法、並びにプログラム
JP2000253422A (ja) 2次元映像からの立体映像生成方法
JP5200042B2 (ja) 視差推定装置およびそのプログラム
JP5627498B2 (ja) 立体画像生成装置及び方法
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
US20130229408A1 (en) Apparatus and method for efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereoscopic images
Jia et al. Virtual view synthesis for the nonuniform illuminated between views in surgical video
JP4775221B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP2017005480A (ja) 立体動画像処理装置、立体動画像処理方法、立体動画像処理プログラム、および記録媒体
JP5431393B2 (ja) 立体画像生成装置及び方法