JPWO2012056686A1 - 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 - Google Patents

3次元画像補間装置、3次元撮像装置および3次元画像補間方法 Download PDF

Info

Publication number
JPWO2012056686A1
JPWO2012056686A1 JP2012517976A JP2012517976A JPWO2012056686A1 JP WO2012056686 A1 JPWO2012056686 A1 JP WO2012056686A1 JP 2012517976 A JP2012517976 A JP 2012517976A JP 2012517976 A JP2012517976 A JP 2012517976A JP WO2012056686 A1 JPWO2012056686 A1 JP WO2012056686A1
Authority
JP
Japan
Prior art keywords
image
distance
interpolation
motion vector
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012517976A
Other languages
English (en)
Other versions
JP5887267B2 (ja
Inventor
育規 石井
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012517976A priority Critical patent/JP5887267B2/ja
Publication of JPWO2012056686A1 publication Critical patent/JPWO2012056686A1/ja
Application granted granted Critical
Publication of JP5887267B2 publication Critical patent/JP5887267B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

3次元動画像のフレーム補間を行う3次元画像補間装置(500)であって、3次元動画像に含まれる第1画像および第2画像の奥行きをそれぞれ表す第1距離画像と第2距離画像との間を補間する少なくとも1枚の補間距離画像を生成する距離画像補間部(501)と、第1画像と第2画像との間を補間する少なくとも1枚の補間画像を生成する画像補間部(502)と、補間画像に基づいて、補間距離画像が示す奥行きに応じた視差を有する少なくとも1組の補間視差画像を生成する補間視差画像生成部(503)とを備える。

Description

本発明は、3次元動画像のフレーム補間を行う3次元画像補間装置、3次元撮像装置および3次元画像補間方法に関する。
近年、CCDイメージセンサ(Charge Coupled Device Image Sensor)あるいはCMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)等の固体撮像素子(以下、単に「撮像素子」と称する場合がある)を用いたデジタルスチルカメラあるいはデジタルビデオカメラの高機能化および高性能化には目を見張るものがある。特に半導体製造技術の進歩により、固体撮像素子における画素構造の微細化が進んでいる。
その結果、固体撮像素子の画素および駆動回路の高集積化が図られてきた。このため、僅かの年数で撮像素子の画素数が100万画素程度から1000万画素以上へと著しく増加した。さらに、撮像によって得られる画像の質も飛躍的に向上している。
一方、液晶ディスプレイあるいはプラズマディスプレイ等の薄型の表示装置により、場所を取らず、高解像度で高コントラストな画像の表示が可能となっている。このような画像の高品質化の流れは、2次元画像から3次元画像へと広がりつつある。昨今では、偏光メガネあるいは高速なシャッタを有するメガネを用いて、高画質な3次元画像を表示する3次元表示装置が開発され始めている。
3次元表示装置に表示する高画質な3次元画像あるいは3次元映像を取得するための3次元撮像装置の開発も進んでいる。3次元画像を取得し、3次元表示装置で表示を行うシンプルな方法としては、位置が異なる2つの光学系(レンズと撮像素子)を備えた撮像装置で画像あるいは映像を撮影することが考えられる。各光学系用いて撮影された画像が左目用画像および右目用画像として3次元表示装置に入力される。撮影された左目用画像および右目用画像を3次元表示装置が高速に切り替えて表示することで、メガネを着用したユーザは画像を立体的に知覚することができる。
また、複数台のカメラから構成される撮像系を用いてシーンの奥行き情報を算出し、奥行き情報とテクスチャ情報とから左目用画像および右目用画像を生成する方法がある。また、光の当たり方などシーンの幾何的あるいは光学的な条件あるいは撮像装置の光学系の条件(絞りの大きさなど)を変えて1台のカメラで撮影した複数枚の画像から奥行き情報を算出することで、左目用画像および右目用画像を生成する方法がある。
前者に関する方法としては、多数のカメラから取得される画像を同時に利用して各画素の奥行きを求める非特許文献1に記載のマルチベースラインステレオ法がある。このマルチベースラインステレオ法は、一般的な2眼ステレオに比べて高い精度でシーンの奥行きを推定できることが知られている。
一例として、カメラの台数が2台(2眼ステレオ)のときの左目用画像および右目用画像(視差画像)の生成方法について説明する。2眼ステレオでは、2台のカメラを利用して互いに異なる視点から2枚の画像が撮影され、撮影された各画像から特徴点が抽出され、特徴点間の対応関係を求めることにより対応点が特定される。このように特定された対応点間の距離が視差と呼ばれる。例えば、2台のカメラで撮影された2枚の画像において、対応する特徴点の座標(x,y)がそれぞれ(5、10)、(10、10)であるとき、視差は5となる。ここでカメラが平行に配置されているとし、視差をd、2台のカメラの焦点距離をf、カメラ間の距離(基線長:baseline)をBとすると、(式1)によりカメラから被写体までの距離が求められる。
Figure 2012056686
2台のカメラ間の距離が長くなると、一方のカメラで観測される特徴点が他方のカメラでは観測できないことがある。そのような場合でも、マルチベースラインステレオ法では3台以上のカメラを利用することで対応点探索の曖昧性を減らすことができるため、視差推定の誤差が減る。
奥行きが求まれば、例えば非特許文献2記載の方法のように奥行きの情報とシーンのテクスチャとを用いて左目用画像および右目用画像を生成することが可能となる。非特許文献2記載の方法によれば、推定した奥行きと撮像装置から得られるシーンのテクスチャとを用いて、仮想カメラ位置(左目用のカメラ位置と右目用のカメラ位置)を新たな視点位置とした画像が生成できる。これにより、撮影時とは異なる視点位置の画像を得ることができる。
新たな視点位置の画像は(式2)により生成できる。ここで各記号は(式1)と同様である。奥行きを求めたカメラのx座標をxcとし、新たに生成する視点位置にあるカメラのx座標をxl、xrとする。xl、xrはそれぞれ左目用および右目用のカメラ(仮想カメラ)のx座標である。仮想カメラ間の距離(基線長:baseline)をtxとする。
Figure 2012056686
以上により、複数台のカメラを利用して奥行きを算出すれば、左目用画像および右目用画像が生成できる。
後者に関する奥行きの算出方法のうち、シーンに関する条件を変更する方法として非特許文献3に示すフォトメトリックステレオがある。照明の位置を変えて被写体を撮影した複数枚の画像が入力されたとき、被写体の画素値と照明の位置との3次元的な関係から被写体の3次元位置が求められる。また、撮像装置の光学条件を変える方法として、非特許文献4に示すDepth From Defocus法がある。この方法では、カメラの焦点距離を変えて撮影した複数枚の画像における各画素のボケの変化量とカメラの焦点距離と絞りの大きさ(開口径)とを用いてカメラから被写体までの距離(奥行き)を求めることができる。このように、シーンの奥行き情報を取得する様々な方法が古くから研究されている。とりわけDepth From Defocus法には、撮像装置を小型かつ軽量にすることができ、照明装置などの他の装置が不要であるという特徴がある。
特開平7―262382号公報 特開2010―16743号公報
"A Multiple-baseline Stereo," IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.15, No.4, pp.353-363, 1993, M.Okutomi and T.Kanade. "Stereoscopic Image Generation Based on Depth Images for 3D TV." IEEE Trans. On Broadcasting, Vol.51, No.2, June 2005, L.Zhang and W.J.Tam. "Photometric method for determining surface orientation from multiple images." Optical Engineerings 19, I, 139-144, 1980, R.J.Woodham. "A new sense for depth of field", IEEE Transaction on Pattern Analysis and Machine Intelligence, 2, 4, pp.523-531 1987, A.P.Pentland. "Depth from Defocus: A Spatial Domain Approach," International Journal of Computer Vision, Vol.13, No.3, pp.271-294, 1994 M.Subbarao and G.Surya. "3DC安全ガイドライン"3Dコンソーシアム、2010年4月20日改訂版.
上記のようにDepth From Defocus法を用いることで、単眼で小型のシステムによってシーンの奥行き情報を獲得することができる。しかしながら、Depth From Defocus法ではカメラの焦点距離を変えて2枚以上の画像を撮影する必要がある。すなわち、撮影時に、カメラの焦点距離を変えるために、レンズ(あるいは撮像素子)を前後に駆動する必要がある。そのため、1回の撮影に必要な時間は、駆動時間、および駆動後にレンズまたは撮像素子の振動が無くなるまでの時間に大きく依存する。
以上のことからDepth From Defocus法では1秒間に少数の画像しか撮影できないという課題がある。したがってDepth From Defocus法にて奥行き情報を算出しながら動画像を撮影した場合、動画像のフレームレートが低くなる。
フレームレートの低い動画像から高フレームレートの動画像を生成する方法として、2枚の画像から時間方向に補間した画像を生成することで、時間解像度を向上させる方法がある。この方法は、例えば、ディスプレイの表示を滑らかにするために時間解像度をあげる方法として利用される。
しかしながら、Depth From Defocus法を利用するためのボケが存在する画像を用いて時間方向の補間を行うと、ボケを含む補間画像を生成できるが、そのボケは奥行き情報を考慮していない。したがってボケを含む補間画像からはDepth From Defocus法による奥行き情報の算出をすることができない。
また、2次元画像における時間解像度を向上させる方法の延長として、Depth From Defocus法により個々の静止画に対して、左目用画像および右目用画像を生成した後、視点毎に画像の補間を行うことで、時間解像度を高める方法が考えられる。
しかしながら、補間により生成された左目用画像および右目用画像は、左右独立に補間がされているため3次元の幾何的な位置関係が正しいという保証がない。そのため、個々の静止画として見る場合には違和感がないが、3次元表示装置で観ると違和感のある3次元動画像になるという課題がある。
特許文献1記載の方法によれば撮影被写体の運動モデルを定義し、座標情報の補間と運動情報の補間を行う。この方法によれば2次元的な座標情報の補間のみならず3次元的な運動情報の補間を行うことができる。しかしながら、一般的なシーンでは動きが複雑でモデル化が難しいため、この方法を適用するのが難しいという課題がある。
本発明は、上記従来の課題を解決するものであって、3次元動画像のフレーム補間を高精度に行うことができる3次元画像補間装置、3次元撮像装置および3次元画像補間方法を提供することを目的とする。
上記目的を達成するために、本発明の一態様に係る3次元画像補間装置は、3次元動画像のフレーム補間を行う3次元画像補間装置であって、前記3次元動画像に含まれる第1画像および第2画像の奥行きをそれぞれ表す第1距離画像と第2距離画像との間を補間する少なくとも1枚の補間距離画像を生成する距離画像補間部と、前記第1画像と前記第2画像との間を補間する少なくとも1枚の補間画像を生成する画像補間部と、前記補間画像に基づいて、前記補間距離画像が示す奥行きに応じた視差を有する少なくとも1組の補間視差画像を生成する補間視差画像生成部とを備える。
本構成によれば、3次元動画像のフレーム補間を行う場合に、2次元画像の補間と距離画像の補間とをそれぞれ別々に行なった後に、補間視差画像が生成される。したがって、左目用画像の補間と右目用画像の補間とを別々に行うことにより補間視差画像を生成する場合よりも、奥行き方向の補間エラーを抑制することができ、3次元動画像のフレーム補間を高精度に行うことができる。また、左目用補間画像と右目用補間画像とが、同一の補間距離画像および補間画像を利用して生成されるので、フレーム補間された3次元画像を見るユーザに対して補間に起因する不快感を与えにくいという効果も奏する。
また、前記3次元画像補間装置は、さらに、前記第1距離画像および前記第2距離画像から動きベクトルを距離動きベクトルとして算出する距離動きベクトル算出部と、前記第1画像および前記第2画像から動きベクトルを画像動きベクトルとして算出する画像動きベクトル算出部と、前記画像動きベクトルと前記距離動きベクトルとの類似性の高さを示す値であるベクトル類似度を算出するベクトル類似度算出部と、算出された前記ベクトル類似度が大きいほど数が多くなるように、補間の上限数を決定する補間画像数決定部とを備え、前記補間視差画像生成部は、決定された前記上限数以下の数の前記補間視差画像を生成することが好ましい。
この構成によれば、距離動きベクトルと画像動きベクトルとの間の類似度に応じて補間の上限数を決定することができる。距離動きベクトルと画像動きベクトルとの間の類似度が低い場合、距離動きベクトルまたは画像動きベクトルが正しく算出されていない可能性が高い。したがって、このような場合に、補間の上限数を少なくすることで、補間視差画像によって3次元動画像の画質が劣化することを抑制できる。
また、前記距離動きベクトル算出部は、第1サイズのブロック毎に前記距離動きベクトルを算出し、前記画像動きベクトル算出部は、前記第1サイズのブロック毎に前記画像動きベクトルを算出し、前記ベクトル類似度算出部は、前記第1サイズよりも大きい第2サイズのブロック毎に、前記距離動きベクトルの方向および強度のうちの少なくとも一方のヒストグラムを生成し、前記第2サイズのブロック毎に、前記画像動きベクトルの方向および強度のうちの少なくとも一方のヒストグラムを生成し、前記距離動きベクトルおよび前記画像動きベクトルの方向のヒストグラム間の類似性と、前記距離動きベクトルおよび前記画像動きベクトルの強度のヒストグラム間の類似性とのうちの少なくとも一方に基づいて前記ベクトル類似度を算出することが好ましい。
この構成によれば、動きベクトルの方向および強度のうちの少なくとも一方のヒストグラムに基づいて、ベクトル類似度を算出することができる。これにより、動きベクトルが正しく算出されていない可能性とベクトル類似度との相関度を向上させることができ、適切に補間の上限数を決定することが可能となる。
また、前記補間画像数決定部は、ユーザによって入力された前記上限数以下の数を補間数と決定し、前記補間視差画像生成部は、決定された前記補間数の前記補間視差画像を生成することが好ましい。
この構成によれば、ユーザの入力によって補間数を決定することができ、フレーム補間によってユーザに不快感を与えることを抑制することが可能となる。
また、前記3次元画像補間装置は、さらに、第1撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて前記第1距離画像を取得し、かつ、前記第1撮影画像群よりも時間的に後の第2撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて前記第2距離画像を取得する距離画像取得部を備えることが好ましい。
この構成によれば、互いに焦点距離が異なる複数の撮影画像を入力として用いることができるので、撮像装置の小型化に貢献することができる。
また、前記3次元画像補間装置は、さらに、前記第1撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第1テクスチャ画像を前記第1画像として取得し、かつ、前記第2撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第2テクスチャ画像を前記第2画像として取得するテクスチャ画像取得部を備えることが好ましい。
この構成によれば、テクスチャ画像に基づいて補間視差画像を生成することができる。
また、前記3次元画像補間装置は、集積回路として構成されてもよい。
また、本発明の一態様に係る3次元撮像装置は、撮像部と、上記3次元画像補間装置とを備える。
これにより、上記3次元画像補間装置と同様の効果を奏することができる。
なお、本発明は、このような3次元画像補間装置として実現することができるだけでなく、このような3次元画像補間装置が備える特徴的な構成要素の動作をステップとする3次元画像補間方法として実現することができる。また、本発明は、3次元画像補間方法に含まれる各ステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc Read Only Memory)等の非一時的な記録媒体あるいはインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
本発明によれば、3次元動画像のフレーム補間を高精度に行うことができる。
図1は、本発明の実施の形態における3次元撮像装置の全体構成を示す図である。 図2は、本発明の実施の形態における3次元画像補間部の構成を示すブロック図である。 図3は、本発明の実施の形態における3次元画像補間部の処理動作を示すフローチャートである。 図4は、本発明の実施の形態における距離画像取得部の処理動作を示すフローチャートである。 図5は、本発明の実施の形態における動きベクトル算出方法の一例を説明するための図である。 図6は、ボケ画像と全焦点画像とPSFとの関係を示す図である。 図7は、本発明の実施の形態におけるボケカーネルのサイズの求め方を示す図である。 図8は、本発明の実施の形態におけるベクトル類似度算出部の処理動作を示すフローチャートである。 図9は、本発明の実施の形態における補間数の入力方法の一例を示す図である。 図10は、本発明の実施の形態における補間距離画像および補間テクスチャ画像の生成方法を説明するための図である。 図11は、本発明の実施の形態における視差画像生成方法を説明するための図である。 図12は、本発明の一態様に係る3次元画像補間装置の機能構成を示すブロック図である。 図13は、本発明の一態様に係る3次元画像補間装置の処理動作を示すフローチャートである。
以下、図面を参照しながら本発明の実施形態を説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示す。つまり、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ、ステップの順序などは、本発明の一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲の記載に基づいて特定される。したがって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素は、本発明の課題を達成するために必ずしも必要ではないが、より好ましい形態を構成する構成要素として説明される。
また、以下の説明において、「画像(image)」とは、シーンの輝度あるいは色などを2次元で表した信号あるいは情報を意味する。また、「距離画像(range image)」とは、シーンのカメラからの距離(奥行き)を2次元で表した信号または情報を意味する。また、「視差画像(parallax image)」とは、互いに異なる複数の視点位置に対応する複数の画像(例えば、右目用画像および左目用画像)を意味する。
図1は、本発明の実施の形態における3次元撮像装置10の全体構成を示すブロック図である。本実施の形態の3次元撮像装置10は、デジタル式の電子カメラであり、撮像部100と、信号処理部200と、表示部300とを備える。以下に、撮像部100、信号処理部200および表示部300を詳細に説明する。
撮像部100は、シーンの画像を撮影する。シーンとは、撮像部100によって撮影された画像に写っているもののすべてを意味し、被写体に加えて背景も含む。
図1に示すように、撮像部100は、撮像素子101と、光学レンズ103と、フィルタ104と、制御部105と、素子駆動部106とを備える。
撮像素子101は、例えばCCDイメージセンサあるいはCMOSイメージセンサ等の固体撮像素子であり、公知の半導体製造技術によって製造される。例えば、撮像素子101は、撮像面上に行列状に配置された複数の光感知セルを備える。
光学レンズ103は、撮像素子101の撮像面上に像を形成する。本実施の形態では、撮像部100は、1枚の光学レンズ103を備えているが、複数枚の光学レンズを備えてもよい。
フィルタ104は、可視光を透過して、近赤外光(IR)をカットする赤外カットフィルタ4である。なお、撮像部100は、必ずしもフィルタ104を備える必要はない。
制御部105は、撮像素子101を駆動するための基本信号を生成する。さらに、制御部105は、撮像素子101からの出力信号を受信して信号処理部200に送出する。
素子駆動部106は、制御部105によって生成された基本信号に基づいて撮像素子101を駆動する。 なお、これらの制御部105および素子駆動部106は、例えばCCDドライバなどのLSI(Large Scale Integration)から構成されている。
信号処理部200は、撮像部100から出力された信号に基づいて画像信号を生成する。図1に示すように、信号処理部200は、メモリ201と、3次元画像補間部202と、インタフェース部203とを備える。
3次元画像補間部202は、3次元動画像のフレーム補間を行う。この3次元画像補間部202は、公知のデジタル信号処理プロセッサ(DSP)などのハードウェアと、画像信号生成処理を含む画像処理を実行するソフトウェアとの組合せによって好適に実現され得る。なお、3次元画像補間部202の詳細については、図面を用いて後述する。
メモリ201は、例えばDRAM(Dynamic Random Access Memory)などによって構成される。メモリ201には、撮像部100から得られた信号が記録されるとともに、3次元画像補間部202によって生成された画像データあるいはその圧縮画像データが一時的に記録される。これらの画像データは、インタフェース部203を介して、不図示の記録媒体あるいは表示部300などに送出される。
表示部300は、撮影条件あるいは撮影された画像などを表示する。また、表示部300は、静電容量方式あるいは抵抗膜方式などのタッチパネルであり、ユーザからの入力を受け付ける入力部としても機能する。ユーザから入力された情報は、インタフェース部203を通して、信号処理部200および撮像部100の制御に反映される。
なお、本実施の形態の3次元撮像装置10は、さらに、電子シャッタ、ビューファインダ、電源(電池)、フラッシュライトなどの公知の構成要素を備え得るが、それらの説明は本発明の理解に特に必要でないため省略する。
図2は、本発明の実施の形態における3次元画像補間部202の構成を示すブロック図である。図2に示すように、3次元画像補間部202は、距離画像取得部400と、距離動きベクトル算出部401と、画像動きベクトル算出部402と、ベクトル類似度算出部403と、補間画像数決定部404と、距離画像補間部405と、画像補間部406と、補間視差画像生成部407とを備える。
距離画像取得部400は、第1画像および第2画像の奥行きを表す第1距離画像および第2距離画像を取得する。第1画像および第2画像は、3次元動画像に含まれる同一視点の画像であってフレーム補間の対象となる画像である。
本実施の形態では、距離画像取得部400は、第1撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて第1距離画像を取得する。また、距離画像取得部400は、第2撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて第2距離画像を取得する。
なお、第1撮影画像群および第2撮影画像群の各々は、撮像部100によって焦点距離を変えながら撮影された複数の撮影画像を含む。また、第2撮影画像群は、第1撮影画像群よりも時間的に後の画像群である。
テクスチャ画像取得部408は、第1撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第1テクスチャ画像を第1画像として取得する。また、テクスチャ画像取得部408は、第2撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第2テクスチャ画像を第2画像として取得する。
本実施の形態において、テクスチャ画像とは、撮影画像のボケの特徴を示すボケ情報を用いて撮影画像に対して復元処理を行うことにより得られる画像である。つまり、テクスチャ画像は、撮影画像に含まれるボケを除去した画像である。すなわち、テクスチャ画像は、全ての画素で焦点が合っている画像である。
なお、必ずしも、第1画像および第2画像として第1テクスチャ画像および第2テクスチャ画像が利用される必要はない。つまり、第1画像および第2画像は、ボケを有する画像であっても構わない。この場合、3次元画像補間部202は、テクスチャ画像取得部408を備えなくてもよい。
距離動きベクトル算出部401は、第1距離画像および第2距離画像から動きベクトルを算出する。ここでは、このように第1距離画像および第2距離画像から算出された動きベクトルを距離動きベクトルと呼ぶ。
画像動きベクトル算出部402は、第1画像および第2画像から動きベクトルを算出する。ここでは、このように第1画像および第2画像から算出された動きベクトルを画像動きベクトルと呼ぶ。
ベクトル類似度算出部403は、距離動きベクトルと画像動きベクトルとの類似性の高さを示す値であるベクトル類似度を算出する。ベクトル類似度の算出方法の詳細は後述する。
補間画像数決定部404は、算出された類似度が大きいほど数が多くなるように、補間の上限数を決定する。
距離画像補間部405は、第1距離画像と第2距離画像との間を補間する少なくとも1枚の補間距離画像を生成する。具体的には、距離画像補間部405は、補間画像数決定部404によって決定された補間の上限数以下の数だけの補間距離画像を生成する。
画像補間部406は、第1画像と第2画像との間を補間する少なくとも1枚の補間画像を生成する。本実施の形態では、画像補間部406は、第1テクスチャ画像と第2テクスチャ画像との間を補間する少なくとも1枚の補間テクスチャ画像を生成する。
具体的には、画像補間部406は、補間画像数決定部404によって決定された補間の上限数以下の数だけ補間画像を生成する。
補間視差画像生成部407は、補間画像に基づいて、補間距離画像が示す奥行きに応じた視差を有する少なくとも1組の補間視差画像を生成する。本実施の形態では、補間視差画像生成部407は、補間画像数決定部404によって決定された補間の上限数以下の数の補間視差画像を生成する。
3次元画像補間部202は、このように補間視差画像を生成することにより、3次元動画像のフレーム補間を行う。なお、このようにフレーム補間された3次元動画像は、例えば、不図示の立体表示装置に出力される。立体表示装置は、例えば、メガネ式の立体表示方式により3次元動画像を表示する。メガネ式の立体表示方式とは、メガネ(例えば、液晶シャッタメガネまたは偏光メガネなど)を着用したユーザに対して、視差を有する左目用画像および右目用画像を表示する方式である。
なお、立体表示装置は、必ずしもメガネ式の立体表示方式により視差画像を表示する必要はなく、裸眼式の立体表示方式により視差画像を表示してもよい。裸眼式の立体表示方式は、メガネを用いない立体表示方式(例えば、パララックスバリア方式あるいはレンチキュラーレンズ方式など)である。
次に、以上のように構成された3次元画像補間部202の処理動作について説明する。
図3は、本発明の実施の形態における3次元画像補間部202の処理動作を示すフローチャートである。以下では、第1画像および第2画像が第1テクスチャ画像および第2テクスチャ画像である場合について説明する。
まず、距離画像取得部400は、第1距離画像および第2距離画像を取得する(S102)。距離動きベクトル算出部401は、第1距離画像および第2距離画像から動きベクトル(距離動きベクトル)を算出する(S104)。テクスチャ画像取得部408は、第1テクスチャ画像および第2テクスチャ画像を取得する(S105)。画像動きベクトル算出部402は、第1テクスチャ画像および第2テクスチャ画像から動きベクトル(画像動きベクトル)を算出する(S106)。
ベクトル類似度算出部403は、距離動きベクトルと画像動きベクトルとの類似度を算出する(S108)。補間画像数決定部404は、算出された類似度が大きいほど数が多くなるように補間の上限数を決定する(S110)。
距離画像補間部405は、第1距離画像と第2距離画像との間を補間する、補間の上限数以下の数の補間距離画像を生成する(S112)。画像補間部406は、第1テクスチャ画像と第2テクスチャ画像との間を補間する、補間の上限数以下の数の補間テクスチャ画像を生成する(S114)。
補間視差画像生成部407は、補間テクスチャ画像に基づいて、対応する補間距離画像が示す奥行きに応じた視差を有する補間視差画像を生成する(S116)。
以上のように、補間視差画像が生成され、3次元動画像のフレーム補間が行われる。なお、ステップS102〜S116の処理は、補間の対象となる画像(第1テクスチャ画像および第2テクスチャ画像)を変更しながら繰り返される。
次に、図3に示した各ステップの処理の詳細を説明する。
<距離画像取得処理(S102)>
まず、ステップS102の距離画像取得処理の詳細について説明する。
本実施の形態では、距離画像取得部400は、撮像部100から得られる複数の撮影画像に基づいて、シーンのカメラからの距離を示す距離画像を取得する。以下では、一例として、特許文献2に記載のDepth From Defocus法により画素毎に距離を計測する方法について説明する。なお、距離画像取得部400は、他の方法(例えば、複数台のカメラを用いたステレオ法、フォトメトリックステレオ、あるいはアクティブセンサを用いたTOF法など)により距離画像を取得しても構わない。
Depth From Defocus法では、まず、撮像部100は、レンズや絞りの設定を変えることで互いにボケが異なる複数枚の画像を1つの画像群として撮影する。撮像部100は、画像群の撮影を繰り返すことにより複数の画像群を得る。ここでは、このように得られる複数の画像群のうちの1つの画像群を第1画像群と呼び、第1画像群の時間的に次の画像群を第2画像群と呼ぶ。
以下では一例として、距離画像取得部400が1つの画像群から1つの距離画像を取得する処理について説明する。
距離画像取得部400は、第1画像群に含まれる複数枚の撮影画像間のボケの相関量を画素毎に算出する。距離画像取得部400は、このボケの相関量と被写体距離との関係を予め定めた参照テーブルを画素毎に参照することで距離画像を取得する。
図4は、本発明の実施の形態における距離画像取得部400の処理動作の一例を示すフローチャートである。具体的には、図4は、Depth From Defocus法による距離計測方法を示す。
まず、距離画像取得部400は、同一のシーンが撮影された2枚の撮影画像であって焦点距離が互いに異なる2枚の撮影画像を撮像部100から取得する(S202)。この2枚の撮影画像は、第1画像群に含まれるとする。なお、焦点距離は、レンズあるいは撮像素子の位置を動かすことで変更できる。
次に、距離画像取得部400は、測距対象となる画素とその近傍領域の画素群とを含む領域をDFDカーネルとして設定する(S204)。このDFDカーネルが測距処理の対象となる。DFDカーネルのサイズや形は特に制限されるものではないが、例えば測距対象画素を中心とした10x10の矩形領域などをDFDカーネルとして設定することができる。
そして、距離画像取得部400は、焦点距離を変えて撮影された2枚の撮影画像からDFDカーネルとして設定された領域を抽出し、DFDカーネルの画素毎にボケ相関量を算出する(S206)。
ここで、距離画像取得部400は、DFDカーネルに対してあらかじめ定められた重み係数を用いて、DFDカーネルの画素毎に求めたボケ相関量の重み付けを行う(S208)。この重み係数は、例えばDFDカーネルの中心ほど値が大きく、端ほど値が小さくなる係数である。なお、ガウス分布など既存の重み分布を重み係数として利用しても構わない。この重み付け処理によりノイズの影響にロバストになるという特徴がある。重み付けされたボケ相関量の和は、DFDカーネルのボケ相関量として扱われる。
最後に、距離画像取得部400は、距離とボケ相関量との関係を示すルックアップテーブルを用いてボケ相関量から距離を求める(S210)。ルックアップテーブルでは、ボケ相関量は、被写体距離の逆数に対して線形な関係を有する(ルックアップテーブル算出処理は非特許文献5参照)。なお、対応するボケ相関量がルックアップテーブルに含まれてなければ、距離画像取得部400は、補間によって被写体距離を求めればよい。また、光学系が変わればルックアップテーブルも変えることが好ましい。そこで、距離画像取得部400は、絞りの大きさや焦点距離に応じて複数のルックアップテーブルを用意しておいても構わない。これらの光学系の設定情報は撮像時に既知のため、使用するルックアップテーブルは事前に求めておくことが可能である。
次にボケ相関量算出方法について説明する。
互いに異なる焦点距離で撮影された2枚の撮影画像を画像G1、G2とする。距離画像取得部400は、被写体距離を測定する測距対象画素を選び、その測距対象画素の近傍M×M矩形領域の画素値をDFDカーネルとして画像G1、G2にそれぞれ設定する。画像G1、G2それぞれにおけるDFDカーネル内の画素値をg1(u,v)、g2(u,v){u,v:1,2,3,・・・M}、測距対象画素の座標を(cu,cv)とする。DFDカーネル内の任意の画素位置(u,v)における画素毎のボケ相関量G(u,v)は、(式3)で表される。
Figure 2012056686
ここでCは定数であり、実験的に決められる。Δは画素値の2次微分(ラプラシアン)を表す。このように、画素毎のボケ相関量は、ボケの異なる2枚の画像において所定画素の画素値の差分を2つの画像の所定画素での2次微分の平均値で除算することにより算出される。このボケ相関量は、画像内の画素単位でのボケの相関の程度を表す。
以上までの処理によって、距離画像取得部400は、撮影画像群に対して、カメラから被写体までの距離を表す距離画像を取得する。つまり、距離画像取得部400は、第1撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて第1距離画像を取得する。さらに、距離画像取得部400は、第1撮影画像群よりも時間的に後の第2撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて第2距離画像を取得する。
なお、距離画像取得部400は、必ずしも以上のような処理を行って距離画像を取得する必要はない。例えば、距離画像取得部400は、距離センサを有する撮像部100によって生成された距離画像を単に取得するだけでもよい。
<距離動きベクトル算出処理(S104)>
次に、ステップS104の距離動きベクトル算出処理の詳細を説明する。
距離動きベクトル算出部401は、第1距離画像および第2距離画像から動きベクトルを算出する。
具体的には、距離動きベクトル算出部401は、まず、第1距離画像および第2距離画像の画素毎に対応点を求める。そして、距離動きベクトル算出部401は、対応点を結ぶベクトルを動きベクトルとして算出する。動きベクトルは、画像間の画素毎の移動量と移動方向を表す。動きベクトルについて図5を用いて説明する。
図5の(a)は、時刻tの距離画像(第1距離画像)と時刻t+1の距離画像(第2距離画像)を示す。図5の(a)では、時刻tの画素Aに対応する画素を時刻t+1の画像から探索することにより、画素Aと画素Bとが対応点として求められている。
ここで、対応する画素の探索方法について述べる。まず、距離動きベクトル算出部401は、時刻t+1の距離画像において、画素Aに対応する画素を探索するために、画素Aに対応する領域と、探索領域に含まれる画素に対応する領域との相関値を算出する。相関値は、例えば、SAD(Sum Of Absolute Difference)あるいはSSD(Sum Of Squared Difference))を用いて算出される。
探索領域は、例えば、図4の(a)の時刻t+1の距離画像において点線枠で示されている。なお、シーン中の物体の動きが速い場合あるいは時刻tと時刻t+1の間隔が広い場合には、探索領域のサイズは大きく設定されればよい。また、シーン中の物体の動きが遅い場合あるいは時刻tと時刻t+1の間隔が狭い場合には、探索領域のサイズは小さい設定されればよい。
SADおよびSSDを用いて相関値を算出するための(式4)を以下に示す。
Figure 2012056686
ここで、I1(u,v)は、時刻tの画像I1における画素(u,v)の画素値を表す。I2(u,v)は、時刻t+1の画像I2における画素(u,v)の画素値を表す。距離動きベクトル算出部401は、画像I1の画素(i1,j1)を基準とするN×M画素の領域に類似する領域を探索するために、(式4)を用いて、画像I1の画素(i1,j1)を基準とするN×M画素の領域と、画像I2の画素(i2,j2)を基準とするN×M画素の領域との相関値を求める。corsadは、SADで求めた相関値であり、corssdは、SSDで求めた相関値であるが、どちらが相関値として利用されても構わない。なお、corsadおよびcorssdでは、相関性が高いほど値が小さくなる。
距離動きベクトル算出部401は、探索領域内で画素(i2,j2)を変えながら相関値を算出する。距離動きベクトル算出部401は、このように算出された相関値の中で最小となる相関値が算出された画素(i2,j2)を画素Aに対応する画素と決定する。
ここでは、2枚の画像間において照明の変動あるいはコントラストの変動が小さいと仮定して、SAD、SDDを用いて相関値を算出する方法を説明した。なお、2枚の画像間において照明の変動あるいはコントラストの変動が大きい場合には、例えば正規化相互相関法を用いて相関値を算出することが好ましい。これにより、さらにロバストに対応点を探索することが可能になる。
距離動きベクトル算出部401は、以上までの処理を全ての画素について行うことにより、2枚の距離画像の各画素において動きベクトルを求めることができる。なお、動きベクトルを求めた後にメディアンフィルタなどのノイズ除去処理が行なわれても構わない。
なお、動きベクトルは、必ずしも画素毎に算出される必要はない。例えば、距離動きベクトル算出部401は、画像を分割して得られる第1サイズのブロック毎に距離動きベクトルを算出しても構わない。この場合、画素毎に動きベクトルを算出する場合よりも、動きベクトルの算出するための負荷を軽減することができる。
<テクスチャ画像取得処理(S105)>
次に、ステップS105のテクスチャ画像取得処理の詳細を説明する。
本実施の形態では、テクスチャ画像取得部408は、まず、第1画像群と第1距離画像とを用いて第1テクスチャ画像を算出する。さらに、テクスチャ画像取得部408は、第2画像群と第2距離画像とを用いて第2テクスチャ画像を算出する。
具体的には、テクスチャ画像取得部408は、第1撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第1テクスチャ画像を取得する。さらに、テクスチャ画像取得部408は、第2撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第2テクスチャ画像を取得する。
以下にこれらの処理の詳細を、図面を参照しながら説明する。
まず、テクスチャ画像の算出方法について述べる。本実施の形態で示すテクスチャ画像とは、Depth From Defocus法により得られる距離画像を用いて、撮影画像に含まれるボケを除去した画像である。つまり、テクスチャ画像は、全ての画素で焦点が合っている画像(全焦点画像)である。
まず、撮影画像からテクスチャ画像を生成する方法について説明する。本実施の形態では、テクスチャ画像取得部408は、距離画像とレンズの公式とを用いて、各画素のボケの大きさを示すボケ情報(ボケカーネル)を算出する。
テクスチャ画像取得部408は、撮影画像の各画素に対してボケカーネルを用いて逆畳み込み演算(復元処理)を行うことで、全ての画素で焦点が合ったテクスチャ画像(全焦点画像)を生成する。
以上の処理を説明するために、まず画像のボケの生成過程について説明する。ボケのない全焦点画像の輝度分布をs(x,y)とし、ボケの大きさを表すボケ関数(PSF:Point Spread Function)をf(x,y)とする。ここでは説明を簡単にするため画像全体が一様なボケ関数fでボケが生じていると仮定する。ノイズの影響を無視すれば以下の(式5)が成り立つ。
Figure 2012056686
ここで、記号「*」は、畳み込み演算(コンボリューション)を示している。図6は、(式5)を画像で表現した例である。図6のように全焦点画像が点で与えられるとき、円形状のボケ関数(詳細は後で定義する)で畳み込まれることによりボケ画像i(x,y)が得られる。このボケ関数をボケカーネルとも呼ぶ。ボケ関数の円の直径をカーネルサイズという。
(式5)の右辺は、一般に、以下の(式6)で表される。
Figure 2012056686
画像が、M×N個の画素からなる場合、上記の(式6)は、以下の(式7)で表すことができる。
Figure 2012056686
一般に、2つの関数の畳み込みのフーリエ変換は、各関数のフーリエ変換の積によって表される。このため、i(x,y)、s(x,y)、f(x,y)のフーリエ変換を、それぞれ、I(u,v)、S(u,v)、F(u,v)で表すと、(式5)から、以下の(式8)が導かれる。なお、(u,v)は、周波数領域における座標であり、それぞれ、実画像におけるx方向およびy方向の空間周波数に対応している。
Figure 2012056686
ここで、記号「・」は、周波数領域における関数の「積」を示している。(式8)を変形すると、以下の(式9)が得られる。
Figure 2012056686
この(式9)は、カメラ撮影によって得られた画像i(x,y)のフーリエ変換I(u,v)を、ボケ関数PSFであるf(x,y)のフーリエ変換F(u,v)で除算して得られた関数が、全焦点画像s(x,y)のフーリエ変換S(u,v)に相当することを示している。
以上のことから、各画素のボケ関数PSFであるf(x,y)が分かれば、撮影画像i(x,y)から全焦点画像s(x,y)を求めることができる。
そこで、各画素のボケ関数PSFの求め方の一例について説明する。図7にレンズの模式図を示す。カメラからの距離がdである被写体を撮影しているときのボケカーネルのサイズをB、撮像面までの距離をCとする。カメラの設定条件から絞りの直径(開口径)Aと焦点距離fとは既知である。このとき、開口径Aと焦点距離fとの関係、および、ボケカーネルBと撮像面までの距離Cおよび焦点距離fの差との関係は、相似するので、(式10)が得られる。
Figure 2012056686
(式10)よりボケカーネルのサイズBは(式11)で表される。
Figure 2012056686
ここでレンズの公式より(式12)が得られる。
Figure 2012056686
カメラから被写体までの距離dと焦点距離fは既知であるため、(式12)を用いると(式11)は(式13)のように変形できる。
Figure 2012056686
テクスチャ画像取得部408は、この(式13)によりボケカーネルのサイズBを求めることができる。ボケカーネルのサイズBが決まればボケ関数f(x,y)が得られる。本実施の形態では、ボケカーネルをピルボックス関数で定義する。ピルボックス関数は(式14)で定義できる。
Figure 2012056686
以上の方法により、テクスチャ画像取得部408は、各画素のボケカーネルを求めて、ボケ関数を得る。そして、テクスチャ画像取得部408は、(式10)により、ボケ関数を用いて撮影画像に対して逆畳み込み演算を行うことでテクスチャ画像を生成する。
テクスチャ画像取得部408は、このテクスチャ画像を、時刻tに撮影された第1撮影画像群と時刻t+1に撮影された第2撮影画像群とのそれぞれから算出することにより、第1テクスチャ画像と第2テクスチャ画像とを取得する。
<画像動きベクトル算出処理(S106)>
次に、ステップS106の画像動きベクトル算出処理について説明する。
画像動きベクトル算出部402は、第1テクスチャ画像と第2テクスチャ画像とから動きベクトル(画像動きベクトル)を算出する。
なお、第1テクスチャ画像と第2テクスチャベクトルとから動きベクトルを算出する処理の詳細は、距離動きベクトル算出処理と同様であるので説明を省略する。
<ベクトル類似度算出処理(S108)>
次に、ステップS108のベクトル類似度算出処理の詳細について説明する。
ベクトル類似度算出部403は、距離動きベクトル算出部401によって算出された距離動きベクトルと、画像動きベクトル算出部402によって算出された画像動きベクトルとのベクトル類似度を算出する。
まず、ベクトル類似度を算出する理由について説明する。2つの動きベクトルが類似していないということは、被写体が距離画像とテクスチャ画像とで異なる動きをすることを意味する。しかしながら、同一の被写体であれば、本来、距離画像とテクスチャ画像とにおいて被写体は類似する動きをすると考えられる。
したがって、2つの動きベクトルが類似していなければ、2つの動きベクトルに基づいて生成される補間距離画像と補間テクスチャ画像とから生成される補間視差画像は、シーンの奥行きを正しく表現していない可能性が高い。その結果、このような補間視差画像によってフレーム補間された3次元動画像を3次元表示装置で表示しても、ユーザは、シーンの奥行き感を正しく視認することができない。
特に、距離画像間の対応点が正しく求められずに、距離動きベクトルが正しく算出されない場合、現実にはありえない奥行き感を有するシーンが3次元表示装置で表示される。そのような3次元動画では、例えば、本来はゆっくりと移動している1つの被写体が、手前や奥に激しく移動してしまう場合がある。このとき、予想される被写体の動きと3次元動画像から視認される被写体の動きとが大きく異なるため、ユーザは、3D酔いをする可能性が高くなる。
そこで、そのような距離画像の動きベクトル算出の失敗を検出するために、本実施の形態では、距離画像の動きベクトルとテクスチャ画像の動きベクトルとの類似度が利用される。距離画像とテクスチャ画像とは、互いに異なる情報(距離およびテクスチャ)を画像として表しているが、シーンに含まれる物体の動きによって発生する画像領域の動きの方向は類似しているという特徴を持つ。
したがって、2つの動きベクトルの確からしさは、2つの動きベクトルの類似度によって定義することができる。すなわち、距離画像の動きベクトルとテクスチャ画像の動きベクトルとが類似していないときは、距離画像の動きベクトルとテクスチャ画像の動きベクトルとのうちの少なくとも一方が正しく算出されていない可能性が高い。したがって、動きベクトルを用いて正しく補間テクスチャ画像または補間距離画像を生成できない可能性が高い。そこで、このような場合には、生成する補間画像の数を制限することで、3次元表示装置において低いフレームレートで3次元動画像が表示される。これにより、シーンの奥行きが急激に変化することによって生じる3D酔いを抑制することができる。
距離画像の動きベクトルとテクスチャ画像の動きベクトルとの類似度の算出方法について図8を用いて説明する。図8は、本発明の実施の形態におけるベクトル類似度算出部403の処理動作を示すフローチャートである。
まず、ベクトル類似度算出部403は、距離画像とテクスチャ画像とをそれぞれ複数のブロック(例えば、N×Mの矩形領域:N、Mは1以上の整数)に分割する(S302)。このブロックのサイズは、動きベクトルが算出されるブロックのサイズよりも大きい。つまり、動きベクトルが第1サイズのブロック毎に算出されている場合、ベクトル類似度算出部403は、第1サイズよりも大きい第2サイズのブロックに分割する。
次に、ベクトル類似度算出部403は、ブロック毎に、方向ヒストグラムと強度ヒストグラムとを作成する(S304)。ベクトル類似度算出部403は、これらのヒストグラムを用いてブロック毎に類似度を算出する(S306)。最後に、ベクトル類似度算出部403は、ブロック毎に求めた類似度の平均値を算出する(S308)。
ここで、動きベクトルをヒストグラムで表記する方法について説明する。動きベクトルは、2次元空間上のベクトルである。そのため、動きベクトルの方向dirと強度powは(式15)で算出できる。
Figure 2012056686
まず、動きベクトルの方向ヒストグラムを生成する方法について述べる。(式15)で得られる動きベクトルの方向dirの値の範囲は、0〜359度である。そこで、ベクトル類似度算出部403は、ブロック毎に、(式15)を用いて、当該ブロック内の各画素の動きベクトルの方向dirを算出する。そして、ベクトル類似度算出部403は、算出された各画素の動きベクトルの方向dirの頻度を、0〜359度の角度毎に算出することにより、各ブロックの動きベクトルの方向ヒストグラムを生成する。
具体的には、ベクトル類似度算出部403は、ブロック内の全ての画素の動きベクトルに対して(式16)を適用する。ここで動きベクトルを(xvec,yvec)と表す。ブロック内の1つの画素の動きベクトルが選択されると、xvecおよびyvecの値を用いて、選択された動きベクトルの方向が算出される。
ここでdirection_histは360個の記憶領域を持つ配列である。この配列の全ての要素の初期値は0である。(式16)に示す関数fは、ラジアンから度数に値を変換する関数である。関数fでは、小数点以下の値は四捨五入(あるいは切り捨て)される。この関数fにより得られる方向を示す0から359までの値をdirection_histの引数として、その引数に対応する配列の要素の値を1だけ加算する。これにより、ブロック内の動きベクトルの方向ヒストグラムが得られる。
Figure 2012056686
次に、動きベクトルの強度ヒストグラムを生成する方法について述べる。(式15)により得られる動きベクトルの強度powの最大値は、動きベクトルの長さの最大値である。すなわち、動きベクトルの強度powの最大値は、時刻tの画像と時刻t+1の画像との対応点の探索範囲の最大値と一致する。したがって、動きベクトルの強度powの最大値は、(式4)に示す時刻tの画像の画素(i1,j1)と時刻t+1の画像の画素(i2,j2)との距離の最大値と一致する。
この探索範囲は、撮影するシーンに応じて決定されてもよいし、撮像装置毎に決定されてもよい。また、ユーザが撮影する際に探索範囲を設定してもよい。探索範囲の最大値をpowmaxとすると、動きベクトルの強度が取りうる範囲は0〜powmaxとなる。
ベクトル類似度算出部403は、ブロック内の全ての画素の動きベクトルに対して(式17)を適用することで、動きベクトルの強度ヒストグラムを生成する。ここでpower_histはpowmax+1個の記憶領域を持つ配列である。この配列の全ての要素の初期値は0である。
ブロック内の1つの画素の動きベクトルが選択されると、(式15)により、選択された動きベクトルの強度が算出される。(式17)に示す関数gは、算出した動きベクトルの強度の小数点以下の値を四捨五入(あるいは切り捨て)するための関数である。この関数gにより得られる強度を示す0からpowmaxまでの値をpower_histの引数として、その引数に対応する配列の要素の値を1だけ加算する。これにより、ブロック内の動きベクトルの強度ヒストグラムが得られる。
Figure 2012056686
次に、以上により得られる動きベクトルの方向ヒストグラムと強度ヒストグラムとからブロックの類似度を求める方法を示す。距離画像の方向ヒストグラムと強度ヒストグラムとをそれぞれd_direction_hist、d_power_histとする。同様に、テクスチャ画像の方向ヒストグラムと強度ヒストグラムとをそれぞれt_direction_hist、t_power_histとする。ブロック内の画素数(動きベクトルの数)をN×Mとする。このとき、ベクトル類似度算出部403は、方向ヒストグラムのヒストグラム相関値と強度ヒストグラムのヒストグラム相関値とを(式18)に従って算出する。
Figure 2012056686
(式18)においてdircorは方向ヒストグラムの相関値、powcorは強度ヒストグラムの相関値であり、関数minは2つの引数のうち小さい値を返す関数である。ヒストグラムの形状が類似するほど、ヒストグラムの相関値(dircorとpowcor)が1に近くなり、ヒストグラムの形状が異なるほどヒストグラムの相関値が0に近くなる。
ベクトル類似度算出部403は、以上の方法で算出されるヒストグラムの相関値をブロック毎に算出する。そして、ベクトル類似度算出部403は、ブロック毎に算出された相関値の平均値を類似度と決定する。ヒストグラム相関値は0〜1までの範囲をとっているため、その平均値である類似度も0〜1の範囲をとる。したがって、類似度が、距離画像の動きベクトルとテクスチャ画像の動きベクトルとが類似している割合を示す。
以上のように、ベクトル類似度算出部403は、ブロック毎に、距離動きベクトルの方向ヒストグラムおよび強度ヒストグラムを生成する。さらに、ベクトル類似度算出部403は、ブロック毎に、画像動きベクトルの方向ヒストグラムおよび強度ヒストグラムを生成する。そして、ベクトル類似度算出部403は、距離動きベクトルおよび画像動きベクトルの方向ヒストグラム間の類似性と、距離動きベクトルおよび画像動きベクトルの強度ヒストグラム間の類似性とに基づいてベクトル類似度を算出する。
なお、ベクトル類似度算出部403は、必ずしも方向ヒストグラムおよび強度ヒストグラムの両方の類似度に基づいてベクトル類似度を算出する必要はない。つまり、ベクトル類似度算出部403は、方向ヒストグラムおよび強度ヒストグラムのうちの一方の類似度に基づいてベクトル類似度を算出してもよい。この場合、方向ヒストグラムおよび強度ヒストグラムのうちの他方は生成される必要はない。
また、ベクトル類似度算出部403は、ヒストグラムを用いてベクトル類似度を算出する必要はない。例えば、ベクトル類似度算出部403は、平均ベクトルの方向および強度を比較することによりベクトル類似度を算出してもよい。
<補間画像数決定処理(S110)>
次に、ステップS110の補間画像数決定処理について説明する。
補間画像数決定部404は、ベクトル類似度に基づいて、補間の上限数を決定する。上述したように、動きベクトルが正しく算出されていない場合、補間視差画像が多ければ、3次元動画像の画質が劣化するだけでなく、ユーザに3D酔いを引き起こすなどの問題がある。そこで、本実施の形態では、ベクトル類似度を動きベクトルの精度とみなし、ベクトル類似度が低い場合に補間視差画像の生成数を少なくなるように補間の上限数を決定する。これにより、動きベクトルが正しく算出できていない場合であっても、フレーム補間された3次元動画像を見た人に与える悪影響(例えば3D酔い等)を抑制することができる。
以下に、動きベクトルの類似度に基づいた補間の上限数の決定方法について説明する。補間画像数決定部404は、ベクトル類似度に対応する補間の上限数Numを、(式19)を用いて決定する。
Figure 2012056686
ここで、Fは予め定められた固定値であり、Simはベクトル類似度である。例えば、Fが30の場合に、ベクトル類似度Simが0.5であれば、時刻tと時刻t+1との間に補間可能な補間視差画像の上限数は15と決定される。
また、補間画像数決定部404は、ユーザによって入力された、補間の上限数以下の数を、補間数と決定してもよい。例えば上限数が15の場合、ユーザは、0から15の範囲の数を補間数として入力すればよい。
例えば、図9に示すように、タッチパネル(表示部300)上に、0から15の範囲の数の入力を受け付けるためのスライドバーが表示される。ユーザは、タッチパネル上に表示されたスライドバーをタッチ操作により移動させることで、上限数以下の数を入力する。
つまり、ユーザは、カメラ背面の表示部300を見ながら補間数を設定することができる。このような構成にすることで、ユーザは、後述する補間視差画像生成処理によって生成される補間視差画像によってフレーム補間された3次元動画像を確認しながら補間数を調整することができる。
したがって、ユーザは、直感的に酔いの少ない3次元動画像を得るための補間数を入力することができる。つまり、フレーム補間によってユーザに不快感を与えることを抑制することが可能となる。なお、例示したようなタッチパネルでなく、それ以外の入力装置により補間数の入力が受け付けられても構わない。
なお、補間画像数決定部404は、必ずしもユーザによって入力された数を補間数と決定する必要はない。例えば、補間画像数決定部404は、上限数をそのまま補間数と決定してもよい。
なお、非特許文献6には、3次元動画像の酔いに関する直接の実験結果は示されていないが、2D動画像の酔いに関する実験結果が示されている。また、非特許文献6には、映像酔いあるいは眼の疲れに影響を及ぼすため、カメラの撮影について左右の像の大きさ、回転、色などのずれがないように正確にカメラのパラメータなどを設定する旨が記載されている。
そして、立体視の得意な人、苦手な人が存在しており、疲れる人などの個人差があることも記載されている。このことから補間視差画像のエラーによる3D酔いが必ず発生しないように補間数を決定することは難しい。そこで、補間視差画像の数は標準では小さな値にしておき、図9に示すような値を指定するユーザインターフェースによって補間数が調整されることが望ましい。
<補間距離画像生成処理(S112)、補間テクスチャ画像生成処理(S114)>
次に、ステップS112の補間距離画像生成処理と、ステップS114の補間テクスチャ画像生成処理とについて詳細に説明する。
距離画像補間部405と画像補間部406は、動きベクトルを用いて、補間画像数決定部404で決定された補間の上限数以下の数だけ補間距離画像および補間テクスチャ画像を生成する。
ここで、時刻tの画像I1の画素(u,v)の動きベクトルが(vx,vy)であるとする。このとき画像I1の画素(u,v)に対応する、画像I2の画素は、画素(u+vx,u+vy)である。
以下に、補間数をNumとした場合の線形補間による距離画像およびテクスチャ画像の補間方法について説明する。
図9は、本発明の実施の形態における距離画像およびテクスチャ画像の補間方法説明するための図である。図9では、時刻tの距離画像およびテクスチャ画像と時刻t+1の距離画像およびテクスチャ画像との間を補間する補間距離画像および補間テクスチャ画像が生成される。
補間数Num=2の場合、図9の(a)に示すように、時刻tと時刻t+1の間は3分割され、時刻t+1/3の第1補間距離画像と時刻t+2/3の第2補間距離画像が生成される。第1補間距離画像を構成する画素(以下、「第1補間画素」という)と第2補間距離画像を構成する画素(以下、「第2補間画素」という)とは、第1距離画像の画素(u,v)と第2距離画像の画素(u+vx,v+vy)との内分点となる。したがって、第1補間画素は(u+vx/3,v+vy/3)となり、第2補間画素は(u+vx*2/3,v+vy*2/3)となる。
ここで、第1距離画像の画素(u,v)の画素値をDepth(u,v)と表し、第2距離画像の画素(u,v)の画素値をDepth’(u,v)と表す。このとき、第1補間画素(u+vx/3,v+vy/3)の画素値は、Depth(u,v)*2/3+Depth’(u+vx,v+vy)/3となる。また、第2補間画素の画素値はDepth(u,v)/3+Depth’(u+vx,v+vy)*2/3となる。
以上のような線形補間によって、補間距離画像が生成される。なお、上記と同様の方法で補間テクスチャ画像も生成されるので、説明を省略する。
以上の処理を一般化すると(式20)、(式21)になる。ここで時刻tの画素の座標を(u,v)とし、動きベクトルを(vx,vy)、補間数をNumとする。また、jは1以上Num以下の整数である。j番目の補間画像の画素の座標は(式20)で算出される。
Figure 2012056686
j番目の補間画像の画素値の算出式を(式21)に示す。ここでI(u,v)は時刻tの画素(u,v)の画素値であり、I’(u,v)は時刻t+1の画素(u,v)の画素値である。
Figure 2012056686
以上により定義される式によりj番目の補間画像を生成することができる。
<補間視差画像生成処理(S116)>
最後に、ステップS116の補間視差画像生成処理の詳細について説明する。
補間視差画像生成部407は、補間距離画像と補間テクスチャ画像とから補間視差画像(ここでいう視差画像とは左目用と右目用の2枚の画像を指す)を生成する。ここでは、補間テクスチャ画像と補間距離画像とから左目用の補間画像を生成する方法について説明する。
図11は、本発明の実施の形態における補間視差画像の生成方法を説明するための図である。具体的には、図11は、補間距離画像と補間テクスチャ画像の視点と生成する左目用画像の視点から見たときの被写体までの距離と画像上の座標との関係を示す。図11内の記号の意味は以下の通りである。
A:距離計測位置
B:左視差位置
C、D:被写体
E:左視差位置の光軸
G、I:被写体C、Dの左目用カメラでの撮影位置
f:距離計測位置の焦点距離
d:AとBの距離
Z、Z’:C、Dまでの距離
X1、X2:撮影画像上の座標
補間テクスチャ画像の画素(u,v)に対応する左目用補間画像の画素がわかれば、画素(u,v)の画素値を左目用補間画像の対応する画素にコピーすることで左目用画像を作ることができる。図11において焦点距離fとカメラから被写体までの距離Z、Z’は既知である。また距離dはあらかじめ視差画像を生成する際に任意に設定可能な値なので既知である。ここで、三角形ABCと三角形EIB、及び、三角形ABDとEGBがそれぞれ相似しているので、(式22)が得られる。
Figure 2012056686
(式22)を式変形をすると、(式23)が得られる。
Figure 2012056686
このことから、補間距離画像が示す距離がZのときは補間テクスチャ画像の画素(u,v)は左目用補間画像の画素(u−X1,v)に対応する。そこで、補間テクスチャ画像の画素(u,v)の画素値を左目用補間画像の画素(u−X1,v)にコピーすることで、左目用補間画像が生成される。同様に、補間距離画像が示す距離がZ’の場合は、補間テクスチャ画像の画素(u,v)の画素値を左目用補間画像の画素(u−X2,v)にコピーすればよい。
補間視差画像生成部407は、以上の処理を補間距離画像に含まれる全ての画素に対して行うことで、左目用補間画像を生成できる。右目用補間画像は、左目用補間画像と左右反対の位置に画素値をコピーすることで生成される。先程の例で説明すると、左目用補間画像の画素(u−X1,v)に対応する右目用補間画像の画素は、画素(u+X1,v)となる。以上により、補間視差画像生成部407は、左目用補間画像と右目用補間画像とを生成することができる。なお、補間視差画像生成部407は、補間視差画像に加えて視差画像を生成してもよい。
以上のように、本実施の形態に係る3次元撮像装置によれば、3次元動画像のフレーム補間を行う場合に、2次元画像の補間と距離画像の補間とをそれぞれ別々に行なった後に、補間視差画像が生成される。したがって、左目用画像の補間と右目用画像の補間とを別々に行うことにより補間視差画像を生成する場合よりも、奥行き方向の補間エラーを抑制することができ、3次元動画像のフレーム補間を高精度に行うことができる。また、左目用補間画像と右目用補間画像とが、同一の補間距離画像および補間画像を利用して生成されるので、フレーム補間された3次元画像を見るユーザに対して補間に起因する不快感を与えにくいという効果も奏する。
また、本実施の形態に係る3次元撮像装置によれば、距離動きベクトルと画像動きベクトルとの間の類似度に応じて補間の上限数を決定することができる。距離動きベクトルと画像動きベクトルとの間の類似度が低い場合、距離動きベクトルまたは画像動きベクトルが正しく算出されていない可能性が高い。したがって、このような場合に、補間の上限数を少なくすることで、補間視差画像によって3次元動画像の画質が劣化することを抑制できる。
また、本実施の形態に係る3次元撮像装置によれば、動きベクトルの方向および強度のうちの少なくとも一方のヒストグラムに基づいて、ベクトル類似度を算出することができる。これにより、動きベクトルが正しく算出されていない可能性とベクトル類似度との相関度を向上させることができ、適切に補間の上限数を決定することが可能となる。
また、本実施の形態に係る3次元撮像装置によれば、互いに焦点距離が異なる複数の撮影画像を入力として用いることができるので、撮像装置の小型化に貢献することができる。
以上、本発明の一態様に係る3次元撮像装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施した形態も、本発明の範囲内に含まれる。
例えば、上記実施の形態において、3次元画像補間部は、互いに焦点距離が異なる複数の撮影画像を入力として各種処理を実行していたが、必ずしも互いに焦点距離が異なる複数の撮影画像が入力である必要はない。例えば、左目用画像および右目用画像を含む3次元動画像が入力であっても構わない。この場合、距離画像取得部は、左目用画像および右目用画像間の視差に基づいて距離画像を取得すればよい。
また、上記実施の形態において、3次元画像補間部は、3次元撮像装置に含まれていたが、3次元撮像装置から独立して3次元画像補間装置として実現されてもよい。このような3次元画像補間装置の一例を図12および図13を用いて説明する。
図12は、本発明の一態様に係る3次元画像補間装置500の機能構成を示すブロック図である。また、図13は、本発明の一態様に係る3次元画像補間装置500の処理動作を示すフローチャートである。図12に示すように、3次元画像補間装置500は、距離画像補間部501と、画像補間部502と、補間視差画像生成部503とを備える。
図13に示すように、まず、距離画像補間部501は、第1距離画像と第2距離画像との間を補間する少なくとも1枚の補間距離画像を生成する(S402)。続いて、画像補間部502は、第1画像と第2画像との間を補間する少なくとも1枚の補間画像を生成する(S404)。最後に、補間視差画像生成部503は、補間画像に基づいて、補間距離画像が示す奥行きに応じた視差を有する補間視差画像を生成する(S406)。このように、3次元画像補間装置500は、3次元動画像のフレーム補間を行う。
(その他変形例)
なお、以下のような場合も本発明に含まれる。
(1)上記の3次元画像補間装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記ROMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、3次元画像補間装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の3次元画像補間装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の3次元画像補間装置を構成する構成要素の一部または全部は、3次元画像補間装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明に係る3次元画像補間装置および3次元撮像装置は、3次元動画像のフレーム補間を高精度に行うことができ、デジタルビデオカメラ、表示装置あるいはコンピュータソフトウェアなどとして利用することができる。
10 3次元撮像装置
100 撮像部
101 撮像素子
103 光学レンズ
104 フィルタ
105 制御部
106 素子駆動部
200 信号処理部
201 メモリ
202 3次元画像補間部
203 インタフェース部
300 表示部
400 距離画像取得部
401 距離動きベクトル算出部
402 画像動きベクトル算出部
403 ベクトル類似度算出部
404 補間画像数決定部
405、501 距離画像補間部
406、502 画像補間部
407、503 補間視差画像生成部
408 テクスチャ画像取得部
500 3次元画像補間装置

Claims (10)

  1. 3次元動画像のフレーム補間を行う3次元画像補間装置であって、
    前記3次元動画像に含まれる第1画像および第2画像の奥行きをそれぞれ表す第1距離画像と第2距離画像との間を補間する少なくとも1枚の補間距離画像を生成する距離画像補間部と、
    前記第1画像と前記第2画像との間を補間する少なくとも1枚の補間画像を生成する画像補間部と、
    前記補間画像に基づいて、前記補間距離画像が示す奥行きに応じた視差を有する少なくとも1組の補間視差画像を生成する補間視差画像生成部とを備える
    3次元画像補間装置。
  2. 前記3次元画像補間装置は、さらに、
    前記第1距離画像および前記第2距離画像から動きベクトルを距離動きベクトルとして算出する距離動きベクトル算出部と、
    前記第1画像および前記第2画像から動きベクトルを画像動きベクトルとして算出する画像動きベクトル算出部と、
    前記画像動きベクトルと前記距離動きベクトルとの類似性の高さを示す値であるベクトル類似度を算出するベクトル類似度算出部と、
    算出された前記ベクトル類似度が大きいほど数が多くなるように、補間の上限数を決定する補間画像数決定部とを備え、
    前記補間視差画像生成部は、決定された前記上限数以下の数の前記補間視差画像を生成する
    請求項1に記載の3次元画像補間装置。
  3. 前記距離動きベクトル算出部は、第1サイズのブロック毎に前記距離動きベクトルを算出し、
    前記画像動きベクトル算出部は、前記第1サイズのブロック毎に前記画像動きベクトルを算出し、
    前記ベクトル類似度算出部は、
    前記第1サイズよりも大きい第2サイズのブロック毎に、前記距離動きベクトルの方向および強度のうちの少なくとも一方のヒストグラムを生成し、
    前記第2サイズのブロック毎に、前記画像動きベクトルの方向および強度のうちの少なくとも一方のヒストグラムを生成し、
    前記距離動きベクトルおよび前記画像動きベクトルの方向のヒストグラム間の類似性と、前記距離動きベクトルおよび前記画像動きベクトルの強度のヒストグラム間の類似性とのうちの少なくとも一方に基づいて前記ベクトル類似度を算出する
    請求項2に記載の3次元画像補間装置。
  4. 前記補間画像数決定部は、ユーザによって入力された前記上限数以下の数を補間数と決定し、
    前記補間視差画像生成部は、決定された前記補間数の前記補間視差画像を生成する
    請求項2または3に記載の3次元画像補間装置。
  5. 前記3次元画像補間装置は、さらに、
    第1撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて前記第1距離画像を取得し、かつ、前記第1撮影画像群よりも時間的に後の第2撮影画像群に含まれる互いに焦点距離が異なる複数の撮影画像間のボケの相関性に基づいて前記第2距離画像を取得する距離画像取得部を備える
    請求項1〜4のいずれか1項に記載の3次元画像補間装置。
  6. 前記3次元画像補間装置は、さらに、
    前記第1撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第1テクスチャ画像を前記第1画像として取得し、かつ、前記第2撮影画像群に含まれる一の撮影画像のボケの特徴を示すボケ情報を用いて当該一の撮影画像に対して復元処理を行うことにより、第2テクスチャ画像を前記第2画像として取得するテクスチャ画像取得部を備える
    請求項5に記載の3次元画像補間装置。
  7. 前記3次元画像補間装置は、集積回路として構成されている
    請求項1〜6のいずれか1項に記載の3次元画像補間装置。
  8. 撮像部と、
    請求項1〜7のいずれか1項に記載の3次元画像補間装置とを備える
    3次元撮像装置。
  9. 3次元動画像のフレーム補間を行う3次元画像補間方法であって、
    前記3次元動画像に含まれる第1画像および第2画像の奥行きをそれぞれ表す第1距離画像と第2距離画像との間を補間する少なくとも1枚の補間距離画像を生成する距離画像補間ステップと、
    前記第1画像と前記第2画像との間を補間する少なくとも1枚の補間画像を生成する画像補間ステップと、
    前記補間画像に基づいて、前記補間距離画像が示す奥行きに応じた視差を有する少なくとも1組の補間視差画像を生成する補間視差画像生成ステップとを含む
    3次元画像補間方法。
  10. 請求項9に記載の3次元画像補間方法をコンピュータに実行させるためのプログラム。
JP2012517976A 2010-10-27 2011-10-26 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 Expired - Fee Related JP5887267B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012517976A JP5887267B2 (ja) 2010-10-27 2011-10-26 3次元画像補間装置、3次元撮像装置および3次元画像補間方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010240461 2010-10-27
JP2010240461 2010-10-27
JP2012517976A JP5887267B2 (ja) 2010-10-27 2011-10-26 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
PCT/JP2011/005956 WO2012056686A1 (ja) 2010-10-27 2011-10-26 3次元画像補間装置、3次元撮像装置および3次元画像補間方法

Publications (2)

Publication Number Publication Date
JPWO2012056686A1 true JPWO2012056686A1 (ja) 2014-03-20
JP5887267B2 JP5887267B2 (ja) 2016-03-16

Family

ID=45993432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012517976A Expired - Fee Related JP5887267B2 (ja) 2010-10-27 2011-10-26 3次元画像補間装置、3次元撮像装置および3次元画像補間方法

Country Status (5)

Country Link
US (1) US9270970B2 (ja)
EP (1) EP2635034B1 (ja)
JP (1) JP5887267B2 (ja)
CN (1) CN102687515B (ja)
WO (1) WO2012056686A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101055411B1 (ko) * 2010-03-12 2011-08-09 이상원 입체 영상 생성 방법 및 그 장치
KR101852811B1 (ko) * 2011-01-05 2018-04-27 엘지전자 주식회사 영상표시 장치 및 그 제어방법
WO2013085513A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Graphics rendering technique for autostereoscopic three dimensional display
US9171393B2 (en) * 2011-12-07 2015-10-27 Microsoft Technology Licensing, Llc Three-dimensional texture reprojection
TWI483612B (zh) * 2011-12-22 2015-05-01 Nat Univ Chung Cheng Converting the video plane is a perspective view of the video system
JP6071257B2 (ja) * 2012-06-07 2017-02-01 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
JP2014036362A (ja) * 2012-08-09 2014-02-24 Canon Inc 撮像装置、その制御方法、および制御プログラム
JP6007682B2 (ja) * 2012-08-31 2016-10-12 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP5966837B2 (ja) * 2012-10-05 2016-08-10 大日本印刷株式会社 奥行き制作支援装置、奥行き制作支援方法、およびプログラム
KR101433242B1 (ko) * 2012-11-16 2014-08-25 경북대학교 산학협력단 정복 시술 로봇 및 그의 구동 제어 방법
JP5786847B2 (ja) * 2012-12-19 2015-09-30 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
US9036040B1 (en) 2012-12-20 2015-05-19 United Services Automobile Association (Usaa) Vehicle identification number capture
JP6182930B2 (ja) * 2013-03-28 2017-08-23 大日本印刷株式会社 奥行き制作支援装置、奥行き制作方法、及びプログラム
JP6214233B2 (ja) 2013-06-21 2017-10-18 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム。
KR102103984B1 (ko) 2013-07-15 2020-04-23 삼성전자주식회사 깊이 영상 처리 방법 및 장치
JP6264107B2 (ja) * 2014-03-10 2018-01-24 サクサ株式会社 画像処理装置
US9769498B2 (en) 2014-03-28 2017-09-19 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
TWI549478B (zh) * 2014-09-04 2016-09-11 宏碁股份有限公司 產生三維影像的方法及其電子裝置
US9781405B2 (en) 2014-12-23 2017-10-03 Mems Drive, Inc. Three dimensional imaging with a single camera
CN105208366A (zh) * 2015-09-16 2015-12-30 云南师范大学 一种用于近视患者立体视觉增强的方法
US10484629B2 (en) * 2015-10-16 2019-11-19 Capso Vision Inc Single image sensor for capturing mixed structured-light images and regular images
WO2017077906A1 (ja) 2015-11-06 2017-05-11 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
CN108603743B (zh) * 2016-02-04 2020-03-27 富士胶片株式会社 信息处理装置、信息处理方法及程序
US10277889B2 (en) * 2016-12-27 2019-04-30 Qualcomm Incorporated Method and system for depth estimation based upon object magnification
TWI622022B (zh) * 2017-07-13 2018-04-21 鴻海精密工業股份有限公司 深度計算方法及其裝置
US10502791B1 (en) * 2018-09-04 2019-12-10 Lg Chem, Ltd. System for determining an accurate ohmic resistance value associated with a battery cell
US10699430B2 (en) * 2018-10-09 2020-06-30 Industrial Technology Research Institute Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
CN111862183A (zh) * 2020-07-02 2020-10-30 Oppo广东移动通信有限公司 深度图像处理方法和系统、电子设备及存储介质
CN112258635B (zh) * 2020-10-26 2023-07-21 北京石油化工学院 基于改进双目匹配sad算法的三维重建方法及装置
WO2024057902A1 (ja) * 2022-09-12 2024-03-21 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262382A (ja) 1994-03-17 1995-10-13 Fujitsu Ltd 画像処理システムにおける物体認識及び画像補間装置
JP3988879B2 (ja) * 2003-01-24 2007-10-10 日本電信電話株式会社 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体
JP2009244490A (ja) * 2008-03-31 2009-10-22 Casio Comput Co Ltd カメラ、カメラ制御プログラム及びカメラ制御方法
JP4483983B2 (ja) 2008-06-26 2010-06-16 ソニー株式会社 画像圧縮装置及び画像圧縮方法
JP4990234B2 (ja) 2008-07-07 2012-08-01 オリンパス株式会社 測距装置、測距方法、測距プログラム又は撮像装置
JP4670918B2 (ja) 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
JP2010081357A (ja) 2008-09-26 2010-04-08 Olympus Corp 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
JP2010171672A (ja) 2009-01-22 2010-08-05 Hitachi Ltd フレームレート変換装置、映像表示装置、フレームレート変換方法

Also Published As

Publication number Publication date
CN102687515B (zh) 2015-07-15
US9270970B2 (en) 2016-02-23
EP2635034A4 (en) 2014-04-23
JP5887267B2 (ja) 2016-03-16
WO2012056686A1 (ja) 2012-05-03
EP2635034A1 (en) 2013-09-04
EP2635034B1 (en) 2014-09-24
US20120293627A1 (en) 2012-11-22
CN102687515A (zh) 2012-09-19

Similar Documents

Publication Publication Date Title
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US9076267B2 (en) Image coding device, integrated circuit thereof, and image coding method
EP3067746A1 (en) Photographing method for dual-camera device and dual-camera device
US20120140038A1 (en) Zero disparity plane for feedback-based three-dimensional video
JP5370542B1 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2011166264A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
JP3990271B2 (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
JP2016225811A (ja) 画像処理装置、画像処理方法およびプログラム
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
TWI613904B (zh) 立體影像產生方法及使用此方法的電子裝置
JP5627498B2 (ja) 立体画像生成装置及び方法
Kao Stereoscopic image generation with depth image based rendering
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
CN111754558B (zh) 用于rgb-d摄像系统与双目显像系统的匹配方法及其相关系统
Fatima et al. Quality assessment of 3D synthesized images based on structural and textural distortion
WO2012090813A1 (ja) 画像処理装置及び画像処理システム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160215

R150 Certificate of patent or registration of utility model

Ref document number: 5887267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees