JP2008263528A - 画像情報処理方法及び画像情報処理システム - Google Patents

画像情報処理方法及び画像情報処理システム Download PDF

Info

Publication number
JP2008263528A
JP2008263528A JP2007106213A JP2007106213A JP2008263528A JP 2008263528 A JP2008263528 A JP 2008263528A JP 2007106213 A JP2007106213 A JP 2007106213A JP 2007106213 A JP2007106213 A JP 2007106213A JP 2008263528 A JP2008263528 A JP 2008263528A
Authority
JP
Japan
Prior art keywords
image
camera
image information
depth
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007106213A
Other languages
English (en)
Other versions
JP4706068B2 (ja
Inventor
Masayuki Tanimoto
正幸 谷本
Toshiaki Fujii
俊彰 藤井
Tomohiro Marumichi
知博 圓道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2007106213A priority Critical patent/JP4706068B2/ja
Publication of JP2008263528A publication Critical patent/JP2008263528A/ja
Application granted granted Critical
Publication of JP4706068B2 publication Critical patent/JP4706068B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】複数のカメラ画像に基づく任意視点の画像を生成する際に、送信側システムにおける情報処理量を過大にせず、受信側システムとして処理能力の低い機器が使用でき、システム全体の情報処理量を低減できる画像情報処理方法及びシステムを提供する。
【解決手段】送信側システム10は、複数のカメラ画像を取得し、複数のカメラ画像に対応する複数の奥行きマップを生成し、複数のカメラ画像及び複数の奥行きマップを符号化して送信し、受信側システム30は、複数のカメラ画像及び複数の奥行きマップを受信して復号化し、複数のカメラ画像及び複数の奥行きマップを用いて、カメラ画像の間の補間画像を計算して、カメラ画像と補間画像とからなる光線空間を生成し、光線空間から表示画像を切り出して出力する。
【選択図】図7

Description

本発明は、複数のカメラ画像に基づいて実際にカメラが存在しない視点(仮想カメラ)から見た自由視点画像を生成するための画像情報処理方法及び画像情報処理システムに関し、特に、複数のカメラ画像を取得する送信側システム及び自由視点画像を表示する受信側システムにおける画像情報処理に関する。
見る者があたかもその場にいるかのように、自由に視点を変えて3次元シーンを見ることのできる自由視点テレビ(Free viewpoint TV:FTV)が提案されている(例えば、非特許文献1及び2参照)。図1は、FTVシステムの基本的な構成を概念的に示す図である。図1に示されるFTVシステムは、複数のカメラによる撮影(ステップST1)、離散的にしか存在しないカメラ画像の間に画像を補間する補間処理(ステップST2又は2a)、及び入力された視点(仮想カメラ)から見た画像の切り出し及び表示(ステップST4及びST5)を行う。FTVシステムでは、3次元実空間に存在する被写体101の画像情報を複数のカメラ(図1には、符号102〜102の5台を示すが、実際にはより多くのカメラが用いられる。)によって取得し、取得された複数のカメラ画像(図1には、符号103〜103の5つの画像を示すが、実際にはより多くの画像が用いられる。)を光線空間103に配列し、FTV信号とする。なお、図において、xは、水平視野方向、yは、垂直視野方向、u(=tanθ)は、視域方向を示す。
光線空間法では、3次元実空間の1本の光線を、それを表すパラメータを座標とする多次元空間の1点で表す。この仮想的な多次元空間を光線空間(Ray Space)という。光線空間全体は、3次元空間のすべての光線を過不足なく表現する。光線空間は、多くの視点から撮影された画像を集めることによって作られる。光線空間の点の値は、画像の画素値と同じであるから、画像から光線空間への変換は、単なる座標変換である。図2(a)に示されるように、実空間中の基準面106を通過する光線107は通過位置(x,y)と通過方向(θ,φ)の4つのパラメータによって一意に表現することができる。図2(a)において、Xは、3次元実空間における水平方向の座標軸であり、Yは、垂直方向の座標軸であり、Zは、奥行き方向の座標軸である。また、θは、基準面106の法線に対する水平方向の角度、すなわち、基準面106に対する水平方向の出射角であり、φは、基準面106の法線に対する垂直方向の角度、すなわち、基準面106に対する垂直方向の出射角である。これにより、この3次元実空間内の光線情報を輝度f(x,y,θ,φ)と表すことができる。ここでは、説明を分かりやすくするために、垂直方向の視差(角度φ)を無視する。図2(a)に示されるように、基準面106に向けて、且つ、水平に配置された多数のカメラで撮影された画像は、図2(b)に示されるように、x,y,u(=tanθ)の軸を持つ3次元空間において、点線で描かれる断面103〜103に位置していることになる。図2(b)に示される光線空間103から任意の面を切り取ることによって、実空間における水平方向の任意の視点から見た画像を生成することが可能となる。例えば、図3(a)に示される光線空間103から断面103aを切り出すと、図3(b)に示されるような画像がディスプレイに表示され、図3(a)に示される光線空間103から断面103bを切り出すと、図3(c)に示されるような画像がディスプレイに表示される。また、光線空間103に配列された画像(断面103〜103)の間にはデータがないため、これを補間によって作る。なお、補間は、光線空間の全体についてではなく、必要な部分についてのみ行う場合もある。
図4は、送信側システム210と受信側システム230とから構成される従来の画像情報処理システムの構成及び動作を示す図である。図4に示されるように、送信側システム210は、被写体101を複数のカメラ211aで撮影することによって複数のカメラ画像210aを取得する画像取得部211と、取得された複数のカメラ画像210aを補正する補正部212と、補正されたカメラ画像210bを符号化する符号化部(エンコーダ)213と、符号化されたカメラ画像210cとカメラパラメータをインターネットなどの伝送手段220を介して送信する送信部214とを有している。また、受信側システム230は、送信側システム210から送信されたカメラ画像210cとカメラパラメータを受信する受信部231と、受信されたカメラ画像210cを復号化する復号化部(デコーダ)232と、復号化されたカメラ画像230aを用いて光線空間230bを生成する画像生成(View Generation)部233と、光線空間230bから表示画像を切り出す抽出部234と、切り出された表示画像230cを表示する表示部235と有している。
図5(a)〜(c)は、従来の画像情報処理システム又は3Dサービスシステムの具体例を示すブロック図である。図5(a)に示されるインターネットを用いたダウンロード/パッケージサービスにおいては、送信側システムのデジタルアーカイブス241を伝送/パッケージ手段242を介して受信側の複数のユーザのシステムに送信し、各ユーザのシステムがデコーダ243による復号化、画像生成部244による光線空間の生成、及び表示部245による自由視点画像(2D画像又は3D画像)の表示を行う。ダウンロード/パッケージサービスにおいては、リアルタイム性はあまり要求されない。図5(b)に示される放送サービスにおいては、送信側の画像取得部251でカメラ画像を取得し、補正部252でカメラ画像を補正し、エンコーダ253で符号化した画像を伝送手段254によって伝送し、受信側の複数のユーザのシステムにおいて、デコーダ255が受信画像を復号化し、画像生成部256によって光線空間を生成し、自由視点画像の表示を行う。放送サービスにおいては、ダウンロード/パッケージサービスよりはリアルタイム性が要求されるが、完全なリアルタイム性までは要求されない。図5(c)に示される通信サービスにおいては、画像取得部261又は271、補正部262又は272、及びエンコーダ263又は273を有する送信側システムから、伝送手段264を介して符号化画像を伝送し、デコーダ265又は275、画像生成部266又は276、及び表示部267又は277を有する受信側システムが復号化、画像生成、及び自由視点画像の表示を行う。通信サービスにおいては、高いリアルタイム性が要求される。
谷本正幸、「自由視点テレビ」、日本工業出版、画像ラボ、2005年2月号、23〜28頁 岡慎也、ナ バンチャンプリム、藤井俊彰、谷本正幸、「自由視点テレビのための光線空間情報圧縮」、信学技報、CS2003−141、7〜12頁、2003年12月
図4又は図5(a)〜(c)に示されるシステムにおいては、カメラ画像から自由視点画像を生成するための画像生成処理(図4の画像生成部233による処理、図5(a)の画像生成部244による処理、図5(b)の画像生成部256による処理、図5(c)の画像生成部266及び276による処理)をすべて受信側システムで行っている。自由視点画像の生成にはシーンの奥行き情報である奥行きマップ(Depth Map)の算出プロセスと、この奥行きマップを用いた光線空間の補間(interpolation)プロセスが含まれる。このため、複数のカメラ画像(輝度信号)のみを受信側システムに伝送した場合には、受信側システムで複数のカメラ画像から奥行きマップを算出する必要が生じる。しかし、奥行きマップの算出処理には、非常に計算能力の高い装置が必要であり、ユーザ側機器である受信側システム230に、自由視点画像を生成するための高い計算能力を持たせることは、コスト面から難しいという問題がある。
このため、複数のカメラ画像から自由視点画像を生成するための処理における、奥行きマップの算出プロセス及び補間プロセスを送信側システムで行い、受信側システムは光線空間から表示画像を切り出す処理を行うシステムも考えられる。図6は、このような画像情報処理システムの構成及び動作を示す図である。図6に示されるように、送信側システム310は、被写体101を複数のカメラ311aで撮影することによって複数のカメラ画像310aを取得する画像取得部311と、撮影された複数のカメラ画像310aを補正する補正部312と、補正されたカメラ画像310bから補間画像を生成して補間された光線空間310cを生成する画像生成部313と、光線空間310cの情報を符号化する符号化部314と、符号化された光線空間情報を伝送手段320を介して送信する送信部315とを有している。また、受信側システム330は、送信側システム310から送信された光線空間310cの情報を受信する受信部331と、受信された情報を復号化する復号化部332と、復号化された情報を用いて光線空間310cを生成する画像生成部332と、光線空間310cから表示画像を切り出す抽出部333と、抽出された表示画像310dを表示する表示部334と有している。
しかし、図6に示される画像情報処理システムの送信側システム310で光線空間を作成する場合には、受信側に存在する多数のユーザのすべての要望に対応できるようにするため、離散的にしか存在しない複数のカメラ画像の間を埋め尽くすように、極めて多くの補間画像を形成する必要がある。このため、送信側システム310における情報処理量が膨大になり、送信者、例えば、放送事業者、に多大なコストを強いるという問題がある。
そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、複数のカメラ画像に基づく任意視点の画像を生成する画像情報処理において、送信側システムにおける情報処理量を抑制でき、かつ、受信側システムとして計算能力の低い機器を使用でき、かつ、システム全体の情報処理量を低減することができる画像情報処理方法及び画像情報処理システムを提供することにある。
本発明の画像情報処理方法は、送信側システムと受信側システムとを有する画像情報処理システムにおける方法であって、前記送信側システムが、被写体を複数のカメラで撮影することによって複数のカメラ画像を取得するステップと、前記送信側システムが、撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成するステップと、前記送信側システムが、前記カメラ画像及び前記奥行きマップを符号化するステップと、前記送信側システムが、符号化された前記カメラ画像及び前記奥行きマップを送信するステップと、前記受信側システムが、前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信するステップと、前記受信側システムが、受信された前記カメラ画像及び前記奥行きマップを復号化するステップと、前記受信側システムが、復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成するステップと、前記受信側システムが、前記光線空間情報から表示画像を抽出して出力するステップとを有することを特徴としている。
また、本発明の画像情報処理システムは、送信側システムと受信側システムとを有する画像情報処理システムであって、前記送信側システムが、被写体を複数のカメラで撮影することによって複数のカメラ画像を取得する複数のカメラと、撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成する奥行きサーチ部と、前記カメラ画像及び前記奥行きマップを符号化する符号化部と、符号化された前記カメラ画像及び前記奥行きマップを送信する送信部とを有し、前記受信側システムが、前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信する受信部と、受信された前記カメラ画像及び前記奥行きマップを復号化する復号化部と、復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成する補間部と、前記光線空間情報から表示画像を抽出して出力する抽出部とを有することを特徴としている。
本発明の画像情報処理方法及び画像情報処理システムにおいては、複数のカメラ画像から各カメラに対応する奥行きマップを計算する処理を送信側システムで行い、複数のカメラ画像と複数の奥行きマップを用いて、光線空間に画像を補間する処理を受信側システムで行っている。このように、情報処理量の大きい奥行きマップの生成処理を送信側システムが行うことによって、受信側システムに要求される計算能力を低くすることができ、受信者のコスト負担を低減することができる。
また、複数のカメラ画像と複数の奥行きマップを用いて光線空間を補間する処理は、送信側システムで行う場合には、複数のカメラ画像の間の全領域について行う必要があるが、受信側システムで行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。したがって、本発明の画像情報処理方法及び画像情報処理システムによれば、補間処理を行う受信側システムに要求される計算能力は低く、受信者のコスト負担を大きく増加させることはない。
さらに、複数のカメラ画像と奥行きマップを用いて光線空間を補間する処理は、送信側システムで行う場合には、複数のカメラ画像の間の全領域について行う必要があるが、受信側システムで行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。このため、補間処理を受信側システムで行う本発明の画像情報処理方法及び画像情報処理システムによれば、画像生成処理のすべてを送信側システムで行う場合に比べ、システム全体の情報処理量を削減することができ、結果的に、計算コストを削減することができる。
《1.第1の実施形態》
〈1−1.第1の実施形態の画像情報処理システムの構成及び動作〉
図7は、送信側(sender)システム10と受信側(receiver)システム30とから構成される本発明の第1の実施形態の画像情報処理システムの構成及び動作を示す図である。図7の画像情報処理システムは、任意の視点から見た2次元画像を表示するFTVシステムであるが、三次元(3D)画像を表示する3D表示システムとすることもできる。
図7に示される画像情報処理システムは、送信側システム10と受信側システム30とを有するシステムである。送信側システム10は伝送(transmission)手段20を介して受信側システム30に情報を送信する。伝送手段20は、例えば、インターネット、放送設備、通信設備などであるが、信号を伝送できる手段であれば何であってもよい。また、伝送手段20は、必要に応じて、情報を保持する記憶手段(storage)を備えたものであってもよい。
図7に示されるように、送信側システム10は、被写体101を複数のカメラ11aで撮影することによって複数のカメラ画像10aを取得する画像取得部11と、撮影された複数のカメラ画像10aを補正する補正部12と、補正された複数のカメラ画像10bに対応する複数の奥行きマップ10dを生成する奥行きサーチ部13と、複数のカメラ画像10b及び各カメラ画像に対応する複数の奥行きマップを符号化する符号化部14と、符号化されたカメラ画像10c、奥行きマップ10d、及び複数のカメラ11aに関するカメラパラメータを伝送手段20を介して送信する送信部15とを有している。補正部12は、複数のカメラ11aが、例えば、1列に等間隔で並んでいない場合や同じ方向を向いていない場合に、カメラ画像を補正して、複数のカメラが1列に等間隔で並び且つ同じ方向を向いていると見なせるように、カメラ画像10aを補正する。奥行きマップ10dは、カメラに入射する光線を出す被写体101の各部分の方向と距離を含む被写体101の奥行き情報から構成される。
また、図7に示されるように、受信側システム30は、送信側システム10から伝送手段20を介して送信されたカメラ画像10c、奥行きマップ10d、及びカメラパラメータを受信する受信部31と、受信されたカメラ画像10c及び奥行きマップ10dを復号化する復号化部32と、復号化されたカメラ画像10e、奥行きマップ10f、及びカメラパラメータを用いて、カメラ画像の間の補間画像を計算して、カメラ画像からなる光線空間に補間画像を補間する補間部33と、補間後の光線空間10gから表示画像を切り出す抽出部34と、切り出された表示画像10hを1台又は複数台のディスプレイに表示する表示部35と有している。
<本発明の画像情報処理システムの動作(本発明の画像情報処理方法)>
本発明の第1の実施形態においては、図7に示されるように、送信側システム10は、被写体101を複数のカメラ11aで撮影することによって複数のカメラ画像10aを取得し、撮影された複数のカメラ画像10aを必要に応じて補正し、複数のカメラ画像10bに対応する複数の奥行きマップを生成し、複数のカメラ画像10b及び複数の奥行きマップを符号化し、カメラ画像10c、奥行きマップ10d、及びカメラパラメータを伝送手段20を介して送信する。
また、図7に示されるように、受信側システム30は、送信側システム10から伝送手段20を介して送信されたカメラ画像10c、奥行きマップ10d、及びカメラパラメータを受信し、受信されたカメラ画像10c及び奥行きマップ10dを復号化し、復号化されたカメラ画像10e、奥行きマップ10f、及びカメラパラメータを用いて、カメラ画像の間の補間画像を計算して、カメラ画像からなる光線空間に補間画像を補間し、補間後の光線空間10gから表示画像を切り出し、切り出された表示画像10hを表示する。
図8は、本発明の第1の実施形態の画像情報処理システム(図7)及び従来の画像情報処理システム(図4、図6)における送信側システムから送信される情報を示す図である。図4に示される従来の画像情報処理システム(比較例)の場合には、送信側システム210から送信される画像はカメラパラメータと複数のカメラ画像210cである。図6に示される従来の画像情報処理システム(比較例)の場合には、送信側システム310から送信される画像は光線空間情報310cである。これに対し、図7に示される本発明の画像情報処理システムにおいては、送信側システム10から送信される画像はカメラパラメータと複数のカメラ画像10cと各カメラの奥行きマップ10dである。
図9は、本発明の第1の実施形態の画像情報処理システム(図7)における複数のカメラ画像と複数の奥行きマップを示す図である。図9において、Nは正の整数であり、kはN以下の正の整数である。図9において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図7の符号11)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図9に示されるカメラ画像I、I、…、Ik−1、I、Ik+1、…、Iのそれぞれは1枚の画像で(例えば、長方形)あるが、図9においては、カメラ画像を図9が描かれた紙面に垂直に並べている場合を示している。また、図9に示される奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dのそれぞれは、カメラ画像と同様に1枚の画像(例えば、長方形)として表すことができるが、図9においては、奥行きマップを図9が描かれた紙面に垂直に並べている場合を示している。
図10は、1枚の奥行きマップを明るさの違いで表示した例を示す図である。図10において、明るい部分(白い部分)は近い部分であり、暗く(黒く)なるほど遠い部分を示す。送信側システム10から送信されるカメラ画像I、I、…、Ik−1、I、Ik+1、…、IがN枚である場合には、送信側システム10から送信される奥行きマップD、D、…、Dk−1、D、Dk+1、…、DもN枚となる。
図11は、図4に示される従来の画像情報処理システム(比較例)の送信側システム210及び受信側システム230における情報処理プロセスを示す図である。図11において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図4の符号211)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図11に示されるカメラ画像及び奥行きマップのそれぞれは、カメラ画像と同様に1枚の画像(例えば、長方形)として表すことができるが、図11においては、奥行きマップを図11が描かれた紙面に垂直に並べている場合を示している。図11に示されるように、図4に示される画像情報処理システム(比較例)においては、奥行きサーチ、及び奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dの生成を、受信側システム230が行っている。
図12は、図6に示される従来の画像情報処理システム(比較例)の送信側システム310及び受信側システム330における情報処理プロセスを示す図である。図12において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図6の符号311)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図12に示されるカメラ画像及び奥行きマップのそれぞれは、カメラ画像と同様に1枚の画像として表すことができるが、図12においては、奥行きマップを図12が描かれた紙面に垂直に並べている場合を示している。図12に示されるように、図6に示される画像情報処理システム(比較例)においては、奥行きサーチ、及び奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dの生成、光線空間の生成を送信側システム310が行っている。
図13は、本発明の第1の実施形態の画像情報処理システムの送信側システム10及び受信側システム30における情報処理プロセスを示す図である。図13において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図7の符号11)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図13に示されるカメラ画像及び奥行きマップのそれぞれは、カメラ画像と同様に1枚の画像(例えば、長方形)として表すことができるが、図13においては、奥行きマップを図13が描かれた紙面に垂直に並べている場合を示している。図13に示されるように、本発明の第1の実施形態の画像情報処理システムにおいては、奥行きサーチ、及び奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dの生成を送信側システム10が行い、補間画像の生成及び補間された光線空間からの表示画像の切り出しを受信側システム30が行っている。
〈1−2.画像生成処理〉
図14は、実際のカメラで取得されたカメラ画像から任意視点の画像を生成するプロセスを示す図である。図14において、401〜405は、直線上に1列に同じ方向を向けて配列したカメラであり、411は、実際には存在しない仮想カメラ(ユーザーが指定して視点位置)である。カメラ401〜405は、カメラ401〜405を通る光線を撮影するが、隣り合うカメラ間を通る光線は撮影していない。そこで、ユーザが見たいところ、すなわち、隣り合うカメラ間に仮想カメラ411を置く。実際のカメラ(図14においては、カメラ402、403)を通る光線から、補間して仮想カメラ411を通る光線を作る。しかし、カメラ401〜405を通る光線はどの方向から来た光線であるかはわかるが、どの位置から来た光線かは、わからない。そこで、例えば、図14に示されるカメラ402と403を用いて、被写体412の奥行きをサーチする。この奥行きサーチに際しては、物体表面のある点からの光はどの方向にも同じ強度であるということ(ランベルト反射)を前提とすると、カメラ402の撮影点(被写体上の部分)とカメラ403の撮影点(被写体上の部分)の輝度がマッチングする位置を探し、マッチングした位置を物体の表面と推定する。このとき、カメラ402とカメラ403の間隔は既知であり、マッチング位置からの光線がカメラ402に入射する角度とマッチング位置からの光線がカメラ403に入射する角度も判るので、マッチング位置までの距離を計算することができる。このようにして物体の奥行きを推定できた後に、仮想カメラ411から見た画像を推定して補間画像を生成する。
図15は、奥行きと視差との関係を示す図である。光線空間における補間画像は、生成すべきカメラ位置でのシーンの奥行きを求めることができれば、生成可能となる。ここで、奥行きと視差との幾何学的な関係を説明する。簡単のために高さ方向を考慮しない2次元平面で考える。左右のカメラをカメラ(camera)Lとカメラ(camera)Rとする。光線源Mの奥行きをDと仮定する。このとき、この光線源Mが放つ光線は、左右のカメラLとカメラRのそれぞれの点V及び点Vに入射する。同一の光線源Mが放つ光線を、異なるカメラがとらえた点(この場合は、V,V)を対応点と呼ぶ。また、カメラLとカメラR間の対応点V,Vの差を視差と呼び、dと記述する。
奥行きDと視差dの関係を求める。図15において、カメラの焦点距離をf、左右のカメラ間距離をJ、光線源をMとし、光線源MからカメラLまでのX座標の距離をmとしたとき、幾何関係から、図15中のd及びdは以下のように求めことができる。
=f・(J−m)/D
=f・m/D
視差dは、d+dで与えられるため、
d=d+d=f・(J−m)/D+f・m/D=f・J/D
となる。カメラLから光線源Mまでの距離D
=D/cosθ
カメラLから見たときの、視差dと距離Dの関係は、
d=(f・J・cosθ)/D
となる。つまり、視差dは、カメラ間隔Jに比例し、カメラLから見たときの光線源Mの奥行きDに反比例したものとなる。本発明の奥行き推定法は、補間するカメラ位置での奥行き推定となる。したがって、情報の無い状態から、周辺画像情報のみを利用して奥行き推定を行い、補間画像を生成することになる。この奥行き推定法によれば、作り出す視点での奥行きを求めることで、より正確に補間画像を生成できる。このような奥行きDと視差dの関係から、左右の画像間で視差dを変化させることは、光線源の奥行きDを変化させたことと等価であるとわかる。つまり、視差dを様々に変化させることで、画像間での対応点を探し出し、求められた視差情報を基に、光線源が推定され、補間すべき画素値が特定される。
〈1−3.オクルージョンを考慮した奥行きマップ生成方法〉
図16は、オクルージョン(occulusion)が存在するときの奥行きサーチの方法を示す図である。図16において、物体421の表面の点421aは、カメラ位置k及びカメラ位置k+1の両方が見える位置である。したがって、仮想カメラ位置である視点431から点421aを見たときの奥行き推定は、視点kからの画像情報と視点k+1からの画像情報とを用いて行うことができる。しかし、後方にある物体422の表面の点422aは、カメラ位置k+1からは見えるが、物体421の陰になってカメラ位置kからは見えない。このように一方のカメラ視点から見えるが他方のカメラ視点から見えないことをハーフオクルージョン(half occulusion)と言う。また、両方のカメラ位置から見えないことをフルオクルージョン(full occulusion)と言う。
図17は、物体422についてカメラ位置k及びカメラ位置k+1から見たときの、ハーフオクルージョンの範囲とフルオクルージョンの範囲を示す図である。図17に示されるように、物体422の範囲440は、いずれのカメラ位置k及びカメラ位置k+1からも見える範囲であり、物体422の範囲441及び443は、カメラ視点k+1からは見えるがカメラ視点kからは見えないハーフオクルージョンの範囲であり、物体422の範囲442は、カメラ視点k及びカメラ位置k+1のいずれからも見えないフルオクルージョンの範囲である。
図18は、本発明の第1の実施形態における奥行きマップの計算方法を示す図である。図18において、最上段の1、2、…、Nは、画像取得部(図7の符号11)の複数のカメラのカメラ番号である。また、I、I、…、Iは、複数のカメラ画像を示し、中段付近の1、2、…、N−1はカメラ画像の対(pair)を示している。カメラ画像の1つの対に含まれる2本の線のうち太線は、カメラの対の内の左側のカメラに基づく奥行きマップを示し、細線は右側のカメラに基づく奥行きマップを示す。
図19は、本発明における視差の計算方法を示す図である。図19において、IとIk+1は、カメラ画像の対(pair)を示し、Iはカメラの対の内の左側のカメラのカメラ画像を示し、Ik+1は右側のカメラのカメラ画像を示す。また、図19において、500は、カメラ画像Iとカメラ画像Ik+1の視差を示す図である。
図19に示されるように、先ず、左側のカメラで撮影した画像Iの中の部分501と同じと見なすことができる(又は類似する)輝度及び形状の部分を、右側のカメラで撮影したカメラ画像Ik+1の中から検出する。この処理によって検出されたカメラ画像Ik+1の部分を501k+1とし、視差図500内に示されるように、そのときの視差をRとする。ここで、同じと見なすことができる(又は類似する)とは、輝度値の差分値が所定範囲内であるという意味である。
次に、右側のカメラで撮影した画像Iの中の検出された部分501k+1と同じと見なすことができる(又は類似する)輝度及び形状の部分を、左側のカメラで撮影したカメラ画像Iの中から検出する。この処理によって検出されたカメラ画像Iの部分は501となっており、視差図500内に示されるように、そのときの視差をLとする。
したがって、左側のカメラで撮影した画像Iの中の部分501を基準としたときの右側のカメラで撮影した画像Ik+1の中の検出部分(対応部分)は、部分501k+1であり、且つ、右側のカメラで撮影した画像Ik+1の中の部分501k+1を基準としたときの左側のカメラで撮影した画像Iの中の検出部分(対応部分)は、部分501である。したがって、部分501と部分501k+1についてはL=Rである。この場合、奥行きは、2つのカメラ画像に基づいて、計算することができ、この場合は奥行きの信頼度(reliability)が高いと言うことができる。
次に、別の例を説明する。図19に示されるように、左側のカメラで撮影した画像Iの中の部分502と同じと見なすことができる(又は類似する)輝度及び形状の部分を、右側のカメラで撮影したカメラ画像Ik+1の中から検出する。この処理によって検出されたカメラ画像Ik+1の部分を502k+1とし、視差図500内に示されるように、そのときの視差をRとする。
次に、右側のカメラで撮影した画像Ik+1の中の部分502k+1と同じと見なすことができる(又は類似する)輝度及び形状の部分を、左側のカメラで撮影したカメラ画像Iの中から検出する。この処理によって検出されたカメラ画像Iの部分は503となり、部分502とは異なる位置になっている。視差図500内に示されるように、そのときの視差をLとする。
したがって、左側のカメラで撮影した画像Iの中の部分502を基準としたときの右側のカメラで撮影した画像Ik+1の中の検出部分は、部分502k+1であり、且つ、右側のカメラで撮影した画像Ik+1の中の部分502k+1を基準としたときの左側のカメラで撮影した画像Iの中の検出部分は、部分503である。したがって、部分501k+1についてはL≠Rである。このような状況は、オクルージョンが存在する箇所に生じることが多く、奥行きは、1台又は0台のカメラ画像に基づく結果であり、信頼度(reliability)が低いと言うことができる。
図20は、視点kにおける奥行きDの決定方法を示す図である。図20に示されるように、まず、隣接するカメラからのカメラ画像Ik―1、Iの対について、図19に示される視差の計算を行い、左側のカメラ画像Ik―1の部分を基準として右側のカメラ画像Iの類似部分を検出したときの視差Lk−1と右側のカメラ画像Iの部分を基準として左側のカメラ画像Ik―1の類似部分を検出したときの視差Rk−1から、奥行きDk−とその信頼性を計算する。
次に、隣接するカメラからのカメラ画像I、Ik+1の対について、図19に示される視差の計算を行い、左側のカメラ画像Iの部分を基準として右側のカメラ画像Ik+1の類似部分を検出したときの視差Lと右側のカメラ画像Ik+1の部分を基準として左側のカメラ画像Iの類似部分を検出したときの視差Rから、奥行きDk+とその信頼性を計算する。
次に、Lk−1=Rk−1又はL=Rであれば、信頼性は高く、それ以外では信頼性は低い。したがって、得られた信頼性を考慮にいれて、奥行きDk+とDk−から奥行きDを計算する。
例えば、Lk−1=Rk−1且つL≠Rであれば、ハーフオクルージョンがあると判定し、奥行きDk−を奥行きDとする。また、例えば、Lk−1≠Rk−1且つL=Rであれば、ハーフオクルージョンがあると判定し、奥行きDk+を奥行きDとする。また、例えば、Lk−1=Rk−1且つL=Rであれば、オクルージョンは無いと判定し、奥行きDk−と奥行きDk+の平均値を奥行きDとする。また、例えば、Lk−1≠Rk−1且つL≠Rであれば、フルオクルージョンがあると判定し、奥行きDとして、別な方法で得た値(例えば、隣接部分の奥行きに基づく値)、又は、予め決められ値などを用いる。なお、Dk+の決定方法は、上記例に限定されない。
また、Lk−1≠Rk−1、又は、L≠Rが生じる範囲は、オクルージョンが存在する範囲であり、例えば、図21にハッチングで示す領域である。図21において、クロスハッチングの領域は、右側のカメラからは見えるが左側のカメラからは見えないハーフオクルージョンの範囲であり、ハッチングの領域は、左側のカメラからは見えるが右側のカメラからは見えないハーフオクルージョンの範囲である。このように、検出された視差Lk−1とRk−1の一致又は不一致、視差LとRの一致又は不一致に基づいて、すなわち、奥行きの一致又は不一致に基づいて、オクルージョンの有無を判定し、光線が届く側のカメラ画像の対に基づく片側補間を行っているので、ハーフオクルージョンの存在による、奥行きDの誤差を小さくすることができ、結果的に、生成された画像の品質を向上させることができる。
〈1−4.第1の実施形態の効果〉
以上に説明したように、第1の実施形態の画像情報処理方法及び画像情報処理システムにおいては、複数のカメラ画像I、I、…、Iから各カメラに対応する奥行きマップD、D、…、Dを計算する処理を送信側システム10で行い、複数のカメラ画像I、I、…、Iと複数の奥行きマップD、D、…、Dを用いて、光線空間に画像を補間する処理を受信側システム30で行っている。このように、情報処理量の大きい奥行きマップD、D、…、Dの生成という処理を送信側システム10が行うことによって、ユーザ側である受信側システム30に要求される計算能力は高くなくてもよく、ユーザのコスト負担を低減することができる。
また、複数のカメラ画像I、I、…、Iと複数の奥行きマップD、D、…、Dを用いて光線空間を補間する処理は、送信側システム10で行う場合には、複数のカメラ画像I、I、…、Iの間の全領域について行う必要があるが、受信側システム30で行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。したがって、第1の実施形態の画像情報処理方法及び画像情報処理システムによれば、補間処理を行う受信側システム30に要求される計算能力は高くなくてもよく、ユーザのコスト負担を増加させることはない。
さらに、複数のカメラ画像I、I、…、Iと複数の奥行きマップD、D、…、Dを用いて光線空間を補間する処理は、送信側システム10で行う場合には、複数のカメラ画像I、I、…、Iの間の全領域について行う必要があるが、受信側システム30で行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。このため、補間処理を受信側システム30で行う第1の実施形態の画像情報処理方法及び画像情報処理システムによれば、画像生成処理のすべてを送信側システム10で行う場合に比べ、システム全体の情報処理量を削減することができ、結果的に、計算コストを削減することができる。
《2.第2の実施形態》
〈2−1.第2の実施形態の画像情報処理システムの構成及び動作〉
図22は、本発明の第2の実施形態の画像情報処理システムであるFTVシステムの構成及び動作を示す図である。図22において、図7(第1の実施形態)の構成と同一又は対応する構成には同じ符号を付す。第2の実施形態の画像情報処理システムにおいては、図7に示される第1の実施形態の画像情報処理システムとは異なり、送信側システム10は、実測による奥行き情報、オクルージョン範囲を示すオクルージョン情報、被写体が鏡面反射する範囲などを示す鏡面反射情報等の追加情報を、カメラ画像10c、奥行きマップ10d、カメラパラメータに追加して、受信側システム30に送信している。
図7に示される第1の実施形態の画像情報処理システムにおいては、受信側システム30において、送信側システム10から送信された複数のカメラ画像、複数の奥行きマップ、及びカメラパラメータを用いて、補間画像を生成している。しかし、例えば、被写体101の表面で鏡面反射が生じる場合、オクルージョンが生じる場合、被写体の表面が周期的構造を持っている場合、被写体の表面が模様のない構造(平板、白板、曲面)である場合などには、図19に示されるマッチング判定が不正確になり、奥行きを正確に推定できないことがある。ここで、鏡面反射とは、図23(a)に示されるランベルト反射とは異なり、図23(b)に示されるように楕円状の反射光強度分布を持つ反射である。
そこで、第2の実施形態の画像情報処理システムにおいては、送信側システム10が、図示しない別の手段で被写体の奥行きを測定し、又は、鏡面反射の範囲を測定し、又は、オクルージョンの生じる範囲を測定して、測定結果を追加情報Eをして受信側システム30に送信する。ここで、被写体の奥行き、鏡面反射の範囲、オクルージョンの有無は、例えば、被写体に光線を照射して反射光線の有無、反射光線の方向、反射光線の強度分布などを検出するなど、既知の装置によって取得することができる。なお、通常の補間では仮想カメラに近い2台のカメラから線形補間等を用いて補間画像を生成するが、鏡面反射の場合は、指向性が高いため線形補間では、その反射強度が適切に近似できない場合がある。このため、2台のカメラのみでなく、3台以上の多数のカメラ画像を用いて補間することによって、反射強度の適切な近似が可能になる。
〈2−2.第2の実施形態の効果〉
以上に説明したように、第2の実施形態の画像情報処理方法及び画像情報処理システムにおいては、カメラ画像、奥行き情報に加えて、送信側でしか知り得ない情報である追加情報Eを受信側システム30に送信しているので、第1の実施形態の画像情報処理方法及び画像情報処理システムよりも、奥行き誤差を小さくすることができ、結果的に、品質の高い画像を生成できる。
なお、第2の実施形態において、上記以外の点は、上記第1の実施形態の場合と同じである。
FTVシステムの基本的な構成を概念的に示す図である。 (a)は実空間上における物体、直線配置されたカメラ、基準面、及び光線を示す図であり、(b)は光線空間を示す図である。 (a)は光線空間を示す図であり、(b)は光線空間から切り出された画像を示す図であり、(c)は光線空間から切り出された他の画像を示す図である。 従来のFTVシステムの構成及び動作を示す図である。 (a)〜(c)は、従来のFTV/3Dサービスの具体例を示すブロック図である。 従来の他のFTVシステムの構成及び動作を示す図である。 本発明の第1の実施形態の画像情報処理システムの構成及び動作を示す図である。 本発明及び従来の画像情報処理システムの送信側システムから送信される情報を示す図である。 画像情報処理システムにおいて用いられる複数の画像情報と複数の奥行きマップ情報を概念的に示す図である。 1枚の奥行きマップを明るさの違いで表示した例を示す図である。本発明における奥行きマップの一例を示す図である。 図4に示される従来の画像情報処理システムの送信側システム及び受信側システムにおける画像生成のプロセスを示す図である。 図6に示される従来の画像情報処理システムの送信側システム及び受信側システムにおける画像生成のプロセスを示す図である。 図7に示される本発明の第1の実施形態の画像情報処理システムの送信側システム及び受信側システムにおける画像生成のプロセスを示す図である。 実際のカメラ画像から任意視点(仮想カメラ)の画像を生成するプロセスを示す図である。 奥行きと視差の幾何関係を示す図である。 本発明における奥行きサーチの方法を示す図である。 ハーフオクルージョン及びフルオクルージョンを示す図である。 本発明における奥行きマップの計算方法を示す図である。 本発明における視差の計算方法を示す図である。 本発明における奥行きの決定方法を示す図である。 オクルージョンの箇所を示した図である。 本発明の第2の実施形態の画像情報処理システムの構成及び動作を示す図である。 (a)は、ランベルト反射を示し、(b)は鏡面反射を示す。
符号の説明
10 送信側システム、
10a カメラ画像(補正前)、
10b カメラ画像(補正後)、
10c カメラ画像(符号化後)、
10d 奥行きマップ(符号化後)、
10e カメラ画像(復号化後)、
10f 奥行きマップ(復号化後)、
10g 光線空間、
10h 切り出された画像、
11 画像取得部、
11a カメラ、
12 補正部、
13 奥行きサーチ部、
14 符号化部、
15 送信部、
20 伝送手段、
30 受信側システム、
31 受信部、
32 復号化部、
33 補間部、
34 抽出部、
35 表示部、
101 被写体、
、I、…、Ik−1、I、Ik+1、…、I カメラ画像、
、D、…、Dk−1、D、Dk+1、…、D 奥行きマップ、
E 追加情報。

Claims (18)

  1. 送信側システムと受信側システムとを有する画像情報処理システムにおける画像情報処理方法であって、
    前記送信側システムが、被写体を複数のカメラで撮影することによって複数のカメラ画像を取得するステップと、
    前記送信側システムが、撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成するステップと、
    前記送信側システムが、前記カメラ画像及び前記奥行きマップを符号化するステップと、
    前記送信側システムが、符号化された前記カメラ画像及び前記奥行きマップを送信するステップと、
    前記受信側システムが、前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信するステップと、
    前記受信側システムが、受信された前記カメラ画像及び前記奥行きマップを復号化するステップと、
    前記受信側システムが、復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成するステップと、
    前記受信側システムが、前記光線空間情報から表示画像を抽出して出力するステップと
    を有することを特徴とする画像情報処理方法。
  2. 前記表示画像は、カメラが存在しない任意の位置から見た1又は複数の2次元画像であることを特徴とする請求項1に記載の画像情報処理方法。
  3. 前記表示画像は、カメラが存在しない任意の位置から見た3次元画像であることを特徴とする請求項1に記載の画像情報処理方法。
  4. 前記奥行きマップを生成するステップは、
    kを前記複数のカメラの台数以下の正の整数としたときに、
    前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk+1番目のカメラで撮影された第k+1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と、
    前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk−1番目のカメラで撮影された第k−1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と
    に基づいて、第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定するステップを含む
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像情報処理方法。
  5. 前記奥行きマップを生成するステップにおける前記マッチング判定において、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報と、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報とから、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
    ことを特徴とする請求項4に記載の画像情報処理方法。
  6. 前記奥行きマップを生成するステップにおける前記マッチング判定において、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定し、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
    ことを特徴とする請求項4に記載の画像情報処理方法。
  7. 前記送信側システムが、前記複数のカメラのそれぞれから見た被写体の奥行きの実測値を測定し、前記実測値に基づく実測奥行き情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項1から6までのいずれか1項に記載の画像情報処理方法。
  8. 前記送信側システムが、前記複数のカメラのそれぞれについて、撮影できる範囲を求め、前記撮影できる範囲以外のオクルージョン範囲を示すオクルージョン情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項1から7までのいずれか1項に記載の画像情報処理方法。
  9. 前記送信側システムが、前記複数のカメラのそれぞれについて、被写体の表面が鏡面反射する範囲を求め、前記鏡面反射する範囲を示す鏡面反射情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項1から8までのいずれか1項に記載の画像情報処理方法。
  10. 送信側システムと受信側システムとを有する画像情報処理システムであって、
    前記送信側システムが、
    被写体を複数のカメラで撮影することによって複数のカメラ画像を取得する複数のカメラと、
    撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成する奥行きサーチ部と、
    前記カメラ画像及び前記奥行きマップを符号化する符号化部と、
    符号化された前記カメラ画像及び前記奥行きマップを送信する送信部とを有し、
    前記受信側システムが、
    前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信する受信部と、
    受信された前記カメラ画像及び前記奥行きマップを復号化する復号化部と、
    復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成する補間部と、
    前記光線空間情報から表示画像を抽出して出力する抽出部とを有する
    ことを特徴とする画像情報処理システム。
  11. 前記表示画像は、前記カメラが存在しない任意の位置から見た1又は複数の2次元画像であることを特徴とする請求項10に記載の画像情報処理システム。
  12. 前記表示画像は、前記カメラが存在しない任意の位置から見た3次元画像であることを特徴とする請求項10に記載の画像情報処理システム。
  13. 前記奥行きサーチ部は、
    kを前記複数のカメラの台数以下の正の整数としたときに、
    前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk+1番目のカメラで撮影された第k+1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と、
    前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk−1番目のカメラで撮影された第k−1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と
    に基づいて、第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
    ことを特徴とする請求項10から12までのいずれか1項に記載の画像情報処理システム。
  14. 前記奥行きサーチ部は、前記マッチング判定において、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報と、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報とから、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
    ことを特徴とする請求項13に記載の画像情報処理システム。
  15. 前記奥行きサーチ部は、前記マッチング判定において、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定し、
    前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
    ことを特徴とする請求項14に記載の画像情報処理システム。
  16. 前記送信側システムが、前記複数のカメラのそれぞれから見た被写体の奥行きの実測値を測定する距離測定手段を有し、前記実測値に基づく実測奥行き情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項10から15までのいずれか1項に記載の画像情報処理システム。
  17. 前記送信側システムが、前記複数のカメラのそれぞれについて、撮影できる範囲を求め、前記撮影できる範囲以外のオクルージョン範囲を示すオクルージョン情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項10から16までのいずれか1項に記載の画像情報処理システム。
  18. 前記送信側システムが、前記複数のカメラのそれぞれについて、被写体の表面が鏡面反射する範囲を求め、前記鏡面反射する範囲を示す鏡面反射情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項10から17までのいずれか1項に記載の画像情報処理システム。
JP2007106213A 2007-04-13 2007-04-13 画像情報処理方法及び画像情報処理システム Expired - Fee Related JP4706068B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007106213A JP4706068B2 (ja) 2007-04-13 2007-04-13 画像情報処理方法及び画像情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007106213A JP4706068B2 (ja) 2007-04-13 2007-04-13 画像情報処理方法及び画像情報処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011036774A Division JP5488929B2 (ja) 2011-02-23 2011-02-23 画像情報処理方法及び画像情報処理システム

Publications (2)

Publication Number Publication Date
JP2008263528A true JP2008263528A (ja) 2008-10-30
JP4706068B2 JP4706068B2 (ja) 2011-06-22

Family

ID=39985669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007106213A Expired - Fee Related JP4706068B2 (ja) 2007-04-13 2007-04-13 画像情報処理方法及び画像情報処理システム

Country Status (1)

Country Link
JP (1) JP4706068B2 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010073513A1 (ja) * 2008-12-26 2010-07-01 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム
JP2010157824A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010157821A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010157822A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像復号装置、画像符復号方法およびそのプログラム
JP2010157823A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010157826A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像復号装置、画像符復号方法およびそのプログラム
JP2010157825A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010244221A (ja) * 2009-04-03 2010-10-28 Kddi Corp 画像生成装置、方法及びプログラム
WO2011129164A1 (ja) * 2010-04-16 2011-10-20 シャープ株式会社 多視点画像符号化装置
WO2012063540A1 (ja) * 2010-11-12 2012-05-18 シャープ株式会社 仮想視点画像生成装置
WO2012128070A1 (ja) * 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置および画像処理方法
JP2012222399A (ja) * 2011-04-04 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> 映像再生システム、映像再生方法、映像再生装置及びプログラム
JP2013030898A (ja) * 2011-07-27 2013-02-07 Nippon Telegr & Teleph Corp <Ntt> 画像伝送方法、画像伝送装置、画像送信装置、画像受信装置、画像送信プログラム及び画像受信プログラム
WO2013054632A1 (ja) * 2011-10-13 2013-04-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2013073316A1 (ja) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP2013521684A (ja) * 2010-03-01 2013-06-10 インスティテュート フューア ランドファンクテクニック ゲーエムベーハー 3d画像コンテンツの再生方法およびシステム
JP2013527646A (ja) * 2010-06-08 2013-06-27 エスケー プラネット カンパニー、リミテッド 立体映像エラー改善方法及び装置
JP2013538474A (ja) * 2010-06-14 2013-10-10 クゥアルコム・インコーポレイテッド 3次元画像に対する視差の算出
CN103493483A (zh) * 2011-03-10 2014-01-01 高通股份有限公司 译码多视图视频加深度内容
US9900595B2 (en) 2011-08-31 2018-02-20 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
US9979961B2 (en) 2011-03-18 2018-05-22 Sony Corporation Image processing device and image processing method
WO2019198784A1 (ja) * 2018-04-12 2019-10-17 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111951A (ja) * 1996-10-04 1998-04-28 Canon Inc 画像処理方法および装置および記憶媒体
JP2001067473A (ja) * 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法及びその装置
WO2007026440A1 (ja) * 2005-08-29 2007-03-08 National University Corporation Nagoya University 画像情報圧縮方法、画像情報圧縮装置、及び自由視点テレビシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111951A (ja) * 1996-10-04 1998-04-28 Canon Inc 画像処理方法および装置および記憶媒体
JP2001067473A (ja) * 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法及びその装置
WO2007026440A1 (ja) * 2005-08-29 2007-03-08 National University Corporation Nagoya University 画像情報圧縮方法、画像情報圧縮装置、及び自由視点テレビシステム

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157825A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
KR101260613B1 (ko) 2008-12-26 2013-05-03 닛뽕빅터 가부시키가이샤 화상 부호화 장치, 화상 부호화 방법 및 그 프로그램 및 화상 복호화 장치, 화상 복호화 방법 및 그 프로그램
JP2010157821A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010157822A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像復号装置、画像符復号方法およびそのプログラム
JP2010157823A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
JP2010157826A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像復号装置、画像符復号方法およびそのプログラム
JP2010157824A (ja) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法およびそのプログラム
WO2010073513A1 (ja) * 2008-12-26 2010-07-01 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム
US8750632B2 (en) 2008-12-26 2014-06-10 JVC Kenwood Corporation Apparatus and method for encoding images from multiple viewpoints and associated depth information
US20110255796A1 (en) * 2008-12-26 2011-10-20 Victor Company Of Japan, Limited Apparatus, method, and program for encoding and decoding image
US8687000B2 (en) 2009-04-03 2014-04-01 Kddi Corporation Image generating apparatus and computer program
JP2010244221A (ja) * 2009-04-03 2010-10-28 Kddi Corp 画像生成装置、方法及びプログラム
JP2013521684A (ja) * 2010-03-01 2013-06-10 インスティテュート フューア ランドファンクテクニック ゲーエムベーハー 3d画像コンテンツの再生方法およびシステム
WO2011129164A1 (ja) * 2010-04-16 2011-10-20 シャープ株式会社 多視点画像符号化装置
JP2013527646A (ja) * 2010-06-08 2013-06-27 エスケー プラネット カンパニー、リミテッド 立体映像エラー改善方法及び装置
US8503765B2 (en) 2010-06-08 2013-08-06 Sk Planet Co., Ltd. Method and apparatus for correcting errors in stereo images
JP2013538474A (ja) * 2010-06-14 2013-10-10 クゥアルコム・インコーポレイテッド 3次元画像に対する視差の算出
WO2012063540A1 (ja) * 2010-11-12 2012-05-18 シャープ株式会社 仮想視点画像生成装置
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
CN103493483A (zh) * 2011-03-10 2014-01-01 高通股份有限公司 译码多视图视频加深度内容
CN103493483B (zh) * 2011-03-10 2016-08-31 高通股份有限公司 译码多视图视频加深度内容
WO2012128070A1 (ja) * 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置および画像処理方法
US10218958B2 (en) 2011-03-18 2019-02-26 Sony Corporation Image processing apparatus and image processing method
US10389997B2 (en) 2011-03-18 2019-08-20 Sony Corporation Image processing apparatus and image processing method
JP6057136B2 (ja) * 2011-03-18 2017-01-11 ソニー株式会社 画像処理装置および画像処理方法
US9615079B2 (en) 2011-03-18 2017-04-04 Sony Corporation Image processing apparatus and image processing method
US9712802B2 (en) 2011-03-18 2017-07-18 Sony Corporation Image processing apparatus and image processing method
US9979961B2 (en) 2011-03-18 2018-05-22 Sony Corporation Image processing device and image processing method
JP2012222399A (ja) * 2011-04-04 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> 映像再生システム、映像再生方法、映像再生装置及びプログラム
JP2013030898A (ja) * 2011-07-27 2013-02-07 Nippon Telegr & Teleph Corp <Ntt> 画像伝送方法、画像伝送装置、画像送信装置、画像受信装置、画像送信プログラム及び画像受信プログラム
US9900595B2 (en) 2011-08-31 2018-02-20 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
WO2013054632A1 (ja) * 2011-10-13 2013-04-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JPWO2013073316A1 (ja) * 2011-11-14 2015-04-02 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
WO2013073316A1 (ja) * 2011-11-14 2013-05-23 独立行政法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
WO2019198784A1 (ja) * 2018-04-12 2019-10-17 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
CN111954896A (zh) * 2018-04-12 2020-11-17 凸版印刷株式会社 光场图像生成系统、图像显示系统、形状信息取得服务器、图像生成服务器、显示装置、光场图像生成方法及图像显示方法
JPWO2019198784A1 (ja) * 2018-04-12 2021-04-30 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
JP7377413B2 (ja) 2018-04-12 2023-11-10 Toppanホールディングス株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、ライトフィールド画像生成方法及び画像表示方法
US11961250B2 (en) 2018-04-12 2024-04-16 Toppan Printing Co., Ltd. Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method

Also Published As

Publication number Publication date
JP4706068B2 (ja) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4706068B2 (ja) 画像情報処理方法及び画像情報処理システム
CN101682794B (zh) 用于处理深度相关信息的方法、装置和系统
US9600889B2 (en) Method and apparatus for performing depth estimation
CN1956555B (zh) 三维图像处理设备和方法
JP6027034B2 (ja) 立体映像エラー改善方法及び装置
US8330796B2 (en) Arrangement and method for the recording and display of images of a scene and/or an object
US8334893B2 (en) Method and apparatus for combining range information with an optical image
US20140198182A1 (en) Representation and Coding of Multi-View Images Using Tapestry Encoding
JP4939639B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
US8659644B2 (en) Stereo video capture system and method
KR20090007384A (ko) 다중 뷰들의 효율적인 인코딩 방법
JP2013527646A5 (ja)
CN101933335A (zh) 将二维图像数据转换为立体图像数据的方法和系统
WO2012062652A1 (en) Improved view synthesis
US8947506B2 (en) Method and system for utilizing depth information for generating 3D maps
KR102265109B1 (ko) 영상 처리 방법 및 장치
US9210396B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation method
JP5488929B2 (ja) 画像情報処理方法及び画像情報処理システム
KR101960577B1 (ko) 뷰 공간에 관한 스테레오 정보를 송수신하는 방법
Schwarz et al. Depth sensing for 3DTV: a survey
EP4344237A1 (en) Generation of depth maps for images
Cellatoglu et al. Depth map creation considerations towards realizing volumetric television
Shankar et al. Simulation of 3D cloud point from disparity map of stereo image
EP3267682A1 (en) Multiview video encoding
JP2021044659A (ja) 符号化装置、復号装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110223

R150 Certificate of patent or registration of utility model

Ref document number: 4706068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees