JP2015104107A - Ip立体映像推定装置及びそのプログラム - Google Patents

Ip立体映像推定装置及びそのプログラム Download PDF

Info

Publication number
JP2015104107A
JP2015104107A JP2013245929A JP2013245929A JP2015104107A JP 2015104107 A JP2015104107 A JP 2015104107A JP 2013245929 A JP2013245929 A JP 2013245929A JP 2013245929 A JP2013245929 A JP 2013245929A JP 2015104107 A JP2015104107 A JP 2015104107A
Authority
JP
Japan
Prior art keywords
pixel
resolution
image
viewpoint
stereoscopic video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013245929A
Other languages
English (en)
Other versions
JP6300346B2 (ja
Inventor
人誌 日浦
Hitoshi Hiura
人誌 日浦
洗井 淳
Jun Arai
淳 洗井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2013245929A priority Critical patent/JP6300346B2/ja
Publication of JP2015104107A publication Critical patent/JP2015104107A/ja
Application granted granted Critical
Publication of JP6300346B2 publication Critical patent/JP6300346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】本願発明は、IP方式で撮影を行わずにIP立体映像の解像度を推定できるIP立体映像推定装置を提供する。【解決手段】解像度変換装置40は、IP立体映像表示装置の解像度特性を決定する解像度特性決定手段41と、2眼立体カメラ20で撮影されたステレオ画像の画素毎に奥行値を算出する奥行値算出手段42と、光線追跡法によって、視点から要素レンズの中心を通過して表示素子に到達する仮想線上に位置する視点要素画像群の第1基準画素の位置を算出する画素位置算出手段43と、解像度特性決定手段41で決定した解像度特性に合わせて、奥行値算出手段42で求めたステレオ画像の解像度を変換することで、視点要素画像群を生成する視点要素画像群生成手段44とを備える。【選択図】図2

Description

本願発明は、IP立体映像(要素画像群)の解像度を推定するIP立体映像推定装置及びそのプログラムに関する。
従来のインテグラルフォトグラフィ(IP)方式では、1台のカメラで複数の微小レンズが配列されたレンズアレイを通して被写体を撮像する。この時、カメラがレンズアレイの焦平面を撮影するため、レンズアレイを構成する各微小レンズは、微小なカメラと同じ働きをする。その結果、レンズアレイ越しに被写体を撮影した画像は、微小レンズの位置に応じた微小画像(要素画像)が並んだ要素画像群となる。この要素画像群は、被写体からの光線情報を記録した画像であり、記録できる光線数がカメラの解像度に依存する。このため、IP方式での撮影には、高解像度のカメラが必要である。
また、従来から、コンピュータグラフィックス(CG)を用いて、IP方式の要素画像群を生成する技術が研究されている。この従来技術では、計算機内で仮想3次元空間を生成し、3次元の被写体及び背景(セット)を実世界と同様に再現し、その仮想3次元空間において被写体からの光線を追跡することで、要素画像群を生成する。CGによる要素画像を生成する手法として、下記の特許文献1,2及び非特許文献1,2に記載の手法が知られている。これらの要素画像生成手法は、被写体からの光線を制御する奥行き制御レンズを通して、被写体からの光線を追跡するものである。
前記した要素画像生成手法では、要素画像群の画素数の回数だけ観視者側からカメラで撮影する必要がある。すなわち、非特許文献1の要素画像生成手法は、1画素毎に光線追跡法を用いるので、1画素毎に撮影を行うカメラと同等であり、撮影回数が要素画像群の画素数と同じになる。
そこで、さらなる高速化のため、従来技術として、CGオブジェクトを正射影によるカメラで撮影し、この画像を要素画像群に変換する手法も知られている(特許文献3、非特許文献3)。従来の要素画像変換手法では、カメラで撮影する回数が要素画像を形成する画素数で済む。
特許第4567422号公報 再表00/059235号公報(特願2000−608621号) 特開2011−234142号公報
Spyros S. Athineos et al.,"Physical modeling of a microlens array setup for use in computer generated IP,"Proc.of SPIE-IS&T Electronic Imaging,Vol.5664 pp.472-479,2005 中島勧 et al.,"Integral Photographyの原理を用いた3Dディスプレイの画像高速作成法",映像情報メディア学会 Vol. 54, No. 3, pp.420-425 (2000) M.Katayama et al.,"A method for converting three-dimensional models into auto-stereoscopic images based on integral photography" ,Proc of SPIE-IS&T Vol.6805 68050Z-1 68050Z-8
IP方式では、表示画面から離れる程に解像度が低下するので、表示画面の手前又は奥に位置する立体像がぼけることになる。このとき、立体像のぼけ具合は、実際に撮影を行わないとわからない。しかし、IP方式では、レンズアレイや奥行制御レンズを適切な位置に配置しなければ、撮影を行うことができない。その結果、IP方式では、立体像で所望のぼけ具合を得るため、撮影を繰り返し行うことになり、非常に手間がかかってしまう。
ここで、2眼立体方式は、一般的なIP方式のみならず、従来の要素画像変換手法と比較しても、立体画像を短い時間で生成できる。従って、IP方式での撮影時間を短縮するために、2眼立体方式の利用を検討する。
そもそも、IP方式は、2眼立体方式と比べて、運動視差の再現、及び、立体映像の解像度特性に大きな違いがある。観視者が特定の位置で動かずに観視するという条件あれば、運動視差の影響がなくなる。つまり、前記した条件の元であれば、IP方式は、2眼立体方式と比べて、立体映像の解像度特性のみに大きな違いが残る。このことから、2眼立体方式の画像の解像度を変換すればIP立体映像の解像度を推定可能とし、映像制作者は、IP方式で実際に撮影を行う前に立体像のぼけ具合を確認することができる。
そこで、本願発明は、IP方式で撮影を行わずにIP立体映像の解像度を推定できるIP立体映像推定装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本願発明に係るIP立体映像推定装置は、表示素子及びレンズアレイを備えるIP立体映像表示装置で表示される要素画像群の解像度に合わせて、2眼立体撮影装置で撮影されたステレオ画像の解像度を変換し、解像度が変換されたステレオ画像を、観視者の右目及び左目を表す視点毎に要素画像群の解像度を推定した視点要素画像群として出力するIP立体映像推定装置であって、解像度特性決定手段と、奥行値算出手段と、第1画素位置算出手段と、対応画素解像度決定手段と、画素取得領域算出手段と、画素値割当手段と、を備えることを特徴とする。
かかる構成によれば、IP立体映像推定装置は、解像度特性決定手段によって、予め設定された奥行範囲において、前記要素画像群の最大解像度又は観視解像度の小さな方を解像度特性として決定する。また、IP立体映像推定装置は、奥行値算出手段によって、ステレオ画像が入力され、入力されたステレオ画像の画素毎に奥行値を算出する。
また、IP立体映像推定装置は、第1画素位置算出手段によって、視点毎に、光線追跡法によって、視点から要素レンズの中心を通過して表示素子に到達する仮想線上に位置する視点要素画像群の第1基準画素を算出する。そして、IP立体映像推定装置は、対応画素解像度決定手段によって、第1基準画素に対応した位置にあるステレオ画像の対応画素を求め、解像度特性から、対応画素の奥行値に応じた解像度を決定する。
また、IP立体映像推定装置は、画素取得領域算出手段によって、対応画素を中心として、最大解像度と対応画素の解像度との比で要素レンズの直径を拡大した画素取得領域を算出する。そして、IP立体映像推定装置は、画素値割当手段によって、視点毎に、ステレオ画像から画素取得領域に含まれる画素を取得し、取得した画素の画素値に基づいて、視点要素画像群のうち、第1基準画素が属する視点要素画像の各画素の画素値を割り当てる。
このようにして、IP立体映像推定装置は、ステレオ画像から、IP立体映像と等価な視点要素画像群を生成することができる。
視点要素画像群とは、観視者の視点(両目)に対応した、IP立体映像表示装置で表示される要素画像群と同一構造を有する画像のことである。つまり、視点要素画像群は、IP方式の要素画像群と同一形状及び同一配列であって、観視者の左右の目に対応した右視点要素画像群及び左視点要素画像群で構成される。
本願発明に係るIP立体映像推定装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるIP立体映像推定プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
本願発明によれば、ステレオ画像からIP立体映像と等価な視点要素画像群を短時間で生成できるので、この視点要素画像群を表示すれば、観視者がIP立体映像の解像度を確認することができる。これによって、本願発明によれば、IP方式で撮影を行わずにIP立体映像の解像度を推定可能とし、IP立体映像の制作を容易、かつ、その制作時間を短縮することができる。
第1実施形態において、IP立体映像推定システムの概略を示す概略図である。 図1の解像度変換装置の構成を示すブロック図である。 第1実施形態において、最大解像度の算出を説明する説明図である。 第1実施形態において、観視解像度の算出を説明する説明図である。 第1実施形態において、解像度特性の決定を説明する説明図である。 第1実施形態において、基準画素の位置算出を説明する説明図である。 第1実施形態において、画素取得領域の算出及び画素値の割当の第1例を説明する説明図である。 第1実施形態において、画素取得領域の算出及び画素値の割当の第2例を説明する説明図である。 第1実施形態において、(a)は左視点要素画像群の説明図であり、(b)は右視点要素画像群の説明図である。 第1実施形態において、視点要素画像群の表示方法を説明する説明図である。 図2の解像度変換装置の動作を示すフローチャートである。 第2実施形態において、IP立体映像推定システムの概略を示す概略図である。 図12の画像変換装置の構成を示すブロック図である。 第2実施形態において、要素画像の生成を説明する説明図である。 図13の画像変換装置の動作を示すフローチャートである。 第3実施形態において、IP立体映像推定システムの概略を示す概略図である。 図16の画像変換装置及び観視位置追従装置の構成を示すブロック図である。 第3実施形態において、視点境界線の変更を説明する説明図である。 第3実施形態において、要素画像の表示位置の変更を説明する説明図である。 図17の観視位置追従装置の動作を示すフローチャートである。
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。
(第1実施形態)
[IP立体映像推定システムの概略]
図1を参照し、本願発明の第1実施形態に係るIP立体映像推定システム1の概略について、説明する。
IP立体映像推定システム1は、2眼立体カメラ20で撮影したステレオ画像からIP立体映像の解像度を推定するものであり、IP立体映像推定装置2と、2眼立体カメラ(2眼立体撮影装置)20と、収録再生装置30と、2眼立体テレビ50とを備える。
IP立体映像推定装置2は、2眼立体カメラ20で撮影されたステレオ画像の解像度を変換し、IP立体映像の解像度を推定するものである。第1実施形態では、IP立体映像推定装置2は、解像度変換装置40で構成されることとする。
2眼立体カメラ20は、被写体10を2眼立体方式で撮影するステレオカメラである。例えば、2眼立体カメラ20として、同一の撮影カメラ21R,21Lを2台、所定のベースラインで左右に配置したものがあげられる。そして、2眼立体カメラ20は、撮影したステレオ画像を収録再生装置30に出力する。
なお、右側の撮影カメラ21Rで撮影されたステレオ画像を右撮影画像と呼び、左側の撮影カメラ21Lで撮影されたステレオ画像を左撮影画像と呼ぶ。また、右側の撮影カメラ21Rを観視者の右目に対応させ、左側の撮影カメラ21Lを観視者の左目に対応させている。
また、観視者とは、IP立体映像推定装置で生成した画像を用いて、IP立体映像の解像度を確認する者(例えば、映像制作者)である。
収録再生装置30は、2眼立体カメラ20から入力されたステレオ画像を収録すると共に、収録したステレオ画像を解像度変換装置40に出力するものである。例えば、収録再生装置30としては、一般的な録画装置があげられる。
解像度変換装置40は、収録再生装置30から入力されたステレオ画像の解像度を、IP立体映像の解像度に合わせて変換するものである。そして、解像度変換装置40は、解像度が変換されたステレオ画像(視点要素画像群)を2眼立体テレビ50に出力する。
この解像度変換装置40は、詳細を後記する。
視点要素画像群とは、観視者の視点に対応した、IP立体映像表示装置で表示される要素画像群と同一構造の右視点要素画像群及び左視点要素画像群で構成される。本実施形態では、視点要素画像群に含まれる各視点要素画像は、その各画素が同一の画素値を有している。
なお、視点とは、観視者の右目及び左目に対応した位置を表している。
2眼立体テレビ50は、解像度変換装置40から入力された視点要素画像群を表示する立体表示装置である。例えば、2眼立体テレビ50としては、レンチキュラ方式の立体テレビがあげられる。また、2眼立体テレビ50は、右視点要素画像群及び左視点要素画像群を時分割で交互に表示する立体テレビでもよい。
IP立体映像推定システム1の利用方法について、簡単に説明する。
前記したように、IP方式では、立体像のぼけ具合が、実際に撮影を行わないとわからない。従って、IP方式では、観視者にとって適切な立体像のぼけ具合を得るため、繰り返し撮影を行うことが多くなる。その一方、IP方式では、レンズアレイや奥行制御レンズを適切な位置に配置してから撮影を行うため、撮影の手間が非常にかかる。
そこで、IP立体映像推定システム1は、IP方式に比べて撮影の手間が少ない2眼立体方式の撮影手法を用いて、IP立体映像表示装置100(図4)で表示されたIP立体映像の解像度を推定する。具体的には、IP立体映像推定システム1は、被写体10を2眼立体カメラ20で撮影し、撮影したステレオ画像の解像度を、IP立体映像の解像度に合わせて変換する。いわば、IP立体映像推定システム1は、IP方式での立体像のぼけ具合を推定するシミュレータと言える。
なお、IP立体映像表示装置100は、IP立体映像の表示を想定した立体映像表示装置のことである。このIP立体映像表示装置100は、レンズアレイ110及び表示素子200を備える。
[解像度変換装置の構成]
図2を参照し、解像度変換装置40の構成について、説明する。
図2のように、解像度変換装置40は、解像度特性決定手段41と、奥行値算出手段42と、画素位置算出手段(第1画素位置算出手段)43と、視点要素画像群生成手段44とを備える。
解像度特性決定手段41は、IP立体映像表示装置100で表示される要素画像群の解像度特性を決定するものであり、最大解像度算出手段41aと、観視解像度算出手段41bと、解像度特性算出手段41cとを備える。
ここで、解像度特性決定手段41は、要素画像群の解像度特性の決定に必要なパラメータ(例えば、要素レンズの間隔、視距離、表示素子とレンズアレイとの距離、及び、要素画像群の画素間隔)が入力される。
<解像度特性の決定>
図3〜図5を参照し、解像度特性の決定について、詳細に説明する(適宜図2参照)。
図3では、横軸Zがレンズアレイ110を基準とした奥行値を表し、‘0’がレンズアレイ110の位置となる。
最大解像度算出手段41aは、レンズアレイ110を構成する要素レンズ120の間隔P、及び、レンズアレイ110と視点300との視距離Lに基づいて、要素画像群の最大解像度(最大空間周波数)を算出するものである。
最大解像度とは、要素レンズ120の間隔Pに依存して決まる解像度であり、レンズアレイ110の位置(奥行値z)における解像度である。
図3のように、角度φは、下記の式(1)のように、要素レンズ120の間隔Pに対する角度を表す。言い換えるなら、角度φは、要素レンズ120の端と、視点300とを結んだ線のなす角の近似値である。
Figure 2015104107
従って、最大解像度βは、下記の式(2)で示すことができる。すなわち、最大解像度算出手段41aは、視距離Lを、要素レンズ120の間隔Pを2倍にした値で除算して、最大解像度βを算出する。そして、最大解像度算出手段41aは、算出した最大解像度βを解像度特性算出手段41cに出力する。
Figure 2015104107
図4のように、観視解像度算出手段41bは、表示素子200とレンズアレイ110との距離g、及び、要素画像420の画素間隔pに基づいて、要素画像群410の観視解像度(観視空間周波数)を算出するものである。
なお、図4では、レンズアレイ110の奥側にあるため、距離gがマイナスになっている。
観視解像度とは、投影された立体像400を、視点300から観視したときの解像度のことである。
図4では、図面を見易くするため、立体像400における画素、及び、要素画像420の画素を交互に白黒で図示した。
画素間隔tは、下記の式(3)のように、立体像400における画素の間隔を表す。ここで、立体像400は、奥行値zが示す位置に形成されることとする。
Figure 2015104107
角度θは、下記の式(4)のように画素間隔tに対する角度を表す。言い換えるなら、角度θは、画素間隔tを、視距離Lから奥行値zを引いた値で除算した近似値である。
Figure 2015104107
従って、観視解像度βは、下記の式(5)で示すことができる。すなわち、観視解像度算出手段41bは、距離gを画素間隔pの2倍で除算した値と、視距離Lから奥行値zを引いて奥行値zの絶対値で除算した値との積で、観視解像度βを算出する。そして、観視解像度算出手段41bは、算出した観視解像度βを解像度特性算出手段41cに出力する。
なお、観視解像度算出手段41bは、奥行範囲内で立体像400の奥行値zを変化させながら、観視解像度βを算出する。奥行範囲とは、立体像400の奥行値zが取り得る範囲を予め設定したものである。
Figure 2015104107
図5のように、解像度特性算出手段41cは、奥行範囲において、最大解像度算出手段41aから入力された最大解像度β、又は、観視解像度算出手段41bから入力された観視解像度βの小さな方を表す解像度特性γを算出するものである。そして、解像度特性算出手段41cは、算出した解像度特性γを視点要素画像群生成手段44に出力する。
ここで、解像度特性γは、下記の式(6)のように、最大解像度算出手段41aが算出した最大解像度β、又は、観視解像度算出手段41bが算出した観視解像度βの小さな方となる。式(6)において、‘min’は、複数の引数のうち、最小の引数を選択する関数である。
Figure 2015104107
図5の例では、解像度特性γは、レンズアレイ110の付近で最大解像度βを表し、レンズアレイ110からある程度離れると観視解像度βを表す。そして、解像度特性γは、レンズアレイ110から離れる程、解像度が低下することを表す。
なお、解像度特性の決定手法は、下記の参考文献1,2に記載されているため、これ以上の説明を省略する。
参考文献1:H.Hoshino et al.,“Analysis of Resolution Limitation of Integral Photography”,J.Opt.Soc.Am.A,Vol.15,No.8,pp.2059-2065, 1998
参考文献2:岩舘祐一、“NHKにおける多視点立体映像の研究”、http://www.3dc.gr.jp/jp/act_rep/121211/NHK_20121211.pdf
図2に戻り、解像度変換装置40の構成について、説明を続ける。
奥行値算出手段42は、2眼立体カメラ20からステレオ画像(右撮影画像及び左撮影画像)が入力され、入力されたステレオ画像の画素毎に奥行値を算出するものである。そして、奥行値算出手段42は、画素毎に奥行値が対応付けられた右撮影画像及び左撮影画像を、視点要素画像群生成手段44に出力する。
例えば、奥行値算出手段42は、右撮影画像及び左撮影画像の間で対応点を探索し、探索した対応点の距離(視差)を奥行値として算出する。
また、奥行値算出手段42は、2眼立体カメラ20と同じ位置に配置された奥行カメラ(不図示)から、画素毎に奥行値を示す奥行画像が入力されてもよい。この場合、奥行値算出手段42は、奥行画像が示す奥行値を右撮影画像及び左撮影画像の各画素に対応付ける。
画素位置算出手段43は、視点毎に、光線追跡法によって、基準画素の位置を算出するものである。
基準画素とは、図6において、視点301から要素レンズ120の中心を通過して表示素子200に到達する仮想線上に位置する右視点要素画像群及び左視点要素画像群の画素のことである(図6の符号312)。
<基準画素の位置算出>
図6を参照し、基準画素の位置算出について、詳細に説明する(適宜図2参照)。
図6では、符号310は、レンズアレイ110で中心の要素レンズ120Cの主点位置を表す。
また、符号311は、レンズアレイ110で一番上の要素レンズ120Uの主点位置を表す。
また、符号312は、要素レンズ120Uに対応する要素画像420の基準画素の画素位置を表す。
また、符号313は、要素レンズ120Uの主点位置311と同じ位置にある要素画像420の中心画素の画素位置を表す。図6では、符号312,313は、同一の要素画像420の中での画素位置を表している。
図6では、距離yは、主点位置310から主点位置311までの距離を表す。また、距離dは、中心画素の画素位置313から基準画素の画素位置312までの距離を表す。
また、図6では、観視者の右目(算出原点301)は、レンズアレイ110の中心位置の法線上に位置する。また、要素レンズ120及び要素画像420は、1:1で対応することとする。
直角三角形tr1は、主点位置311と、基準画素の画素位置312と、中心画素の画素位置313とを頂点とする三角形である。
直角三角形tr2は、算出原点301と、主点位置310と、主点位置311とを頂点とする三角形である。
図6のように、直角三角形tr1,tr2が相似の関係になるため、L:y=g:dとなり、Ld=ygが成立する。また、距離g,yは、IP立体映像表示装置100から決まる定数となる。従って、距離dは、視距離Lが分かれば、下記の式(7)を用いて算出できる。
Figure 2015104107
前記したように、視点要素画像は、一般的なIP立体映像(要素画像群410)と同一構造を有する。従って、画素位置算出手段43は、算出原点301を観視者の右目(視点)として、前記した手法を用いて、観視者の右目に対応した右視点要素画像群で基準画素の画素位置を算出できる。そして、画素位置算出手段43は、中心画素の画素位置313に距離dを加えて、基準画素の画素位置312を求める。
その後、画素位置算出手段43は、算出した基準画素の位置を視点要素画像群生成手段44に出力する。
なお、画素位置算出手段43は、一番上の要素レンズ120U以外の要素レンズ120からも、基準画素の位置を算出する。また、画素位置算出手段43は、右視点要素画像群と同様、左視点要素画像群の基準画素も算出する。
図2に戻り、解像度変換装置40の構成について、説明を続ける。
視点要素画像群生成手段44は、解像度特性決定手段41から入力された解像度特性に合わせて、奥行値算出手段42から入力されたステレオ画像の解像度を変換することで、視点要素画像群を生成するものである。このため、視点要素画像群生成手段44は、対応画素解像度決定手段44aと、画素取得領域算出手段44bと、画素値割当手段44cとを備える。
対応画素解像度決定手段44aは、画素位置算出手段43から入力された基準画素に対応した位置にあるステレオ画像の対応画素を求め、解像度特性から、対応画素の奥行値に応じた解像度を決定するものである。
具体的には、対応画素解像度決定手段44aは、右視点要素画像群及び右撮影画像の画素が1対1で対応するので、右視点要素画像群の基準画素に対応する右撮影画像の画素を対応画素として求める。そして、対応画素解像度決定手段44aは、右撮影画像の対応画素には奥行値が付加されているので、この奥行値を取得する。さらに、対応画素解像度決定手段44aは、各奥行値の解像度を示した解像度特性を参照し、取得した奥行値に対応する解像度を対応画素毎に決定する。その後、対応画素解像度決定手段44aは、決定した対応画素毎の解像度を画素取得領域算出手段44bに出力する。
なお、対応画素解像度決定手段44aは、右撮影画像と同様、左撮影画像の対応画素毎に解像度を決定する。
画素取得領域算出手段44bは、ステレオ画像の対応画素を中心として、対応画素解像度決定手段44aから入力された対応画素の解像度と最大解像度との比で要素レンズの直径を拡大した画素取得領域を算出するものである。そして、画素取得領域算出手段44bは、算出した画素取得領域を画素値割当手段44cに出力する。
画素値割当手段44cは、視点毎に、画素取得領域算出手段44bから入力された画素取得領域に含まれる画素をステレオ画像から取得し、取得した画素の画素値に基づいて、視点要素画像群のうち、基準画素が属する視点要素画像の各画素の画素値を割り当てるものである。
<画素取得領域の算出及び画素値の割当:第1例>
図7,図8を参照し、画素取得領域の算出及び画素値の割当について、2つの具体例を説明する(適宜図2参照)。
図7では、対応画素の奥行値が示す位置を矢印で図示し、画素取得領域の算出に無関係な構成を破線で図示した(図8も同様)。
図7のように、この第1例では、対応画素の奥行値がレンズアレイ110の位置を示していることとする。この場合、IP立体映像の解像度は、レンズアレイ110の密度と同じなので、最大解像度となる。
そこで、画素取得領域算出手段44bは、最大解像度と対応画素の解像度との比‘1’を求める。従って、画素取得領域算出手段44bは、右撮影画像510の対応画素520(図7に黒塗で図示)を中心として、要素レンズ120と同一形状で同一直径(要素レンズ120の間隔P)に含まれる範囲を、画素取得領域として算出する。ここで、要素レンズ120が右撮影画像510の5画素分の大きさであるから、画素取得領域は、5画素分の大きさとなる。
次に、画素値割当手段44cは、算出した画素取得領域に含まれる右撮影画像510の画素520を全て取得し、取得した画素520の画素値に基づいて、右視点要素画像620の画素630に割り当てる画素値を算出する。
ここで、画素値割当手段44cは、取得した画素520の画素値の中央値(メディアン値)を算出してもよい。中央値を用いた場合、取得した画素520の画素値をヒストグラム化するため、正確な画素値を取得したことにはならない。従って、右視点要素画像620は、隣接する右視点要素画像620との間で画素値の連続性が低下し、折り返し(モアレ)画像になる可能性がある。
そこで、画素値割当手段44cは、取得した画素520の画素値の平均値を求めると、より正確な画素値を取得できるので好ましい。
次に、画素値割当手段44cは、算出した画素値を、右視点要素画像群610のうち、基準画素が属する右視点要素画像620の全ての画素630に割り当てる。図7の例では、右視点要素画像620は、5つの画素630の画素値が同一になる。このようにして、画素値割当手段44cは、レンズアレイ110の位置において、画素値が割り当てられた右視点要素画像620を生成することができる。
<画素取得領域の算出及び画素値の割当:第2例>
図8のように、この第2例では、対応画素の奥行値がレンズアレイ110の手前側を表しており、この奥行位置でIP立体映像の解像度が最大解像度の1/2になることとする。
この場合、画素取得領域算出手段44bは、最大解像度と対応画素の解像度との比‘2’を求める。従って、画素取得領域算出手段44bは、右撮影画像510の対応画素520(図8に黒塗で図示)を中心として、要素レンズ120と同一形状で直径の2倍に含まれる範囲を、画素取得領域として算出する。ここで、要素レンズ120が右撮影画像510の5画素分の大きさであるから、画素取得領域は、5画素を2倍した10画素分の大きさとなる。
次に、画素値割当手段44cは、算出した画素取得領域に含まれる右撮影画像510の画素520を全て取得し、取得した画素520の画素値に基づいて、右視点要素画像620の画素630に割り当てる画素値を算出する。ここで、画素値割当手段44cは、第1例と同様、画素取得領域に含まれる画素520の画素値の平均値又は中央値を算出する。
そして、画素値割当手段44cは、算出した画素値を、右視点要素画像群610のうち、基準画素が属する右視点要素画像620の全ての画素630に割り当てる。つまり、画素値割当手段44cは、レンズアレイ110の位置における最大解像度を基準として、対象画素の奥行位置で解像度がどの程度低下しているか算出することで、ぼけ具合を反映した右視点要素画像群610を生成する。
なお、対応画素の奥行位置がレンズアレイ110の奥側であっても、第2例と同様の手順となる。また、右視点要素画像群610と同様、左視点要素画像群611(図9)も生成する。
その後、画素値割当手段44cは、第1例又は第2例の手法で生成した右視点要素画像群610及び左視点要素画像群611を2眼立体テレビ50に出力する。この右視点要素画像群610及び左視点要素画像群611は、2眼立体テレビ50で立体表示される。
<視点要素画像群の表示>
図9,図10を参照し、視点要素画像群の表示について、説明する。
図9(a)に左視点要素画像群611を図示し、図9(b)に右視点要素画像群610を図示した。この図9では、左視点要素画像群611及び右視点要素画像群610は、三角形状の被写体10が撮影されている。
なお、図9では、黒塗りした要素画像群620,621が被写体10を表している。
一般的なIP立体映像(要素画像群)は、要素画像が複数の画素で構成され、被写体10の小さな画像を表している。そして、要素画像は、運動視差を再現するために、要素画像を構成する画素の画素値が異なっている。
図9のように、左視点要素画像群611及び右視点要素画像群610は、一般的なIP立体映像と同一構造(同一形状・同一配列)である。また、左視点要素画像群611及び右視点要素画像群610は、異なる視点で同一の被写体10が撮影されているため、被写体10の位置がずれている。つまり、図9(a)の位置αにある左視点要素画像は、図9(b)のように、同一位置αにある右視点要素画像と比較して、別の画素値を有することになる。
図10のように、2眼立体テレビ50は、1つのレンチキュラレンズ53に対し、左視点に対応した表示素子51Lと、右視点に対応した表示素子51Rとの組を備える。そして、2眼立体テレビ50は、左視点要素画像群611を表示素子51Lで表示し、右視点要素画像群610を表示素子51Rで表示する。すると、観視者は、その両目で異なる像を観視することになり、立体視を得ることができる。
なお、左視点要素画像群611及び右視点要素画像群610は、一般的なIP立体映像と異なり、視点要素画像を構成する画素の画素値が同一のため、運動視差による画像の切り替わりがなくなる。
[解像度変換装置の動作]
図11を参照し、解像度変換装置40の動作について、説明する(適宜図2参照)。
解像度変換装置40は、IP立体映像表示装置100の解像度特性の決定に必要なパラメータが入力される(ステップS1)。
解像度変換装置40は、解像度特性決定手段41によって、解像度特性を決定する。具体的には、解像度特性決定手段41は、最大解像度算出手段41aによって、最大解像度を算出し、観視解像度算出手段41bによって、観視解像度を算出する。また、解像度特性決定手段41は、解像度特性算出手段41cによって、最大解像度又は観視解像度の小さな方を解像度特性として算出する(ステップS2)。
解像度変換装置40は、奥行値算出手段42によって、2眼立体カメラ20で撮影されたステレオ画像の画素毎に奥行値を算出する(ステップS3)。
解像度変換装置40は、画素位置算出手段43によって、光線追跡法を用いて、基準画素の画素位置を算出する(ステップS4)。
解像度変換装置40は、視点要素画像群生成手段44によって、視点要素画像群を生成する。具体的には、視点要素画像群生成手段44は、対応画素解像度決定手段44aによって、対応画素の奥行値に応じた解像度を決定する。また、視点要素画像群生成手段44は、画素取得領域算出手段44bによって、画素取得領域を算出する。さらに、視点要素画像群生成手段44は、画素値割当手段44cによって、ステレオ画像から画素取得領域に含まれる画素を取得し、取得した画素の画素値に基づいて、視点要素画像の各画素の画素値を割り当てる(ステップS5)。
本願発明の第1実施形態に係るIP立体映像推定システム1は、ステレオ画像からIP立体映像と等価な視点要素画像群を短時間で生成し、この視点要素画像群を2眼立体テレビ50で表示するので、観視者がIP立体映像の解像度を確認することができる。このように、IP立体映像推定システム1は、IP方式で撮影を行わずにIP立体映像の解像度を推定可能とし、IP立体映像の制作を容易、かつ、その制作時間を短縮することができる。
さらに、IP立体映像推定システム1は、撮像側と表示側の性能を分離して、IP立体映像の解像度を推定することもできる。例えば、IP立体映像推定システム1は、適切なパラメータを設定することで、2眼立体カメラ20よりも解像度が低いIP立体カメラ(不図示)で撮影を行った場合について、IP立体映像の解像度をシミュレートすることができる。また、IP立体映像推定システム1は、撮像側にIP立体カメラを使用し、表示側に2眼立体テレビ50を使用した場合についても、IP立体映像の解像度をシミュレートすることもできる。
(第2実施形態)
[IP立体映像推定システムの概略]
図12を参照し、本願発明の第2実施形態に係るIP立体映像推定システム1Aについて、第1実施形態と異なる点を説明する。
IP立体映像推定システム1Aは、視点要素画像群をIP立体映像(要素画像群)に変換してIP立体テレビ70で表示するため、IP立体映像推定装置2Aと、IP立体テレビ70とを備える点が、第1実施形態と異なる。
第2実施形態では、IP立体映像推定装置2Aは、解像度変換装置40と、画像変換装置60とで構成されることとする。
[画像変換装置の構成]
図13を参照し、画像変換装置60の構成について、説明する(適宜図12参照)。
画像変換装置60は、解像度変換装置40から入力された視点要素画像群(右視点要素画像群及び左視点要素画像群)を、一般的なIP立体映像(要素画像群)に変換するものである。このため、画像変換装置60は、図13のように、画素位置算出手段(第2画素位置算出手段)61と、画像合成手段62とを備える。
画素位置算出手段61は、光線追跡法によって、第2基準画素の位置を算出するものである。
第2基準画素とは、視点中間位置から要素レンズ120の中心を通過して表示素子200に到達する仮想線上に位置する要素画像群の画素のことである(図6)。この視点中間位置は、観視者の右目及び左目の中間位置を表す。
第1実施形態では、観視者の左右の目に対応した2つの視点要素画像群610,611を生成するため、視点毎に基準画素の画素位置を算出した。一方、第2実施形態では、要素画像群410が1つのため、観視者の両目の中間位置で、第2基準画素の画素位置を算出すればよい。このように、画素位置算出手段61は、図6の算出原点301を視点中間位置として、第2基準画素の画素位置を算出することができる。
画像合成手段62は、第2基準画素が属する要素画像を視点境界線で分割した分割領域を設定し、視点毎に、視点要素画像群から分割領域に対応する画像領域を抽出し、異なる視点で抽出した画像領域の合成により要素画像を生成するものである。
<要素画像の生成>
図14を参照し、要素画像の生成について、説明する(適宜図13参照)。
IP立体テレビ70を正面で観視する場合、観視者が立体視を得られる範囲は、水平方向に観視者の両目の距離の半分となる。従って、画像合成手段62は、観視者の両目の中心位置から見て要素レンズ120の後方にある要素画像420を、左右半分に分けるように視点境界線430を設定する。さらに、画像合成手段62は、要素画像420を視点境界線430で分割した分割領域440R,440Lを設定する。
次に、画像合成手段62は、左側の分割領域440Rに、右視点要素画像620(図9)で対応する画像領域を割り当てる。また、画像合成手段62は、右側の分割領域440Lに、左視点要素画像621で対応する画像領域を割り当てる。このようにして、画像合成手段62は、右視点要素画像620及び左視点要素画像621から、1つの要素画像420を合成する。そして、画像合成手段62は、合成した要素画像420で構成される要素画像群410を、IP立体テレビ70に出力する。
[画像変換装置の動作]
図15を参照し、画像変換装置60の動作について、説明する(適宜図13参照)。
画像変換装置60は、解像度変換装置40から視点要素画像群が入力される(ステップS11)。
画像変換装置60は、画素位置算出手段61によって、光線追跡法によって、第2基準画素の画素位置を算出する(ステップS12)。
画像変換装置60は、画像合成手段62によって、要素画像群を生成する(ステップS13)。
本願発明の第2実施形態に係るIP立体映像推定システム1Aは、第1実施形態と同様、IP方式で撮影を行わずにIP立体映像の解像度を推定可能とし、IP立体映像の制作を容易、かつ、その制作時間を短縮することができる。
さらに、IP立体映像推定システム1Aは、IP立体映像の解像度に加え、IP立体テレビ70が備えるレンズアレイ71による外光の反射の影響もシミュレートできるので、IP立体映像をより容易に制作することができる。
(第3実施形態)
[IP立体映像推定システムの概略]
図16を参照し、本願発明の第3実施形態に係るIP立体映像推定システム1Bについて、第2実施形態と異なる点を説明する。
IP立体映像推定システム1Bは、観視者の観視位置に追従するため、IP立体映像推定装置2Bと、2眼立体カメラ20Bと、観視位置検出カメラ80とをさらに備える点が、第2実施形態と異なる。
第3実施形態では、IP立体映像推定装置2Bは、解像度変換装置40と、画像変換装置60Bと、観視位置追従装置90とで構成されることとする。
2眼立体カメラ20Bは、図13の2眼立体カメラ20と同様の機能に加え、後記する観視位置追従装置90からの指令に従って、観視者の観視位置に追従した撮影が可能なロボットカメラである。例えば、2眼立体カメラ20Bは、撮影フロアを前後左右に移動するための駆動機構と、撮影カメラ21R,21Lを搭載してパン・チルト可能な雲台とを備えたロボットカメラである。
画像変換装置60Bは、図13の画像変換装置60と同様の処理に加え、観視位置追従装置90からの指令に従って、視点境界線の位置と、要素画像の表示位置とを変更するものである。
観視位置検出カメラ80は、観視者を撮影する一般的な撮影カメラである。この観視位置検出カメラ80は、観視者を撮影した観視者画像を、観視位置追従装置90に出力する。図16のように、観視位置検出カメラ80は、IP立体テレビ70の上端部中心に設置されている。なお、観視位置検出カメラ80の設置位置は、特に制限されないが、既知である。
観視位置追従装置90は、観視位置検出カメラ80から入力された観視者画像を用いて、観視者の観視位置を検出し、検出した観視位置に追従するように、IP立体テレビ70で表示されるIP立体映像の視域を制御するものである。具体的には、観視位置追従装置90は、検出した観視位置に追従するように、視点境界線の位置と、要素画像の表示位置との変更を画像変換装置60Bに指令する。さらに、観視位置追従装置90は、検出した観視位置に追従するように、撮影位置の移動と、撮影姿勢の変更とを2眼立体カメラ20Bに指令する。
[画像変換装置の構成]
図17を参照し、画像変換装置60Bの構成について、説明する。
図17のように、画像変換装置60Bは、画素位置算出手段61と、画像合成手段62Bとを備える。
画像合成手段62Bは、図13の画像合成手段62と同様の処理に加え、後記する観視位置追従制御手段92からの指令に従って、視点境界線の位置と、要素画像の表示位置とを変更するものである。
視点境界線の位置と要素画像の表示位置との変更については、詳細を後記する。
[観視位置追従装置の構成]
観視位置追従装置90の構成について、説明する。
図17のように、観視位置追従装置90は、観視位置検出手段91と、観視位置追従制御手段92と、ロボットカメラ制御手段93とを備える。
観視位置検出手段91は、観視者画像から、レンズアレイ110の中心位置に対する観視者の観視位置を検出するものである。
具体的には、観視位置検出手段91は、観視者画像に対して、顔領域検出処理(参考文献3)、及び、両目位置検出処理(参考文献4)を施して、観視者画像に含まれる両目の位置を検出する。
参考文献3:PAUL VIOLA,MICHAEL J.JONES:“Robust Real-Time Face Detection",International Journal of Computer Vision, Vol.57, No.2, pp.137-154(2004)
参考文献4:特開2013−105384号公報
次に、観視位置検出手段91は、レンズアレイ110の中心位置を表すように予め設定した検出基準位置に対し、検出した両目の中間位置のズレ量及びズレ方向を求める。例えば、レンズアレイ110の中心位置に対し、観視者の頭部が右側に動いた場合、ズレ方向は左側となる。当然、ズレ量に比例して、観視者の移動量が大きくなる。このようにして、観視位置検出手段91は、算出したズレ量及びズレ方向から観視位置を求め、求めた観視位置を観視位置追従制御手段92及びロボットカメラ制御手段93に出力する。
観視位置追従制御手段92は、画像合成手段62Bに対し、観視位置検出手段91から入力された観視位置に追従して、視点境界線の変更と、要素画像の表示位置の変更とを指令するものである。
<視点境界線の変更>
図18を参照し、視点境界線の変更について、説明する(適宜図6,図17参照)。
図18では、観視位置(観視者の両目の中間位置)が、レンズアレイ110の中心に位置する要素レンズ120Cから、左側に距離xだけ動いたこととする。
図18のように、観視位置が左側に動いたことで、観視者の右目で要素画像420の大部分を観視し、観視者の左目で要素画像420の残りを観視することになる。従って、観視位置追従制御手段92は、視点境界線430を観視位置の移動方向の逆(右側)に移動させて、分割領域440Rを広く、分割領域440Lを狭くするように、視点境界線430を移動させる。
ここで、視点境界線430の移動量の算出方法を説明する。前記したように、図6の直角三角形tr1,tr2が相似の関係になる。従って、観視者が距離xだけ動いた場合、視点境界線430の移動量は、直角三角形tr1,tr2の大きさの比を距離xに乗算した値となる。つまり、観視位置追従制御手段92は、算出原点301を観視者の両目の中間位置として、画素位置算出手段61と同様に式(7)を用いて、視点境界線430の移動量を求める。この場合、式(7)の距離dが視点境界線430の移動量を表す。そして、観視位置追従制御手段92は、要素画像420の中心から距離dだけ移動した位置を、視点境界線430の位置として求める。
以下、別の手法についても説明する。観視位置追従制御手段92は、右目及び左目に光を入射させる要素画像の画素位置をそれぞれ算出し、右目と左目との画素位置を結ぶ直線を垂直に2等分する線を、視点境界線430の位置として求める。ここで、観視位置追従制御手段92は、視点境界線430の位置がより正確になるため、この別の手法を用いることが好ましい。
その後、観視位置追従制御手段92は、求めた位置への視点境界線430の変更を、画像合成手段62Bに指令する。すると、画像合成手段62Bは、この指令に従って、視点境界線430を変更し、要素画像群を生成する。
なお、観視位置追従制御手段92は、観視者の顔の傾きに合わせて、視点境界線430を傾斜させることを画像合成手段62Bに指令してもよい。例えば、観視位置追従制御手段92は、観視者の両目を結ぶ線分の中間点に垂線を引き、この垂線に合わせるように視点境界線430の傾斜角度を求める。
<要素画像の表示位置の変更>
図19を参照し、要素画像の表示位置の変更について、説明する(適宜図6,図17参照)。
図19のように、観視位置追従制御手段92は、要素レンズ120Cに対し観視位置が左側に動いたので、要素画像420の表示位置を観視位置の移動方向の逆(右側)に移動させる。ここで、観視位置追従制御手段92は、前記した視点境界線の変更と同様、要素画像420の表示位置を求めることができる。つまり、観視位置追従制御手段92は、式(7)の距離dだけ、要素画像420の表示位置を移動させる。
なお、観視位置追従制御手段92は、視点境界線430の変更、又は、要素画像420の表示位置の変更の何れを指令するか、予め設定してもよい。
また、観視位置追従制御手段92は、視点境界線430の移動量が要素画像420の半径未満の場合に視点境界線430の変更を指令し、視点境界線430の移動量が要素画像420の半径以上の場合、要素画像420の表示位置の変更を指令してもよい。
図17に戻り、観視位置追従装置90の構成について、説明を続ける。
ロボットカメラ制御手段93は、2眼立体カメラ20Bに対し、観視位置検出手段91から入力された観視位置に追従したステレオ画像の撮影を指令するものである。例えば、ロボットカメラ制御手段93は、観視位置に基づいて、観視者の移動距離及びIP立体映像の観視角度を算出し、2眼立体カメラ20Bの撮影位置及び撮影姿勢の変更を指令する。
[観視位置追従装置の動作]
図20を参照し、観視位置追従装置90の動作について、説明する(適宜図17参照)。
観視位置追従装置90は、観視位置検出カメラ80から、観視者画像が入力される(ステップS21)。
観視位置追従装置90は、観視位置検出手段91によって、観視者画像から、観視者の観視位置を検出する(ステップS22)。
観視位置追従装置90は、観視位置追従制御手段92によって、観視位置に追従して、視点境界線と、要素画像の表示位置との変更を指令する(ステップS23)。
観視位置追従装置90は、ロボットカメラ制御手段93によって、観視位置に追従したステレオ画像の撮影を2眼立体カメラ20Bに指令する(ステップS24)。
本願発明の第3実施形態に係るIP立体映像推定システム1Bは、第2実施形態と同様の効果に加え、観視者の観視位置に追従できるので、観視者が見易いIP立体映像を表示することができる。
(変形例1)
本願発明に係るIP立体映像推定システムは、前記した各実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
前記した第2実施形態では、図14のように、要素画像420に分割領域440L,440Rを設定し、分割領域440L,440Rそれぞれの画素が同一の画素値を有することとした。ここで、例えば、観視者が左側に1mm動いた場合、要素画像において、この1mmと、直角三角形tr1,tr2の大きさの比とを乗算した位置にある画素が観視される(図6)。このため、観視者が移動する前後で異なる画素を観視するにも関わらず、異なる画素の画素値が同一のため、観視者が観視する立体像も同一であった。
IP方式では、被写体10の光学像を再現する。すなわち、IP方式では、被写体10からの反射光をIP立体撮影装置で撮影し、IP立体テレビ70で表示することで、立体視を実現する。ここで、IP立体撮影装置は、観視者がある程度移動しても立体視を実現するために、一定範囲内の光を撮影する。そして、IP立体テレビ70では、IP立体撮影装置に応じた範囲で、被写体10の光学像を再現する。
観視者が移動しない場合、IP立体撮影装置及びIP立体テレビ70は、被写体10からの光を撮影及び再現する範囲が、観視者の位置に限定されるため、広範囲の光を撮影及び再現する必要がなくなる。このことから、2眼立体カメラ20は、観視者の瞳孔径の範囲内に入射する光を撮影すればよいと考えられる。
そこで、ロボットカメラ制御手段93は、2眼立体カメラ20Bに対し、予め設定された距離毎にステレオ画像を撮影するように指令する。
例えば、ロボットカメラ制御手段93は、観視者の瞳孔径のサイズ(例えば、6mm)の範囲内で、予め設定された距離(例えば、1mm)毎にステレオ画像を撮影する指令を2眼立体カメラ20Bに出力する。
すると、2眼立体カメラ20Bは、異なる視点で撮影された複数のステレオ画像を、解像度変換装置40に出力する。そして、解像度変換装置40は、各ステレオ画像から1組の視点要素画像群を生成し、画像変換装置60Bに出力する。
以下、複数のステレオ画像を1組の視点要素画像群に変換する手法を説明する。ここで、2眼立体カメラ20Bが移動する前の右撮影画像を基準右撮影画像と呼び、2眼立体カメラ20Bが右に1mm移動した後の右撮影画像を1mm右撮影画像と呼ぶ。
画素値割当手段44cは、移動する前の観視者の右目に光を出射する位置にある右視点要素画像の画素に、基準右撮影画像の対応画素の画素値(中心画素値)を割り当てる。また、画素値割当手段44cは、1mm移動した後の観視者の右目に光を出射する位置の視点要素画像の画素に、基準右撮影画像の対応画素と同一位置にある1mm右撮影画像の画素の画素値(1mm右移動画素値)を割り当てる。
また、画素値割当手段44cは、中心画素値と1mm右移動画素値とを割り当てた画素位置を結ぶ直線を垂直2等分する線で、右視点要素画像を分割する。そして、画像合成手段62Bは、分割した領域に、中心画素値又は1mm移動画素値が割り当てられた画素が含まれている場合、その領域の各画素に中心画素値又は1mm移動画素値を割り当てる。
このように、本願発明の変形例1に係るIP立体映像推定システム1Bは、観視者の観視位置において、被写体10の光学像を再現することができる。
(その他変形例)
前記した第2,第3実施形態では、IP立体映像推定装置2A,2Bが複数の装置で構成されることとしたが、これら装置を一体化してもよい。
前記した各実施形態では、IP立体映像推定装置2,2A,2Bを構成する各装置を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、各装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるプログラムで実現することもできる。
1,1A,1B IP立体映像推定システム
2,2A,2B IP立体映像推定装置
20 2眼立体カメラ(2眼立体撮影装置)
30 収録再生装置
40 解像度変換装置
41 解像度特性決定手段
41a 最大解像度算出手段
41b 観視解像度算出手段
41c 解像度特性算出手段
42 奥行値算出手段
43 画素位置算出手段(第1画素位置算出手段)
44 視点要素画像群生成手段
44a 対応画素解像度決定手段
44b 画素取得領域算出手段
44c 画素値割当手段
50 2眼立体テレビ
60,60B 画像変換装置
61,61B 画素位置算出手段(第2画素位置算出手段)
62 画像合成手段
70 IP立体テレビ
80 観視位置検出カメラ
90 観視位置追従装置
91 観視位置検出手段
92 観視位置追従制御手段
93 ロボットカメラ制御手段

Claims (7)

  1. 表示素子及びレンズアレイを備えるIP立体映像表示装置で表示される要素画像群の解像度に合わせて、2眼立体撮影装置で撮影されたステレオ画像の解像度を変換し、解像度が変換された前記ステレオ画像を、観視者の右目及び左目を表す視点毎に前記要素画像群の解像度を推定した視点要素画像群として出力するIP立体映像推定装置であって、
    予め設定された奥行範囲において、前記要素画像群の最大解像度又は観視解像度の小さな方を解像度特性として決定する解像度特性決定手段と、
    前記ステレオ画像が入力され、入力された前記ステレオ画像の画素毎に奥行値を算出する奥行値算出手段と、
    前記視点毎に、光線追跡法によって、前記視点から前記要素レンズの中心を通過して前記表示素子に到達する仮想線上に位置する視点要素画像群の第1基準画素を算出する第1画素位置算出手段と、
    前記第1基準画素に対応した位置にある前記ステレオ画像の対応画素を求め、前記解像度特性から、前記対応画素の奥行値に応じた解像度を決定する対応画素解像度決定手段と、
    前記対応画素を中心として、前記最大解像度と前記対応画素の解像度との比で前記要素レンズの直径を拡大した画素取得領域を算出する画素取得領域算出手段と、
    前記視点毎に、前記ステレオ画像から前記画素取得領域に含まれる画素を取得し、取得した前記画素の画素値に基づいて、前記視点要素画像群のうち、前記第1基準画素が属する視点要素画像の各画素の画素値を割り当てる画素値割当手段と、
    を備えることを特徴とするIP立体映像推定装置。
  2. 光線追跡法によって、前記観視者の右目及び左目の中間位置を表す視点中間位置から前記要素レンズの中心を通過して前記表示素子に到達する仮想線上に位置する要素画像群の第2基準画素を算出する第2画素位置算出手段と、
    前記第2基準画素が属する要素画像を視点境界線で分割した分割領域を設定し、前記視点毎に、前記視点要素画像群から前記分割領域に対応する画像領域を抽出し、異なる視点で抽出した前記画像領域の合成により前記要素画像を生成する画像合成手段と、
    をさらに備えることを特徴とする請求項1に記載のIP立体映像推定装置。
  3. 前記観視者を撮影した観視者画像が入力され、入力された前記観視者画像から、前記レンズアレイの中心位置に対する前記観視者の観視位置を検出する観視位置検出手段と、
    前記画像合成手段に対し、前記観視位置に合わせて前記視点境界線の変更を指令する観視位置追従制御手段と、
    をさらに備えることを特徴とする請求項2に記載のIP立体映像推定装置。
  4. 前記観視位置追従制御手段は、さらに、前記画像合成手段に対し、前記観視位置に合わせて前記要素画像群の表示位置の変更を指令することを特徴とする請求項3に記載のIP立体映像推定装置。
  5. 移動可能なロボットカメラである2眼立体撮影装置に対し、前記観視位置に追従した前記ステレオ画像の撮影を指令するロボットカメラ制御手段、
    をさらに備えることを特徴とする請求項3又は請求項4に記載のIP立体映像推定装置。
  6. 前記ロボットカメラ制御手段は、前記ロボットカメラに対し、予め設定された距離毎に前記ステレオ画像を撮影するように指令することを特徴とする請求項5に記載のIP立体映像推定装置。
  7. コンピュータを、請求項1に記載のIP立体映像推定装置として機能させるためのIP立体映像推定プログラム。
JP2013245929A 2013-11-28 2013-11-28 Ip立体映像推定装置及びそのプログラム Active JP6300346B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013245929A JP6300346B2 (ja) 2013-11-28 2013-11-28 Ip立体映像推定装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013245929A JP6300346B2 (ja) 2013-11-28 2013-11-28 Ip立体映像推定装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2015104107A true JP2015104107A (ja) 2015-06-04
JP6300346B2 JP6300346B2 (ja) 2018-03-28

Family

ID=53379446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013245929A Active JP6300346B2 (ja) 2013-11-28 2013-11-28 Ip立体映像推定装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6300346B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017169050A (ja) * 2016-03-16 2017-09-21 日本放送協会 2眼立体画像生成装置及びそのプログラム
KR20170115803A (ko) * 2016-04-08 2017-10-18 재단법인 다차원 스마트 아이티 융합시스템 연구단 낮은 복잡도로 깊이 정확도를 향상시키는 멀티 애퍼처 카메라 및 그 동작 방법
KR101818854B1 (ko) * 2016-05-12 2018-01-15 광운대학교 산학협력단 테이블탑 3d 디스플레이 시스템에서 사용자 추적 기반의 시역 확대 방법
JP2018074463A (ja) * 2016-11-01 2018-05-10 日本放送協会 画像生成装置、画像表示システム及びプログラム
WO2020194699A1 (ja) * 2019-03-28 2020-10-01 三菱電機株式会社 空中映像表示装置
JP2020161995A (ja) * 2019-03-27 2020-10-01 日本放送協会 立体画像伝送システム、立体画像送信装置及び立体画像表示装置
JP2020170979A (ja) * 2019-04-05 2020-10-15 日本放送協会 立体画像生成装置及びそのプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058584A (ja) * 2006-08-31 2008-03-13 Matsushita Electric Ind Co Ltd 三次元画像表示方法および三次元画像表示装置
US20080211737A1 (en) * 2005-11-16 2008-09-04 Eun-Soo Kim Three-dimensional display apparatus using intermediate elemental images
JP2010068251A (ja) * 2008-09-10 2010-03-25 Nippon Hoso Kyokai <Nhk> 三次元情報統合装置および三次元情報統合プログラム
JP2010078883A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 立体映像表示装置及び立体映像表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080211737A1 (en) * 2005-11-16 2008-09-04 Eun-Soo Kim Three-dimensional display apparatus using intermediate elemental images
JP2008058584A (ja) * 2006-08-31 2008-03-13 Matsushita Electric Ind Co Ltd 三次元画像表示方法および三次元画像表示装置
JP2010068251A (ja) * 2008-09-10 2010-03-25 Nippon Hoso Kyokai <Nhk> 三次元情報統合装置および三次元情報統合プログラム
JP2010078883A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 立体映像表示装置及び立体映像表示方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017169050A (ja) * 2016-03-16 2017-09-21 日本放送協会 2眼立体画像生成装置及びそのプログラム
KR20170115803A (ko) * 2016-04-08 2017-10-18 재단법인 다차원 스마트 아이티 융합시스템 연구단 낮은 복잡도로 깊이 정확도를 향상시키는 멀티 애퍼처 카메라 및 그 동작 방법
KR101818854B1 (ko) * 2016-05-12 2018-01-15 광운대학교 산학협력단 테이블탑 3d 디스플레이 시스템에서 사용자 추적 기반의 시역 확대 방법
JP2018074463A (ja) * 2016-11-01 2018-05-10 日本放送協会 画像生成装置、画像表示システム及びプログラム
JP2020161995A (ja) * 2019-03-27 2020-10-01 日本放送協会 立体画像伝送システム、立体画像送信装置及び立体画像表示装置
JP7300294B2 (ja) 2019-03-27 2023-06-29 日本放送協会 立体画像伝送システム、立体画像送信装置及び立体画像表示装置
WO2020194699A1 (ja) * 2019-03-28 2020-10-01 三菱電機株式会社 空中映像表示装置
JPWO2020194699A1 (ja) * 2019-03-28 2021-10-14 三菱電機株式会社 空中映像表示装置
CN113614620A (zh) * 2019-03-28 2021-11-05 三菱电机株式会社 空中影像显示装置
JP7086273B2 (ja) 2019-03-28 2022-06-17 三菱電機株式会社 空中映像表示装置
JP2020170979A (ja) * 2019-04-05 2020-10-15 日本放送協会 立体画像生成装置及びそのプログラム
JP7324605B2 (ja) 2019-04-05 2023-08-10 日本放送協会 立体画像生成装置及びそのプログラム

Also Published As

Publication number Publication date
JP6300346B2 (ja) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6300346B2 (ja) Ip立体映像推定装置及びそのプログラム
US20180192033A1 (en) Multi-view scene flow stitching
US9185388B2 (en) Methods, systems, and computer program products for creating three-dimensional video sequences
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
JP6734620B2 (ja) 映像処理方法及び映像処理装置
CN108141578B (zh) 呈现相机
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
RU2453922C2 (ru) Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
JP4928476B2 (ja) 立体像生成装置、その方法およびそのプログラム
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
JP2018040789A (ja) 画像距離算出装置、画像距離算出方法および画像距離算出用プログラム
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
JP2013115668A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP3990271B2 (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP4729011B2 (ja) 要素画像群変換装置、立体像表示装置及び要素画像群変換プログラム
CA2968676A1 (en) Device for creating and enhancing three-dimensional image effects
KR101289283B1 (ko) 하이브리드 영상획득 장치 기반 홀로그래픽 영상 복원 방법
KR20180048082A (ko) 집적영상 디스플레이의 화질 평가 장치 및 방법
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
JP7257272B2 (ja) 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置
JP6685241B2 (ja) 立体視ビデオ生成
WO2012014695A1 (ja) 立体撮像装置およびその撮像方法
JP6223226B2 (ja) カメラパラメータ算出装置及びそのプログラム
WO2018043437A1 (ja) 画像距離算出装置および画像距離算出用プログラムを記録したコンピュータ読み取り可能な非一過性の記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180223

R150 Certificate of patent or registration of utility model

Ref document number: 6300346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250