JP2020170979A - 立体画像生成装置及びそのプログラム - Google Patents

立体画像生成装置及びそのプログラム Download PDF

Info

Publication number
JP2020170979A
JP2020170979A JP2019072541A JP2019072541A JP2020170979A JP 2020170979 A JP2020170979 A JP 2020170979A JP 2019072541 A JP2019072541 A JP 2019072541A JP 2019072541 A JP2019072541 A JP 2019072541A JP 2020170979 A JP2020170979 A JP 2020170979A
Authority
JP
Japan
Prior art keywords
stereoscopic image
pupil position
virtual camera
camera array
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019072541A
Other languages
English (en)
Other versions
JP7324605B2 (ja
Inventor
直人 岡市
Naoto Okaichi
直人 岡市
久幸 佐々木
Hisayuki Sasaki
久幸 佐々木
健介 久富
Kensuke Hisatomi
健介 久富
河北 真宏
Masahiro Kawakita
真宏 河北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019072541A priority Critical patent/JP7324605B2/ja
Publication of JP2020170979A publication Critical patent/JP2020170979A/ja
Application granted granted Critical
Publication of JP7324605B2 publication Critical patent/JP7324605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】立体画像の視域から瞳が外れにくい立体画像生成装置を提供する。【解決手段】立体画像生成装置3は、仮想カメラアレイの中心位置を両眼の中間位置に設定する仮想カメラアレイ設定手段30と、瞳位置情報から瞳位置の移動量を算出する瞳移動量算出手段31と、瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる仮想カメラアレイ移動手段32と、仮想カメラアレイで多視点画像群を撮影する多視点画像群撮影手段34と、多視点画像群から要素画像群を生成する要素画像群生成手段35と、を備える。【選択図】図3

Description

本発明は、立体画像生成装置及びそのプログラムに関する。
インテグラルフォトグラフィ(IP:Integral Photography)方式は、特殊な眼鏡が不要で裸眼による立体視が可能なため、従来より研究が進められている。図7に示すように、従来のIP立体映像表示装置100は、液晶や有機ELなどの直視型ディスプレイ110と、その前面に置かれたレンズアレイ120とを備える。レンズアレイ120は、2次元方向に配列された要素レンズ121で構成されている。直視型ディスプレイ110は、各要素レンズ121に対応する要素画像eで構成される要素画像群Eを表示する。すると、要素レンズ121により要素画像eが空間中に投影され、立体像が形成される。
IP方式では、多くの視点で映像を再現するため、非常に多くの画素(情報量)が必要となる。IP立体映像の品質を決定づけるパラメータとして、「立体映像画素数(要素画像数)」、「視域」、「空間周波数特性(奥行再現範囲)」の3つが挙げられる。非特許文献1に記載されているように、これら3つのパラメータにはトレードオフの関係があることが知られている。つまり、「視域」を狭くすることにより、「立体映像画素数」及び「空間周波数特性」を向上させることができる。その一方、「視域」を狭くすると、立体映像の表示範囲が狭くなる。また、「視域」を狭くするためには、焦点距離の長いレンズアレイを用いればよい。
H. Hoshino, F. Okano, and I. Yuyama, "Analysis of resolution limitation of integral photography," J. Opt. Soc. Am. A 15(8), 2059-2065 (1998)
従来のIP方式において、後記する視点追従技術により「視域」の方向を制御すれば、焦点距離の長いレンズアレイを用いても、広い範囲で立体映像を表示できる。この場合、図8に示すように、視聴者Hの反対方向に要素画像群Eの表示位置を平行移動させることで、「視域」の方向制御が実現できる(縮小拡大でも可)。図8(a)では、視聴者Hが上側に移動したので、要素画像群Eの表示位置を下側に移動させることで、ドットで図示した視域を上方向に移動させている。また、図8(b)では、視聴者Hが下側に移動したので、要素画像群Eの表示位置を上側に移動させることで、ドットで図示した視域を下方向に移動させている。このようにして、IP方式では、「立体映像画素数」及び「空間周波数特性」を向上させ、かつ、「視域」を広くすることができる。
この視点追従技術では、図9に示すように、仮想空間内に、仮想ディスプレイ210と、仮想レンズアレイ220と、複数台の仮想カメラ231からなる仮想カメラアレイ230と、被写体となる3次元モデルObjを配置する。まず、視点追従技術では、瞳検出を行い、視域の中心が両眼の中間になるように仮想カメラアレイ230を設定する。つまり、仮想カメラアレイ230の中心位置が、視域の中心位置となる。そして、視点追従技術では、仮想カメラアレイ230により様々な方向で3次元モデルObjの多視点画像群Mを撮影し、撮影した多視点画像群Mを要素画像群Eに変換する。この多視点画像群Mは、異なる視点の画像(多視点画像m)で構成されている。
なお、図9では、白抜きの‘×’が仮想カメラアレイ230の中心位置を示し、黒色の‘×’が瞳検出した両眼の中心位置を示す。図9では、仮想カメラアレイ230の中心位置、及び、瞳検出した両眼の中心位置が一致するので、白抜きの‘×’及び黒色の‘×’を重なるように図示した。
ここで、視点追従技術では、視聴者Hが動くタイミングによって、瞳検出に失敗する場合や、要素画像群Eのレンダリングが遅延する場合がある。図10を参照し、それらが発生した場合の問題点を説明する。なお、図10では、実際の両眼の位置を符号R,Lで図示した。また、図10では、図9と同様、白抜きの‘×’及び黒色の‘×’を重なるように図示した。
図10に示すように、時刻t=0では、視聴者Hが動いていないので、視域αの中心位置(仮想カメラアレイ230の中心位置)が、右眼R及び左眼Lの中間位置に一致している。時刻t=1では、右眼R及び左眼Lの両方とも視域αに収まっている。しかし、眼の移動方向において、右眼Rが視域αの境界に近づいており、視域αの余白(マージン)βが少なくなっている。時刻t=2では、視域αが追従できずに右眼Rが視域αから外れてしまう。すると、クロストークが発生することや、視認性が低下することがある。その後、時刻t=3では、視聴者Hの動きが小さくなったので、右眼R及び左眼Lの両方とも視域αに収まっている。
このように、視点追従技術では、視域の方向制御が視聴者Hの動きに追い付かず、立体画像の視域から瞳が外れてしまうことがある。その結果、クロストークが発生することや、視認性が低下することがある。
そこで、本発明は、立体画像の視域から瞳が外れにくい立体画像生成装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係る立体画像生成装置は、仮想カメラアレイで撮影した多視点画像群から、人物の瞳位置に視域を追従させた立体画像を生成する立体画像生成装置であって、仮想カメラアレイ設定手段と、瞳位置予測手段と、仮想カメラアレイ移動手段と、多視点画像群撮影手段と、立体画像生成手段と、を備える構成とした。
かかる立体画像生成装置によれば、仮想カメラアレイ設定手段は、瞳位置を示す瞳位置情報が入力され、入力された瞳位置情報に基づいて、仮想カメラアレイの中心位置を、人物の両眼の中間位置に設定する。すなわち、仮想カメラアレイ設定手段は、視域の中心位置が人物の両眼の中間位置となるように仮想カメラアレイの中心位置を設定する。なお、仮想カメラアレイの中心位置が視域の中心位置となる。
瞳位置予測手段は、瞳位置情報から瞳位置の移動量を予測する。
仮想カメラアレイ移動手段は、瞳位置予測手段が予測した瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる。すなわち、仮想カメラアレイ移動手段は、人物(瞳)の動きを考慮して仮想カメラアレイの中心位置を移動させる。
多視点画像群撮影手段は、仮想カメラアレイ移動手段が移動させた仮想カメラアレイで多視点画像群を撮影する。
立体画像生成手段は、多視点画像群から立体画像を生成する。
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。
本発明によれば、人物の動きを考慮して仮想カメラアレイの中心位置を移動させるので、人物の瞳位置に立体画像の視域が追従し、立体画像の視域から瞳が外れにくくなる。これにより、クロストークの発生や視認性の低下を抑制することができる。
実施形態に係る立体画像表示システムの説明図である。 実施形態に係る立体画像表示システムの概略構成図である。 実施形態に係る立体画像生成装置の構成を示すブロック図である。 実施形態において、要素画像群の生成方法を説明する説明図である。 実施形態において、仮想カメラアレイの移動と視域の追従を説明する説明図である。 図3の立体画像生成装置の動作を示すフローチャートである。 従来のIP立体映像表示装置を説明する説明図である。 従来の視点追従技術を説明する説明図である。 従来の視点追従技術を説明する説明図である。 従来技術において、仮想カメラアレイの設定を説明する説明図である。
(実施形態)
[立体画像表示システムの概略]
図1及び図2を参照し、本発明の実施形態に係る立体画像表示システム1(図2)の概略について説明する。
図1に示すように、立体画像表示システム1は、視域の方向を制御する際、視聴者(人物)の動きを考慮して仮想カメラアレイ230の中心位置を移動させることで、立体画像の視域から視聴者の瞳を外れにくくしたものである。
なお、図1では、白抜きの‘×’が仮想カメラアレイ230の中心位置を示し、黒色の‘×’が瞳検出した両眼の中心位置を示す。図1では、仮想カメラアレイ230の中心位置を両眼の中心位置から移動させているので、白抜きの‘×’及び黒色の‘×’を異なる位置に図示した。
図2に示すように、立体画像表示システム1は、瞳位置検出装置2と、立体画像生成装置3と、立体画像表示装置4とを備える。本実施形態では、立体画像表示システム1が、IP方式の立体画像(要素画像群)を表示すると共に、視域の方向制御自体は既知の手法を用いることとして説明する(例えば、図8参照)。
瞳位置検出装置2は、視聴者Hの瞳を検出し、検出した瞳位置を示す瞳位置情報を生成するものである。例えば、瞳位置検出装置2は、視聴者Hの顔画像を撮影するための撮影装置(例えば、Webカメラ)を立体画像表示装置4の上部に備える。そして、瞳位置検出装置2は、撮影装置が撮影した顔画像から、瞳検出技術(例えば、OpenCV)を用いて、右眼R及び左眼Lの位置をリアルタイムで検出する。
瞳位置検出装置2は、生成した瞳位置情報を立体画像生成装置3に出力する。ここで、瞳位置検出装置2は、瞳検出に失敗した場合、瞳検出に失敗した旨の通知と共に、直前に検出した瞳位置を示す瞳位置情報を出力することとする。
立体画像生成装置3は、仮想カメラアレイ230で撮影した多視点画像群Mから、視聴者Hの瞳位置に視域を追従させた要素画像群Eを生成するものである。そして、立体画像生成装置3は、生成した要素画像群Eを立体画像表示装置4に出力する。この立体画像生成装置3の詳細は、後記する。
立体画像表示装置4は、立体画像生成装置3が生成した要素画像群Eを表示する一般的なIP立体ディスプレイである。例えば、立体画像表示装置4は、従来技術と同様、LCDやOLED等の直視型ディスプレイ(不図示)の前面にレンズアレイ41を配置したものである。ここで、立体画像表示システム1では、視聴者Hの瞳位置に視域が追従するので、焦点距離が長いレンズアレイ41を用いても、要素画像群Eの品質を向上させることができる。
[立体画像生成装置の構成]
図3を参照し、立体画像生成装置3の構成について説明する。
図3に示すように、立体画像生成装置3は、仮想カメラアレイ設定手段30と、瞳移動量算出手段(瞳位置予測手段)31と、仮想カメラアレイ移動手段32と、3次元モデル設定手段33と、多視点画像群撮影手段34と、要素画像群生成手段(立体画像生成手段)35とを備える。
仮想カメラアレイ設定手段30は、仮想カメラアレイ230に関するパラメータを設定するものである。例えば、パラメータには、仮想カメラアレイ230の中心位置や、仮想カメラ231の台数、配置、間隔及び焦点距離が含まれる。具体的には、仮想カメラアレイ設定手段30は、瞳位置検出装置2から入力された瞳位置情報に基づいて、仮想カメラアレイ230の中心位置を、視聴者Hの両眼の中間位置に設定する。この他、立体画像の制作者が、図示を省略したマウス、キーボード等の操作手段を用いて、仮想カメラ231の台数、配置、間隔及び焦点距離を仮想カメラアレイ設定手段30に設定してもよい。
仮想カメラアレイ設定手段30は、設定されたパラメータを仮想カメラアレイ移動手段32に出力する。
瞳移動量算出手段31は、瞳位置検出装置2より入力された瞳位置情報から瞳位置の移動量を予測するものである。本実施形態では、瞳移動量算出手段31は、瞳位置情報が示す瞳位置の時間変化から瞳位置の移動速度vを算出する。この瞳位置の移動速度vは、下記の式(1)に示すように、瞳位置の変化量x−xt´を時間差t−t´で除算したものとなる。ここでは、瞳位置の検出時刻をそれぞれt,t´とし、検出時刻t,t´の瞳位置をそれぞれx,xt´とする(但し、t>t´)。
Figure 2020170979
そして、瞳移動量算出手段31は、瞳位置の移動速度vと係数kとを乗じることで、瞳位置の移動量kvを算出する。この係数kは、例えば、視域の幅、瞳の平均移動速度、瞳検出の成功率を考慮して、任意の値で予め設定する。
瞳移動量算出手段31は、瞳位置の移動量kvを仮想カメラアレイ移動手段32に出力する。
仮想カメラアレイ移動手段32は、瞳移動量算出手段31から入力された瞳位置の移動量kvに基づいて、仮想カメラアレイ230の中心位置を移動させるものである。すなわち、仮想カメラアレイ移動手段32は、視聴者H(瞳)の動きを考慮して、仮想カメラアレイ230の中心位置を両眼の中心位置から移動させる。なお、仮想カメラアレイ移動手段32の詳細は、後記する(仮想カメラアレイ230の移動による視域追従)。
仮想カメラアレイ移動手段32は、移動させた仮想カメラアレイ230の中心位置を、仮想カメラアレイ設定手段30から入力されたパラメータと共に、多視点画像群撮影手段34に出力する。
なお、瞳位置検出装置2が瞳検出に失敗した場合、仮想カメラアレイ設定手段30及び瞳移動量算出手段31には、瞳検出に失敗した旨の通知と共に、直前の瞳位置情報が入力されることとする。この瞳位置情報は、瞳位置検出装置2で検出できた直前の瞳位置を示す。
また、瞳検出に失敗した旨が通知された場合、瞳移動量算出手段31が瞳位置の移動量kvを算出せず、仮想カメラアレイ移動手段32が仮想カメラアレイ230の中心位置を移動させないこととする。
3次元モデル設定手段33は、仮想空間内に配置する3次元モデルObjを設定するものである。この3次元モデルObjは、仮想カメラアレイ230の撮影対象であり、帽子をかぶった女性のように任意である(図1)。例えば、立体画像の制作者が、操作手段を用いて、仮想空間内に配置する3次元モデルObjを3次元モデル設定手段33に設定する。
3次元モデル設定手段33は、設定された3次元モデルObjを多視点画像群撮影手段34に出力する。
多視点画像群撮影手段34は、仮想カメラアレイ移動手段32が移動させた仮想カメラアレイ230で多視点画像群Mを撮影するものである。具体的には、多視点画像群撮影手段34は、3次元モデルObjが配置された仮想空間を、両眼の中心位置から瞳位置の移動量kvだけ移動した仮想カメラアレイ230で撮影する。このようにして、多視点画像群撮影手段34は、多視点画像群Mを生成(レンダリング)する。
多視点画像群撮影手段34は、生成した多視点画像群を要素画像群生成手段35に出力する。
要素画像群生成手段35は、多視点画像群撮影手段34より入力された多視点画像群Mから要素画像群Eを生成するものである。この要素画像群生成手段35は、任意の手法で多視点画像群Mから要素画像群Eを生成できる。例えば、要素画像群生成手段35は、各多視点画像mから同一位置の画素を抽出し、抽出した画素で構成される要素画像eを生成する。
要素画像群生成手段35は、生成した要素画像群Eを立体画像表示装置4に出力する。
<要素画像群の生成>
図4を参照し、要素画像群Eの生成の一例について説明する。
図4(a)に示すように、左上視点の画像m11、画像m11の右側視点の画像m21、画像m11の下側視点の画像m12という、3視点分の多視点画像mについて考える。また、説明を簡易にするため、画像m11では、左上画素に「●1」を付し、右側画素に「●2」を付し、下側画素に「●3」を付した。これと同様、画像m21には、「▲1」〜「▲3」を付し、画像m12には、「■1」〜「■3」を付した。
この場合、要素画像群生成手段35は、図4(b)に示すように、画像m11,m12,m21から左上画素●1,▲1,■1,…を抽出し、左上の要素画像e11を生成する。つまり、要素画像e11は、同一位置の左上画素●1,▲1,■1,…で構成されている。また、要素画像e11において、左上画素●1,▲1,■1,…の並び方は、それら画素を抽出した画像m11,m12,m21の視点位置に対応する。つまり、要素画像e11では、画素●1が左上に配置され、画素▲1が画素●1の右側に配置され、画素■1が画素●1の下側に配置される。
また、要素画像群生成手段35は、要素画像e11と同様、画像m11,m12,m21から抽出した右側画素●2,▲2,■2,…で構成される要素画像e21を生成する。さらに、要素画像生成手段36は、要素画像e11,e21と同様、画像m11,m12,m21から抽出した下側画素●3,▲3,■3,…で構成される要素画像e12を生成する。
ここで、要素画像eは、その要素画像eを構成する各画素の画素位置に対応した位置に配置される。例えば、要素画像e11は、左上画素●1,▲1,■1,…で構成されているので、左上に配置される。また、要素画像e21は、右側画素●2,▲2,■2,…で構成されているので、要素画像e11の右側に配置される。さらに、要素画像e12は、下側画素●3,▲3,■3,…で構成されるので、要素画像e11の下側に配置される。
なお、IP立体表示装置の光学系の構成によっては、立体像の倒立像が表示される場合もある。この場合、要素画像群生成手段35は、各画素の位置を上下左右に反転させて、立体像の正立像が表示されるように要素画像群Eを生成してもよい。
<仮想カメラアレイの移動による視域追従>
図5を参照し、仮想カメラアレイの移動による視域追従について説明する。
図5では、実際の両眼の位置を符号R,Lで図示した。また、図5では、図1と同様、仮想カメラアレイ230の中心位置を示す白抜きの‘×’と、瞳検出した両眼の中心位置を示す黒色の‘×’とを図示した。なお、仮想カメラアレイ230の中心位置(白抜きの‘×’)が、視域αの中心位置となる。
図5に示すように、時刻t=0では、視聴者Hが動いていないので、視域αの中心位置が右眼R及び左眼Lの中間位置に一致している。従って、時刻t=0では、白抜きの‘×’及び黒色の‘×’が重なっている。
時刻t=1では、右眼R及び左眼Lの両方とも視域αに収まっている。このとき、仮想カメラアレイ230を移動量kvだけ移動させているので、右眼Rが視域αの境界から十分に離れており、図10に比べて、視域αの余白βに余裕がある。
時刻t=2では、瞳検出に失敗したので、視域αが時刻t=1から移動していないが、右眼Rの瞳が視域αに収まっている。その結果、立体画像生成装置3は、クロストークの発生や、視認性の低下を抑制できる。
時刻t=3では、右眼R及び左眼Lの両方とも視域αに収まっている。このときも、仮想カメラアレイ230を移動量kvだけ移動させている。
なお、視聴者Hが反対側に移動した場合(図5では左側に移動した場合)、移動量kvの符号を負にすればよい。
[立体画像生成装置の動作]
図6を参照し、立体画像生成装置3の動作について説明する。
図6に示すように、ステップS1において、仮想カメラアレイ設定手段30は、瞳位置検出装置2から入力された瞳位置情報に基づいて、仮想カメラアレイ230の中心位置を、視聴者Hの両眼の中間位置に設定する。
ステップS2において、瞳移動量算出手段31は、瞳位置検出装置2より入力された瞳位置情報から瞳位置の移動量を予測する。例えば、瞳移動量算出手段31は、前記式(1)に示すように、瞳位置情報が示す瞳位置の変化から瞳位置の移動速度を算出し、算出した瞳位置の移動速度と係数とを乗じることで、瞳位置の移動量を算出する。
ステップS3において、仮想カメラアレイ移動手段32は、ステップS2で算出した瞳位置の移動量に基づいて、仮想カメラアレイの中心位置を移動させる。すなわち、仮想カメラアレイ移動手段32は、視聴者Hの動きを考慮して、仮想カメラアレイの中心位置を両眼の中心位置から移動させる。
ステップS4において、3次元モデル設定手段33は、仮想空間内に配置する3次元モデルを設定する。
ステップS5において、多視点画像群撮影手段34は、ステップS3で移動させた仮想カメラアレイで多視点画像群を撮影する。具体的には、多視点画像群撮影手段34は、3次元モデルが配置された仮想空間を、両眼の中心位置から瞳位置の移動量だけ移動させた仮想カメラアレイで撮影する。
ステップS6において、要素画像群生成手段35は、ステップS5で撮影した多視点画像群から要素画像群を生成する。例えば、要素画像群生成手段35は、各多視点画像から同一位置の画素を抽出し、抽出した画素で構成される各要素画像を生成する。
[作用・効果]
以上のように、本発明の実施形態に係る立体画像生成装置3は、視聴者Hの動きを考慮して仮想カメラアレイの中心位置を移動させるので、視聴者Hの瞳位置に立体画像の視域が追従し、立体画像の視域から瞳が外れにくくなる。これにより、立体画像生成装置3は、クロストークの発生や視認性の低下を抑制し、高品質なIP立体画像を提供することができる。
(変形例:瞳位置の移動量)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、瞳移動量算出手段が、式(1)で瞳位置の移動量を算出することとして説明したが、これに限定されない。例えば、瞳移動量算出手段は、下記の式(2)に示すように、瞳位置の移動速度vに関する高次の式を用いて、瞳位置の移動量を算出してもよい。なお、係数lは、係数kと同様、任意の値で予め設定しておくこととする。
Figure 2020170979
また、瞳移動量算出手段は、瞳位置の移動に関するものであれば、瞳位置の加速度など、移動速度以外を用いてもよい。
また、前記した式(1)では、1フレーム間隔で瞳位置の移動速度を算出したが、2フレーム以上の間隔で瞳位置の移動速度を算出してもよい。
(その他変形例)
前記した実施形態では、全方位視差を有するIP立体方式に本発明を適用することとして説明したが、これに限定されない。本発明は、IP立体方式、レンチキュラー立体方式等の光線再生型の立体方式に適用することができる。このレンチキュラー立体方式は、水平視差のみを有する光線再生型の立体方式である。
前記した実施形態では、1人分の瞳位置を検出することとして説明したが、これに限定されない。つまり、複数人の瞳位置を検出し、瞳位置を検出した人数に応じて時分割表示を行えばよい。つまり、立体画像生成装置は、立体画像生成手段が生成した立体画像を人物毎に時分割する時分割手段、を備えればよい。
前記した各実施形態では、立体画像生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1 立体画像表示システム
2 瞳位置検出装置
3 立体画像生成装置
4 立体画像表示装置
30 仮想カメラアレイ設定手段
31 瞳移動量算出手段(瞳位置予測手段)
32 仮想カメラアレイ移動手段
33 3次元モデル設定手段
34 多視点画像群撮影手段
35 要素画像群生成手段(立体画像生成手段)
41 レンズアレイ
100 IP立体映像表示装置
110 直視型ディスプレイ
120 レンズアレイ
121 要素レンズ
210 仮想ディスプレイ
220 仮想レンズアレイ
230 仮想カメラアレイ
231 仮想カメラ
E 要素画像群
e 要素画像
L 左眼
M 多視点画像群
m 多視点画像
H 視聴者
Obj 3次元モデル
R 右眼
α 視域

Claims (5)

  1. 仮想カメラアレイで撮影した多視点画像群から、人物の瞳位置に視域を追従させた立体画像を生成する立体画像生成装置であって、
    前記瞳位置を示す瞳位置情報が入力され、入力された前記瞳位置情報に基づいて、前記仮想カメラアレイの中心位置を、前記人物の両眼の中間位置に設定する仮想カメラアレイ設定手段と、
    前記瞳位置情報から前記瞳位置の移動量を予測する瞳位置予測手段と、
    前記瞳位置予測手段が予測した瞳位置の移動量に基づいて、前記仮想カメラアレイの中心位置を移動させる仮想カメラアレイ移動手段と、
    前記仮想カメラアレイ移動手段が移動させた仮想カメラアレイで前記多視点画像群を撮影する多視点画像群撮影手段と、
    前記多視点画像群から前記立体画像を生成する立体画像生成手段と、
    を備えることを特徴とする立体画像生成装置。
  2. 前記瞳位置予測手段は、前記瞳位置情報が示す瞳位置の時間変化から前記瞳位置の移動速度を算出し、前記瞳位置の移動速度と予め設定した係数とを乗じることで、前記瞳位置の移動量を算出することを特徴とする請求項1に記載の立体画像生成装置。
  3. 前記立体画像は、光線再生型の立体方式に対応した要素画像群であることを特徴とする請求項1又は請求項2に記載の立体画像生成装置。
  4. 前記立体画像生成手段が生成した立体画像を前記人物毎に時分割する時分割手段、をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の立体画像生成装置。
  5. コンピュータを、請求項1から請求項4の何れか一項に記載の立体画像生成装置として機能させるためのプログラム。
JP2019072541A 2019-04-05 2019-04-05 立体画像生成装置及びそのプログラム Active JP7324605B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019072541A JP7324605B2 (ja) 2019-04-05 2019-04-05 立体画像生成装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019072541A JP7324605B2 (ja) 2019-04-05 2019-04-05 立体画像生成装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2020170979A true JP2020170979A (ja) 2020-10-15
JP7324605B2 JP7324605B2 (ja) 2023-08-10

Family

ID=72745409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019072541A Active JP7324605B2 (ja) 2019-04-05 2019-04-05 立体画像生成装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP7324605B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11201723A (ja) * 1998-01-08 1999-07-30 Nec Corp 観察位置検出装置及びその観察位置検出方法
JP2002330452A (ja) * 2001-05-01 2002-11-15 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2013143702A (ja) * 2012-01-11 2013-07-22 Sharp Corp 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
US20150029317A1 (en) * 2011-12-23 2015-01-29 Korea Institute Of Science And Technology Device for displaying multi-view 3d image using dynamic viewing zone expansion applicable to multiple observers and method for same
JP2015089104A (ja) * 2013-09-26 2015-05-07 Nltテクノロジー株式会社 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム
JP2015104107A (ja) * 2013-11-28 2015-06-04 日本放送協会 Ip立体映像推定装置及びそのプログラム
JP2018074463A (ja) * 2016-11-01 2018-05-10 日本放送協会 画像生成装置、画像表示システム及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11201723A (ja) * 1998-01-08 1999-07-30 Nec Corp 観察位置検出装置及びその観察位置検出方法
JP2002330452A (ja) * 2001-05-01 2002-11-15 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
US20150029317A1 (en) * 2011-12-23 2015-01-29 Korea Institute Of Science And Technology Device for displaying multi-view 3d image using dynamic viewing zone expansion applicable to multiple observers and method for same
JP2013143702A (ja) * 2012-01-11 2013-07-22 Sharp Corp 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP2015089104A (ja) * 2013-09-26 2015-05-07 Nltテクノロジー株式会社 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム
JP2015104107A (ja) * 2013-11-28 2015-06-04 日本放送協会 Ip立体映像推定装置及びそのプログラム
JP2018074463A (ja) * 2016-11-01 2018-05-10 日本放送協会 画像生成装置、画像表示システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MARC LEVOY(外1名): "Light Field Rendering", SIGGRAPH '96: PROCEEDINGS OF THE 23RD ANNUALCONFERENCE ON COMPUTERGRAPHICS AND INTERACTIVE TECHNIQUE, JPN7023000771, 1 August 1996 (1996-08-01), US, pages 31 - 42, XP059140383, ISSN: 0004994880, DOI: 10.1145/237170.237199 *

Also Published As

Publication number Publication date
JP7324605B2 (ja) 2023-08-10

Similar Documents

Publication Publication Date Title
US6717728B2 (en) System and method for visualization of stereo and multi aspect images
KR20110049039A (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
JP4928476B2 (ja) 立体像生成装置、その方法およびそのプログラム
JP2008146221A (ja) 画像表示システム
US11006090B2 (en) Virtual window
JPWO2013073028A1 (ja) 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム
JP4631812B2 (ja) 多視点映像表示装置、多視点映像撮像装置、及び多視点映像生成装置
JP7165513B2 (ja) Ip立体映像表示装置及びそのプログラム
JPH10500498A (ja) 空間有効画像生成方法
JP5439686B2 (ja) 立体画像表示装置及び立体画像表示方法
JP2015104107A (ja) Ip立体映像推定装置及びそのプログラム
KR100430381B1 (ko) 입체 영상 표시 장치
Takaki Novel 3D display using an array of LCD panels
KR20120025282A (ko) 입체영상표시장치
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
JP4660769B2 (ja) 多視点立体ディスプレイ装置
KR20120093693A (ko) 입체영상표시장치 및 그 구동방법
JP7324605B2 (ja) 立体画像生成装置及びそのプログラム
JP6846165B2 (ja) 画像生成装置、画像表示システム及びプログラム
US20040178969A1 (en) Spatial three-dimensional image display device
Dorado et al. Toward 3D integral-imaging broadcast with increased viewing angle and parallax
JP2021064834A (ja) 立体画像表示システム
KR101093929B1 (ko) 깊이 지도를 이용하여 3차원 영상을 표시하는 방법 및 시스템
KR100652204B1 (ko) 입체 영상 표시 방법 및 그 장치
US10869023B1 (en) Method and apparatus for correcting lenticular distortion

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7324605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150