JP2008090617A - 立体画像生成装置、方法およびプログラム - Google Patents

立体画像生成装置、方法およびプログラム Download PDF

Info

Publication number
JP2008090617A
JP2008090617A JP2006271052A JP2006271052A JP2008090617A JP 2008090617 A JP2008090617 A JP 2008090617A JP 2006271052 A JP2006271052 A JP 2006271052A JP 2006271052 A JP2006271052 A JP 2006271052A JP 2008090617 A JP2008090617 A JP 2008090617A
Authority
JP
Japan
Prior art keywords
real object
stereoscopic image
shielding area
rendering
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006271052A
Other languages
English (en)
Other versions
JP4764305B2 (ja
JP2008090617A5 (ja
Inventor
Yasuaki Yamauchi
康晋 山内
Rieko Fukushima
理恵子 福島
Kaoru Sugita
馨 杉田
Yuzo Hirayama
雄三 平山
Miwako Doi
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006271052A priority Critical patent/JP4764305B2/ja
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to PCT/JP2007/069121 priority patent/WO2008041661A1/en
Priority to EP07828862A priority patent/EP2070337A1/en
Priority to US11/994,023 priority patent/US20100110068A1/en
Priority to KR1020097004818A priority patent/KR20090038932A/ko
Priority to CNA2007800346084A priority patent/CN101529924A/zh
Publication of JP2008090617A publication Critical patent/JP2008090617A/ja
Publication of JP2008090617A5 publication Critical patent/JP2008090617A5/ja
Application granted granted Critical
Publication of JP4764305B2 publication Critical patent/JP4764305B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】利用者の行動のトラッキング・システムを必要とせずに実物体の位置、姿勢、形状に応じて変化する立体画像を生成すること。
【解決手段】立体ディスプレイ装置100において、3次元表示面または該3次元表示面の近傍に配置された実物体の位置または姿勢を検出する実物体位置姿勢検出部103と、実物体の形状と位置または姿勢とに基づいて、実物体が3次元表示面により照射された光線を遮蔽する領域である遮蔽領域を算出する遮蔽領域算出部104と、遮蔽領域に対して、遮蔽領域以外の領域に対する描画処理と異なる描画処理を行って視差合成画像を生成する3D画像描画部105とを備えた。
【選択図】 図1

Description

本発明は、実物体と連動した立体画像を生成する立体画像生成装置、方法およびプログラムに関する。
動画表示が可能な立体視画像表示装置、所謂3次元ディスプレイには、種々の方式が知られている。近年、特にフラットパネルタイプで、且つ、専用の眼鏡等を必要としない方式の要望が高くなっている。直視型或いは投影型の液晶表示装置やプラズマ表示装置などのような画素位置が固定されている表示パネル(表示装置)の直前に表示パネルからの光線を制御して観察者に向ける光線制御素子を設置する方式が比較的容易に実現できる方式として知られている。
この光線制御素子は、一般的にはパララクスバリアまたは視差バリアとも称せられ、光線制御素子上の同一位置でも角度により異なる画像が見えるように光線を制御している。具体的には、左右視差(水平視差)のみを与える場合には、光線制御素子として、スリット或いはレンチキュラーシート(シリンドリカルレンズアレイ)が使用される。また、上下視差(垂直視差)も含める場合には、光線制御素子として、ピンホールアレイ或いはレンズアレイが使用される。
視差バリアを使用する方式には、さらに2眼式、多眼式、超多眼式(多眼式の超多眼条件)、インテグラルフォトグラフィー方式(以下、「IP方式」という)に分類される。これらの基本的な原理は、100年程度前に発明され立体写真に用いられてきたものと実質上同一である。
IP方式でも多眼方式でも、通常は視距離が有限であるため、その視距離における透視投影画像が実際に見えるように表示画像を作成する。水平視差のみで垂直視差のないIP方式(1次元IP方式)では、視差バリアの水平方向ピッチが前記画素の水平方向ピッチの整数倍である場合は平行光線の組があるため(以下、「平行光線1次元IP」という)、垂直方向がある一定視距離の透視投影であり水平方向が平行投影である画像を画素列ごとに分割し、表示面に表示される画像形式である視差合成画像に合成することにより、正しい投影の立体像が得られる(例えば、特許文献1および特許文献2参照)。
多眼方式では、単純な透視投影による画像を分割配置することにより、正しい投影の立体像が得られる。
なお、垂直方向と水平方向で投影方法あるいは投影中心距離を異ならせるような撮像装置は、特に平行投影の場合に被写体と同サイズのカメラあるいはレンズが必要となるため、実現が困難である。したがって、撮像により平行投影データを得るためには、透視投影の撮像データから変換する方法が現実的であり、EPI(エピポーラ面)を用いた補間による方法である光線空間法などが知られている。
これらの光線の再現による立体像の表示を目指す光線再生方式の3次元ディスプレイにおいて、多眼式の場合は視点数、IP方式の場合はディスプレイ面を基底として方向の異なる光線数といった再現する光線の情報を増やすことで高品位な立体映像を再生することが可能である。
特開2004−295013号公報 特開2005−86414号公報
しかしながら、立体映像の生成に必要な処理量は各視点での描画処理、すなわちコンピュータグラフィックス(CG)におけるレンダリングの処理量に依存して変化し、視点数や光線数に比例して増加する。特に、ボリューム感のある映像を立体映像として再現するためには、各視点において、物体を構成する媒質密度を3次元的に定義したボリュームデータのレンダリングが必要になる。一般にボリュームデータのレンダリングにはレイ・キャスティングと呼ばれる光線の追跡と減衰率の計算を光線が通過する全てのボリューム要素に対して行う必要があり、計算処理の負荷が過大となる。
このため、上記の光線再生方式の3次元ディスプレイ上でこのようなボリュームデータのレンダリングを行う場合、視点数、光線数の増加に比例して処理負荷がさらに増大するという問題があった。また、ポリゴンといったサーフェスレベルのモデリング手法と共存しようとした場合も必然的にレイ・トレーシング(光線追跡法)に基づいたレンダリング処理に律速されるため、高速なポリゴン・ベースのレンダリング手法が活かされず、映像生成全体の処理負荷が増大するという問題もあった。
また、実物体と立体的な仮想物体との映像融合やインタラクション・システムについては、ミックスド・リアリティ(MR)やオーグメンティド・リアリティ(AR)あるいはバーチャル・リアリティ(VR)技術などが存在している。これらは大きく2つに大別することができ、実世界映像にCGで作成した虚像を重ね合わせて表示するMR、AR技術と、CAVEシステムに代表されるようにCGで作成した虚像空間に実世界物を介入させるVR技術に大別される。
特に、CGで作成した虚像空間を2眼ステレオ法で再生すれば、CGで再現した仮想物体を実世界物と同じ3次元的位置およびに姿勢で虚像として結像させるシステムを構築することができる。つまり、実物体と仮想物体とで位置や姿勢を合わせ込んだ表示は可能であったが、利用者の視点が移動した場合はその都度映像を再構成して表示する必要があった。さらに利用者の視点に依存した映像効果を再現するためには利用者の位置、姿勢を検出するためのトラッキング・システムが必要となるという問題があった。
本発明は、上記に鑑みてなされたものであって、利用者の行動のトラッキング・システムを必要とせずに実物体の位置、姿勢、形状に応じて変化する立体画像を生成することができるとともに、ボリューム感のある立体画像の生成を処理量を削減して効率的に実現することができる立体画像生成装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる立体画像生成装置は、3次元表示面または該3次元表示面の近傍に配置された実物体の位置または姿勢若しくは形状を検出する検出部と、前記実物体の前記形状と前記位置または前記姿勢とに基づいて、前記実物体が前記3次元表示面により照射された光線を遮蔽する領域である遮蔽領域を算出する遮蔽領域算出部と、前記遮蔽領域に対して、前記遮蔽領域以外の領域と異なる描画処理を行って、立体画像を描画する描画部と、を備えたことを特徴とする。
また、本発明は、上記立体画像生成装置で実行される方法およびプログラムである。
本発明によれば、光線再生方式の立体画像表示装置に表示する立体画像の生成において、利用者の行動のトラッキング・システムを必要とせずに実物体の位置、姿勢、形状に応じて変化する立体画像を生成することができるという効果をそうする。また、本発明によれば、ボリューム感のある立体画像の生成を処理量を削減して効率的に実現することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる立体画像生成装置、方法およびプログラムの最良な実施の形態を詳細に説明する。
(実施の形態1)
図1は、実施の形態1にかかるディスプレイ装置(立体表示装置)の機能的構成を示すブロック図である。本実施の形態にかかる立体ディスプレイ装置100は、図1に示すように、実物体形状指定部101と、実物体位置姿勢検出部103と、遮蔽領域算出部104と、3D画像描画部105とを主に備えている。この他、本実施の形態にかかる立体ディスプレイ装置100は、後述する立体ディスプレイ、メモリやCPU等のハードウェア構成を備えている。
実物体位置姿勢検出部103は、3次元ディスプレイまたは3次元ディスプレイの近傍に配置された実物体オブジェクトの位置や姿勢若しくは形状を検出するものである。実物体位置姿勢検出部103は、位置、姿勢、形状のいずれかを検出する他、位置、姿勢、形状の全てを検出したり、位置、姿勢、形状のいずれか2つの組み合わせを検出するように構成する。なお、実物体位置姿勢検出部103の詳細については後述する。
実物体形状指定部101は、利用者による実物体オブジェクトの形状の指定を受け付ける処理部である。
遮蔽領域算出部104は、実物体形状指定部101によって指定を受け付けた実物体オブジェクトの形状と、実物体位置姿勢検出部103で検出された位置、姿勢、形状とに基づいて、実物体オブジェクトが3次元ディスプレイにより照射された光線を遮蔽する領域である遮蔽領域を算出する処理部である。
3D画像描画部105は、遮蔽領域算出部104によって算出された遮蔽領域に対して、この遮蔽領域以外の領域に対する描画処理と異なる描画処理を行って、視差合成画像を生成することにより立体画像を描画して出力する処理部である。実施の形態1では、3D画像描画部105は、遮蔽領域に対して、遮蔽領域を3次元空間内の各点が有するボリュームデータとして描画する処理を行っている。
まず、本実施の形態にかかるディスプレイ装置100の立体ディスプレイ上に表示される映像の構成方法について説明する。本実施の形態にかかるディスプレイ装置100の立体ディスプレイはn視差の光線を再生できるように設計されている。ここで、本実施の形態では、n=9として説明する。
図2は、実施の形態1にかかる立体ディスプレイ装置100のディスプレイの構造を概略的に示す斜視図である。立体ディスプレイ装置100では、図2に示すように、液晶パネルなどの平面状の視差画像表示部の表示面の前面に、光線制御素子として光学開口が垂直方向に延びるシリンドリカルレンズからなるレンチキュラー板203が配置されている。光学開口が斜めや階段状でなく縦に一直線であるため、立体表示時の画素配列を正方配列にすることが容易である。
表示面には、縦横比が3:1の画素201が、横方向には直線状に1行に並び、各画素201は同一行内で横方向に赤(R)、緑(G)、青(B)が交互に並ぶように配列されている。画素行の縦周期(3Pp)は、画素201の横周期Ppの3倍である。
尚、カラー画像を表示するカラー画像表示装置においては、RGBの3つの画素201で1実効画素、即ち、輝度と色が任意に設定できる最小単位が構成される。RGBのひとつひとつは、一般的にはサブ画素と呼ばれる。
図2に示される表示画面では、9列3行の画素201で1実効画素202(黒枠で示される)が構成される。そして、光線制御素子であるレンチキュラー板203のシリンカドリルレンズは実効画素202のほぼ正面に配置される。
平行光線1次元IP方式では、表示面内に配列されたサブ画素の横周期(Pp)の9倍に等しい水平ピッチ(Ps)である各シリンドリカルレンズが直線状に延在する光線制御素子としてレンチキュラー板203により、表示面に水平に9個おきの画素からの光線が平行光線として再生される。
実際には想定する視点は、表示面から有限な距離に設定するため、立体ディスプレイ装置100の映像を構成するのに必要な同一視差方向の平行光線を構成する組の画素の画像データを集積した各視差成分画像は9枚より多くなる。この視差成分画像から実際に使用される光線が抜き出されることで、立体ディスプレイ装置100に表示する視差合成画像が生成される。
図3は、多眼方式の立体ディスプレイ装置における各視差成分画像と表示面上の視差合成画像との関係の一例を示す模式図である。301が3次元画像表示用の画像であり、303が画像取得位置であり、302は視差画像の中心と画像取得位置の射出瞳とを結ぶ線分である。
図4は、1次元IP方式の立体ディスプレイ装置における各視差成分画像と表示面上の視差合成画像との関係の一例を示す模式図である。401が3次元画像表示用の画像であり、403が画像取得位置であり、402は視差画像の中心と画像取得位置の射出瞳とを結ぶ線分である。
1次元IP方式の立体ディスプレイでは、表示面から特定視距離に配置した立体ディスプレイの設定視差数以上の複数台のカメラで画像の取得を行い(コンピュータグラフィックスではレンダリングを行い)、レンダリングされた画像から立体ディスプレイに必要な光線を抜き出し表示することになる。
また、各視差成分画像から抜き出される光線数は立体ディスプレイの表示面のサイズ、解像度等の他、想定視距離などにより決定される。想定視距離により決定される要素画像幅(9画素幅よりわずかに大きい)については特許文献1、2に記載されている手法と同様な手法を適用することで計算することができる。
図5および6は、視距離が変わった場合に利用者から見える視差画像が変化している状態を示す模式図である。図5,6において、501、601は観察位置から視認されう視差画像の番号である。図5および6に示すように、視距離が変化した場合には、観察位置から視認される視差画像が異なることがわかる。
各視差成分画像は、垂直方向が想定視距離あるいはその近傍の視距離に対応した透視投影であり、かつ水平方向が平行投影である画像であることが標準であるが、垂直方向および水平方向とも透視投影であってもよい。すなわち、光線再生方式に関わる立体ディスプレイ装置における映像の生成処理は再現する光線情報への変換さえできれば、必要十分な台数のカメラで撮像あるいは描画処理を行えば良いことになる。
以下の実施の形態にかかる立体ディスプレイ装置の説明では、立体画像の表示に必要かつ十分な光線の取得が可能なカメラ位置と台数の算出ができていることを前提として説明する。
次に、実物体位置姿勢検出部103の詳細について説明する。なお、本実施の形態では、実物体オブジェクトとして透明なカップを例にあげて、この透明なカップと連動した立体画像の生成処理について説明を行う。すなわち、平置き型立体ディスプレイ上に立体表示された複数の仮想オブジェクトであるぺんぎんを実物体オブジェクトである透明なカップで覆うことで、仮想オブジェクトの行動を制御するアプリケーションである。具体的には仮想オブジェクトであるぺんぎんは自律的に立体ディスプレイ上を動き、トマト弾を発射している。利用者は透明カップによりぺんぎんを覆うことでトマト弾が透明カップの表面に衝突し、ディスプレイ面に落ちないようにすることが出来る。
図8は、実物体位置姿勢検出部103の構成および位置姿勢検出の方法を示す説明図である。実物体位置姿勢検出部103は、図8に示すように、ディスプレイ面703の上部左右に設けられ、赤外光を発光する赤外発光部Lおよび赤外発光部Rと、ディスプレイ面703の左右両側面および下面に設けられ、赤外光を反射する再帰性反射シート(不図示)と、ディスプレイ面703の上部左右の赤外発光部Lおよび赤外発光部Rの位置に設けられ、再帰性シートにより反射した赤外光を受光するためのエリアイメージセンサLおよびエリアイメージセンサRと、を備えている。
図7は、透明カップ705を立体ディスプレイ702のディスプレイ面703に載置した状態を示す模式図である。図7において、701は視点を示している。このようにディスプレイ面703上の実物体オブジェクトである透明カップ705の位置を検出するには、赤外発光部L,Rから照射された赤外光が実物体オブジェクトである透明カップ705に遮蔽されて再帰性反射シートによって反射されずエリアイメージセンサL,Rに到達しない領域802,803をそれぞれ計測する。これにより、透明カップ705の中心位置を算出することが可能となる。この実物体位置姿勢検出部103では、ディスプレイ面703の上部のある一定の厚みに存在する実物体オブジェクトしか検出できないが、かかる赤外発光部L,R、エリアイメージセンサL,R、再帰性シートの構成をディスプレイ面703の上部に層状に配置してそれぞれの検出結果を利用することにより、実物体オブジェクトを検出可能な高さ領域を拡げることもできる。また、図8に示すように、赤外発光部L,R、エリアイメージセンサL,R、再帰性シートと同じ高さの透明カップ705の表面にマーカ801(すりガラス状の不透明加工)を施しておくことで、透明カップ本来の透明性を活かしながらエリアイメージL,Rの検出精度を向上させることができる。
次に、以上のように構成された本実施の形態にかかる立体ディスプレイ装置100による立体画像生成処理について説明する。図9は、実施の形態1にかかる立体画像生成処理の手順を示すフローチャートである。
まず、実物体位置姿勢検出部103により、上述の手法で実物体オブジェクトの位置や姿勢を検出する(ステップS1)。そして、これと同時に、実物体形状指定部101により、利用者から実物体オブジェクトの形状の指定入力を受け付ける(ステップS2)。
例えば、実物体オブジェクトは図7に示す透明カップ705の場合には、透明カップ705の外形である半球状(おわん型)の3次元形状を利用者が指定入力し、かかる3次元形状の入力を実物体形状指定部形状指定部101で受付ける。仮想シーンにおけるディスプレイ面703、透明カップ705、および仮想物体の3次元スケールを実際のディスプレイ面703のサイズと合わせ込んでおくことにより、実物体の透明カップと仮想物体として立体表示されるカップの位置、姿勢を一致させることが可能となる。
次に、遮蔽領域算出部104により遮蔽領域の算出処理を行う。かかる処理としては、まず2次元遮蔽領域の検出を行う(ステップS3)。すなわち、各カメラから実物体形状指定部101で入力された実物体オブジェクトのみのレンダリング処理を行うことで、実物体オブジェクトがカメラ視点701から見た場合に遮蔽される2次元の遮蔽領域を検出する。
ここで、描画された画像中の実物体オブジェクトの領域が、視点701から見たときの2次元的な遮蔽領域となる。遮蔽領域に含まれる画素はディスプレイ702から照射される光線に対応するため、かかる2次元遮蔽領域の検出処理はディスプレイ面703から照射される光線情報のうち、実物体オブジェクトによって遮蔽される光線情報と遮蔽されない光線情報とを区別することである。
そして、次に、奥行き方向の遮蔽領域の算出を行う(ステップS4)。すなわち、奥行き方向の遮蔽領域の算出は、以下のように行われる。
まず、カメラ位置から見て手前にある面について視点701からの距離に相当するZバッファ値をカメラから実物体オブジェクトまでの距離としてフレームバッファと同じ画像サイズのバッファに実物体オブジェクト表面奥行き情報Zobj_frontとして保存する。
カメラ位置から見た前面、後面の判定は視点から注目ポリゴンに引いたベクトルとポリゴン法線との内積を取ることで判定することができ、この内積値が正の場合はそのポリゴンは表面、負の場合はそのポリゴンは裏面を向いていると判定する。同様に視点から見て後ろにある面についても視点からの距離値としてレンダリング処理時のZバッファ値をオブジェクト裏面奥行き情報Zobj_backとしてメモリに保存する。
次にシーンを構成するオブジェクトのみのレンダリングを行う。ここで、レンダリング後の画素値をCsceneとする。同時に視点からの距離に相当するZバッファ値を仮想オブジェクト奥行き情報Zsceneとしてメモリに保存する。さらにディスプレイ面703に相当する矩形領域をレンダリングし、そのレンダリング処理結果をディスプレイ面奥行き情報Zdispとしてメモリに保存する。次に、Zobj_backかZdisp、あるいはZsceneのうち最も手前にあるZ値を奥の遮蔽領域境界Zfarとする。最終的に実物体オブジェクトおよびにディスプレイ面703とで遮蔽される奥行き方向の領域を示すベクトルZvを(1)式により算出する。
Zv=Zobj_front−Zfar ・・・(1)
この奥行き方向の領域は、この視点における2次元遮蔽領域内に含まれる全画素において個別に求めることができる。
次に、3D画像描画部105によって、画素が遮蔽領域に含まれるか否かを判断する(ステップS5)。そして、遮蔽領域に含まれる場合には(ステップS5:Yes)、当該画素について、遮蔽領域中の画素をボリュームデータとして描画するボリューム効果のレンダリング処理を行う(ステップS6)。かかるボリューム効果のレンダリング処理は、(2)式により、遮蔽領域の効果を考慮して決定される最終的な画素値Cfinalを算出することにより行われる。
Cfinal=Cscene*α*(Cv*Zv) ・・・(2)
ここで、「*」は乗算を示す。また、Cvは、遮蔽領域のボリュームを表現する際に利用するカラー情報(R,G,Bを要素とするベクトル)である。αは、Zバッファ値の正規化とボリュームデータの効果を調整するためのパラメータ(スカラー値)である。
なお、画素が遮蔽領域に含まれない場合には(ステップS5:No)、かかるボリューム効果のレンダリングは行われない。これにより、遮蔽領域と遮蔽領域以外の領域について異なる描画処理を行っていることになる。
次に、カメラの全視点で上記処理が実行されたか否かを判断する(ステップS7)。そして、カメラの全視点で実行されていない場合には(ステップS7:No)、次のカメラ視点に対して、上述の2次元遮蔽領域の検出からボリューム効果のレンダリングまでの処理(ステップS3〜S7)を繰り返し実行する。
一方、ステップS7において、カメラの全視点で処理を実行した場合は(ステップS7:Yes)、レンダリング結果を立体ディスプレイに必要な視差合成画像に変換して生成することにより立体ディスプレイ装置100で表示する画像を生成する(ステップS8)。
以上のような処理によって、例えば、実物体オブジェクトが図7に示す透明カップ705である場合には、透明カップがディスプレイ上に配置された場合に、カップ内部が特定の色を有するボリューム画像に変換して表示され、カップの存在や中身の様子がより把握しやすくなる。図10は、透明カップにボリューム効果を与えた場合の立体画像の表示例を示す説明図である。図10の1001に示すように、実物体オブジェクトである透明カップによる遮蔽領域にボリューム効果が施されていることがわかる。
なお、透明カップのある3次元領域に映像効果を付加するだけの目的であれば、視点画像ごとに2次元遮蔽領域に含まれる画素ごとに、ステップS4の奥行き方向遮蔽領域の検出処理を行わず、ボリューム効果を表現するカラーを仮想オブジェクトで構成されるシーンのレンダリング後に積算することにより、遮蔽領域をボリュームデータとして描画しボリューム効果を施すように構成してもよい。
なお、上述した3D画像描画部105では、実物体オブジェクトによる遮蔽領域をボリュームデータとして描画してボリューム効果を施していたが、実物体オブジェクトの周辺領域をボリュームデータとして描画するように構成してもよい。
この場合には、3D画像描画部105によって、実物体形状指定部101により入力された実物体形状を3次元的に拡大し、拡大した形状を実物体オブジェクトの形状とする。そして、拡大部分をボリュームデータとして描画することにより、実物体オブジェクトの周辺領域にボリューム効果を施すことができる。
図11は、実物体オブジェクトの周辺領域をボリュームデータとして描画する例を示す説明図である。例えば、実物体オブジェクトが図7に示す透明カップである場合には、図11に示すように、実物体オブジェクトである透明カップの形状を3次元的に拡大し、拡大部分である周辺領域1101がボリュームデータとして描画されることになる。
また、実物体オブジェクトとすて円筒形状の実物体を用い、この円筒形状の中空部分をボリュームデータとして描画するように3D画像描画部105を構成してもよい。この場合には、実物体形状指定部101により、円筒の上面の高さを縮小して上下面の閉じた円柱として指定を受け付ける。そして、3D画像描画部105によって、円筒形状の中空部分をボリュームデータとして描画する。
図12は、円筒形状の実物体オブジェクトの中空部分をボリュームデータとして描画する例を示す説明図である。図12に示すように、中空部分1201をボリュームデータとして描画することにより、水のボリューム感を映像化することが可能となる。また、図13に示すように、円筒形状の中空部内に仮想オブジェクトである金魚を自律的に泳がせるように描画することにより、あたかも円筒の内部に流体を張った水槽に金魚がいるかのように利用者に視認することが可能となる。
このように実施の形態1にかかる立体ディスプレイ装置100では、光線再生方式に基づく立体ディスプレイ装置において注目したい空間中の領域を実物体オブジェクトで指定することができ、映像効果を利用者の視点に依存せず効率良く生成処理することができる。このため、本実施の形態によれば、利用者の行動のトラッキング・システムを必要とせずに実物体の位置、姿勢、形状に応じて変化する立体画像を生成することができるとともに、ボリューム感のある立体画像の生成を処理量を削減して効率的に実現することができる。
(実施の形態2)
実施の形態2にかかる立体ディスプレイ装置は、さらに実物体オブジェクトの属性を入力して、入力した属性に基づいて遮蔽領域の描画処理を行うものである。
図14は、実施の形態2にかかる立体ディスプレイ装置の機能的構成を示すブロック図である。本実施の形態にかかる立体ディスプレイ装置1400は、図14に示すように、実物体形状指定部101と、実物体位置姿勢検出部103と、遮蔽領域算出部1404と、3D画像描画部1405と、実物体属性指定部1406とを主に備えている。この他、本実施の形態にかかる立体ディスプレイ装置1400は、立体ディスプレイ、メモリやCPU等のハードウェア構成を備えている。
ここで、実物体形状指定部101、実物体位置姿勢検出部103については実施の形態1と同様の機能および構成である。
実物体属性指定部1406は、実物体オブジェクトの属性として、実物体オブジェクトの厚み、透明度、色の少なくともいずれかの利用者の入力を受け付ける処理部である。
3D画像描画部1405は、実物体形状指定部101によって受け付けた形状と実物体属性指定部1406によって受け付けた実物体の属性に基づいて、遮蔽領域に対し表面効果を付与する描画処理を行って視差合成画像を生成する処理部である。
次に、実施の形態2の立体ディスプレイ装置1400による立体画像生成処理について説明する。図15は、実施の形態2にかかる立体画像生成処理の手順を示すフローチャートである。ステップS11〜S14における実物体位置の検出、実物体の形状の指定受付および2次元遮蔽領域の検出、奥行き方向遮蔽領域の検出処理は、実施の形態1と同様に行われる。
実施の形態2では、実物体属性指定部1406によって、実物体オブジェクトの厚み、透明率、色等を利用者に指定させ、かかる属性の指定を受け付ける(ステップS16)。そして、実施の形態1と同様に、3D画像描画部1405によって、画素が遮蔽領域に含まれるか否かを判断する(ステップS15)。そして、遮蔽領域に含まれる場合には(ステップS15:Yes)、当該画素について、実物体の属性、形状を参照して、遮蔽領域中の画素に対して表面効果を付与するレンダリング処理を行う(ステップS17)。
ステップS13の2次元遮蔽領域の検出処理において、各視点における実物体オブジェクトで遮蔽される画素の情報が特定されている。各画素と光線情報との対応関係はカメラ地点とディスプレイ面との関係によって1対1で一意に決定することができる。図16は、各画素と光線情報との対応関係を示すために平置型の立体ディスプレイ702を斜め上方60度から眺めた場合の視点701とディスプレイ面703、およびに遮蔽する実物体オブジェクト1505との関係を示す模式図である。
表面効果のレンダリング処理では、ステップS13で求めた遮蔽領域の画素に対応する光線ごとに実物体オブジェクトとの相互作用に関する効果のレンダリングを行う。具体的には、実物体オブジェクトの表面効果を考慮に入れて最終的に決定される視点画像の画素値Cresultを、(3)式で算出する。計算することが出来る。
Cresult=Cscene*Cobj*β*(dobj*(2.0−Nobj・Vcam)) ・・・(3)
ここで、「*」は乗算を示し、「・」は内積を示している。また、Csceneは、実物体オブジェクトを除いたレンダリング結果の画素値、Cobjは、実物体属性指定部1406で入力された実物体オブジェクトを構成する媒体の色(R,G,Bを要素とするベクトル)、dobjは、実物体属性指定部1406で入力された実物体オブジェクトの厚み、Nobjは、実物体オブジェクト表面の正規化法線ベクトル、Vcamは、カメラ視点701から実物体オブジェクト表面へ向かう正規化視線方向ベクトルであり光線ベクトルに相当する。βは映像効果の強度を指定する係数である。
正規化視線方向ベクトルVcamは、光線ベクトルに相当するため、実物体オブジェクト表面に対して斜めから入射する光線については実物体オブジェクト表面の属性、例えば厚みをより考慮した映像効果を付加することができる。このため、実物体オブジェクトが透明かつ厚みのあることをより強調することが可能となる。
また、実物体オブジェクトの表面のざらつきを描画する場合には、バンプマップや法線マップのようなマップ情報を、実物体オブジェクトの属性として実物体属性指定部1406により指定し、3D画像描画部1405による描画処理時に、実物体オブジェクト表面の正規化法線ベクトルを効率的に制御することにより、表面のざらつきを表現することも可能である。
カメラ視点に関する情報は、立体ディスプレイ702のみに依存して決定されるため、利用者の状況に依存せず、利用者の視点を考慮することなく実物体オブジェクトの有する視点依存な表面特性を立体画像として描画することができる。
例えば、3D画像描画部1405によって、実物体オブジェクトの表面効果としてハイライト表示を行うことができる。金属や透明物体の表面に現れるハイライトは、視点に依存して変化することが知られているが、これらの効果も上記の光線単位に、実物体オブジェクト表面の正規化法線ベクトルNobjと正規化視線方向ベクトルVcam(光線ベクトル)とに基づいて視点画像の画素値Cresultを求めて描画することができる。
また、実物体オブジェクトそのものに写りこんだハイライトに立体映像を多重化することでハイライトの形状をぼかし、実物体の素材特性を変えて見せたり、実物体にはなかったハイライトを新たに立体映像として多重化することで、仮想の光源や周囲の状況を可視化したりすることも可能である。
さらに、3D画像描画部1405によって、実物体オブジェクトには存在しない仮想のひび割れなどを立体画像として合成することもできる。例えば、実物体オブジェクトとしての厚みのあるガラスにひび割れが発生した場合、見る位置によってひび割れの見え方は変化するが、ひび割れに伴う効果によって生じるカラー情報Ceffectを、(4)式により求めて、ひび割れの映像効果を遮蔽領域に付与して描画することができる。
Ceffect=γ*Ccrack*|Vcam×Vcrack| ・・・(4)
ここで、「*」は乗算を示し、「×」は外積を示している。このCeffectを、視点画像上の画素と合成することにより、ひび割れ効果の含まれた最終的な画素情報となる。Ccrackは、ひび割れの映像効果に利用するカラー値であり、Vcamはカメラ視点から実物体オブジェクト表面へ向かう正規化視線方向ベクトルであり、Vcrackはひび割れの方位を示す正規化ひび方向ベクトルであり、γは映像効果の強度を調整するパラメータである。
加えて、実物体オブジェクトである透明カップにトマト弾がぶつかった場合における砕けた映像の表現においても、砕けたトマト弾をテクスチャとして視点や光源に依存したテクスチャ・マッピング手法を適用することで、立体ディスプレイ上でリアルな効果を再現することができる。
このテクスチャ・マッピングの手法について説明する。3D画像描画部1405は、描画時の視点位置及び光源位置に応じてポリゴン表面のテクスチャ成分を表現した関数であるBTF(Bidirectional Texture Function)に基づいてテクスチャ画像を切り替えてマッピングを行う。
BTFでは、視点位置、光源位置の指定に、図17に示したモデル表面上の撮像対象を原点とした球座標系を用いる。図17は、視点位置及び光源位置に依存したテクスチャ・マッピングを行う場合に使用する球座標系を示した図である。
視点が無限遠、光源が平行光源であるとすると、図17に示すように、視点位置を(θe,φe)、光源位置を(θi,φi)と表現することができる。ここで、θe及びθiは経度方向、φe及びφiは緯度方向の角度を表している。この場合、テクスチャアドレスは以下のように6次元で定義することができる。すなわち、例えば、テクセルは、6つの変数により
T(θe, φe, θi, φi, u, v) (ただし、u,v はテクスチャ内アドレスを示す)
と表現される。実際には、特定の視点、光源で取得した複数のテクスチャ画像を集積しておくことで、テクスチャの切り替えとテクスチャ内アドレスの組合せによってテクスチャを表現することができる。このようなテクスチャのマッピングを高次元テクスチャ・マッピングと呼ぶ。
3D画像描画部1405によるテクスチャ・マッピングの処理は以下のように行われる。まず、モデル形状データを入力して、このモデル形状データから描画プリミティブへの分割を行う。すなわち、この分割動作は描画処理の単位に分割することであり、基本は3頂点で構成されるポリゴン単位で分割処理を行うことになる。ここで、ポリゴンは3頂点で囲われる面情報であり、ポリゴン内部を描画処理することになる。
次に、ある描画プリミティブ単位にテクスチャ投影座標系の計算を行う。すなわち、この描画プリミティブを構成する、3次元座標で表現される3頂点からなる平面上へ、テクスチャを定義する2次元座標系のu軸、v軸をそれぞれ投影した場合の投影座標系のベクトルU及びベクトルVを算出する。さらに、3頂点からなる平面に対する法線を算出する。投影座標系のベクトルU及びベクトルVを求める具体的な手法は後に図18を参照して説明する。
次に、算出された投影座標系のベクトルU、ベクトルV、及び法線を入力し、さらに視点位置及び光源位置を入力して、視点方位及び光源方位(方位パラメータ)の計算を行い、この描画プリミティブに対する視点及び光源の相対方位を求める。
具体的には、緯度方向の相対方位φは法線ベクトルNと方位ベクトルDから以下のように求めることができる。すなわち、緯度方向の相対方位φは、
φ = arccos(D・N/(|D|*|N|))
である。ここで、D・NはベクトルDとベクトルNの内積を示す。また、「*」は乗算を示す。一方、経度方向の相対方位θの算出方法は後に図19を参照して説明する。
次に、算出された視点及び光源の相対方位に基づいて、描画テクスチャの生成を行う。この描画テクスチャの生成は、描画プリミティブに貼り付けるテクスチャを事前に描画しておくための処理である。視点及び光源の相対方位に基づきメモリ等に格納されているテクスチャからテクセル情報を取得する。テクセル情報を取得することは、特定の撮影条件で取得したテクスチャ要素を描画プリミティブに対応するテクスチャ座標空間に割り当てることである。この相対方位とテクスチャ要素の取り出し処理は視点あるいは光源ごとに行えば良く、複数の視点あるいは複数の光源が存在する場合も同様に求めていくことができる。
以上の処理を、取得した全描画プリミティブに対して処理を繰り返す。その後、全プリミティブの描画が終了した段階で、描画した各テクスチャをモデルの対応する箇所にマッピングする。
投影座標系のベクトルU及びベクトルVを求める具体的な手法を図18を参照して説明する。
描画プリミティブを構成する3頂点の3次元座標及びテクスチャ座標を、
頂点P0:3次元座標(x0, y0, z0),テクスチャ座標(u0, v0)
頂点P1:3次元座標(x1, y1, z1),テクスチャ座標(u1, v1)
頂点P2:3次元座標(x2, y2, z2),テクスチャ座標(u2, v2)
と定義する。このように定義すると、この描画プリミティブを構成する、3次元座標で表現される3頂点からなる平面上へ、テクスチャを定義する2次元座標系のu軸、v軸をそれぞれ投影した場合の投影座標系のベクトルU=(ux, uy, uz)及びベクトルV=(vx, vy, vz)は、以下の関係式により算出することができる。すなわち、
P2 − P0 = (u1 − u0) * U + (v1 − v0)* V、
P1 − P0 = (u2 − u0)* U + (v2 − v0)* V、
ここで、P0=(x0, y0, z0)、P1=(x1, y1, z1)、P2=(x2, y2, z2)であるので、この2つの関係式をux, uy, uz及びvx, vy, vzについて解いて投影座標系のベクトルU及びベクトルVを求めることができる。すなわち、
ux = idet * (v20 * x10 − v10 * x20)、
uy = idet *(v20 * y10 − v10 * y20)、
uz = idet *(v20 * z10 − v10 * z20)、
vx = idet * (−u20 * x10 + u10 * x20)、
vy = idet *(−u20 * y10 + u10 * y20)、
vz = idet *(−u20 * z10 + u10 * z20)、
ただし、
v10 = v1 − v0、
v20 = v2 − v0、
x10 = x1 − x0、
x20 = x2 − x0、
y10 = y1 − y0、
y20 = y2 − y0、
z10 = z1 − z0、
z20 = z2 − z0、
det = u10*v20 − u20*v10、
idet = 1/det
である。また、法線は、3つの頂点の座標からこれらの頂点が形成する平面上の2つの独立なベクトルの外積を計算することにより容易に求めることができる。
次に、経度方向の相対方位θを求める具体的な手法を図19を参照して説明する。 まず、視点あるいは光源の方位ベクトルをモデル平面に投影したベクトルBを求める。視点あるいは光源の方位ベクトルをD=(dx, dy, dz)、モデル平面の法線ベクトルをN=(nx, ny, nz)、方位ベクトルDをモデル平面に投影したベクトルB=(bx, by, bz)は以下の関係式から求めることができる。すなわち、
B = D − (D・N)*N
であり、この関係式を成分表示すれば、
bx = dx − αnx
by = dy − αny
bz = dz − αnz
である。ただし、α=dx * nx + dy*ny + dz * nz、法線ベクトルNは単位ベクトルとする。
視点あるいは光源の方位ベクトルをモデル平面に投影したベクトルBと、ステップS302で求めた投影座標系のベクトルU及びベクトルVとから視点及び光源の相対方位を以下のように求めることができる。
まず、ベクトルUとベクトルVのなす角度λと、ベクトルUとベクトルBのなす角度θをそれぞれ以下の方程式により求める。すなわち、
λ=arccos(U・V/(|U|*|V|))
θ=arccos(U・B/(|U|*|B|))
から求めることができる。もし、投影座標系に歪みがなければUとVは直交、つまりλはπ/2(90度)になるが、投影座標系に歪みがあるとλはπ/2以外の値を取る。ところが、テクスチャを取得する際には直交した座標系での相対的な方位で視点及び光源の方位を特定しているため、投影座標系に歪みがある場合は補正が必要となってくる。したがって、投影したUV座標系に合わせて視点及び光源の相対方位角度を適切に補正すればよい。すなわち、補正後の相対方位θ’は以下の関係式、
θ < π かつθ < λ の場合、
θ’= (θ/λ)* π/2
θ < π かつθ > λ の場合、
θ’= π−((π−θ)/(π−λ))* π/2
θ > π かつθ < π+λ の場合、
θ’= (θ−π)/λ * π/2 +π
θ > π かつθ > π+λ の場合、
θ’= 2π−((2π−θ)/(π−λ))* π/2
により求めることができる。以上の処理により、描画プリミティブに対する視点及び光源の経度方向の相対方位を求めることができる。
以上の処理により、3D画像描画部1405は、遮蔽領域にテクッスチャ・マッピングを描画している。このような処理によって、実物体オブジェクトである透明カップの表面にトマト弾があたり砕けた映像効果の具体例を図20に示す。2001が遮蔽領域であり、かかる遮蔽領域の表面にトマト弾があたって砕けた映像効果が描画されていることがわかる。
また、3D画像描画部1405は、遮蔽領域に対してレンズ効果やズーム効果を描画することもできる。例えば、実物体オブジェクトとして板を使用し、実物体属性指定部1406によって実物体オブジェクトである板の屈折率、ズーム率、色などを指定する。
3D画像描画部1405では、仮想オブジェクトのみのレンダリングした画像を、ステップS13の2次元遮蔽領域の検出処理で検出した遮蔽領域の中央を中心して拡大縮小し、遮蔽領域をマスクとして切り出すことにより、実物体オブジェクト越しに見えるシーンの拡大縮小を実現することができる。
ここで、仮想シーンのレンダリング画像を拡大縮小する際に基準となる中心は、実物体オブジェクトに設定したズーム中心(3次元的に定義する)と視点を通る直線がディスプレイ面703とぶつかる画素を中心とすることで、実物体オブジェクトを虫メガネのように見立てたデジタルズーム効果を再現することが可能となる。
図21は、平置き型立体ディスプレイと板との関係を示す模式図である。図21に示すように、同時に実物体オブジェクトの存在する空間に虫メガネを示す仮想オブジェクトを立体映像として重ね合わせることもでき、これにより、立体画像の臨場感を向上させることができる。
また、実物体形状指定部101によって、実物体オブジェクトである板として詳細な3次元レンズの形状(凹レンズや凸レンズなどの形状)を指定し、かつ実物体属性指定部1406によって、実物体オブジェクトの属性として屈折率を指定することにより、画素位置で定義付けられた光線ごとにに光線の屈折シミュレーションを行い、光線追跡法に基づく仮想オブジェクトのレンダリングを行うように3D画像描画部1405を構成してもよい。
さらに、3D画像描画部1405を、実物体オブジェクトを配置することで、仮想オブジェクトの断面図を視認できるように描画するように構成することもできる。一例として、実物体オブジェクトとして透明な板を使用した場合について説明する。図22は、平置き型立体ディスプレイ702と板2205と仮想オブジェクトである筒状の物体2206との関係を示す模式図である。
より具体的には、図23に示すように、板2205の両側に検出用のマーカ2301a,2301b(すりガラス状の不透明加工)を線状に施す。そして、実物体位置姿勢報検出部103を、赤外発光部L,RおよびエリアイメージセンサL,Rを少なくとも2個、ディスプレイ面の高さ方向に層状に配置して構成する。これにより、実物体オブジェクトである板2205の位置、姿勢、形状の検出を行うことが可能となる。
すなわち、このように構成した実物体位置姿勢報検出部103によって、2つのマーカ2301a,2301bの位置の検出を実施の形態1と同様に行う。そして、実物体位置姿勢報検出部103の各赤外発光部L,RおよびエリアイメージセンサL,Rで検出された検出結果の中から対応するマーカ位置を取得することにより、板2205の3次元的な形状および姿勢を同定することができる。すなわち、板2305の姿勢と形状は、2302に示すように同定することができる。なお、マーカの数を増加することにより、より正確に板2305の形状を算出することが可能となる。
また、遮蔽領域算出部1404は、ステップS14の奥行き方向の遮蔽領域の検出処理において、実物体オブジェクトによる仮想物体の切断領域の判定を行うように構成する。具体的には、仮想物体の切断領域判定は、実物体オブジェクトの奥行き情報Zobjと視点に対する仮想オブジェクトの表面奥行き情報Zscene_near、仮想オブジェクトの裏面奥行き情報Zscene_farとの関係において、ZobjがZscene_nearとZscene_farとの間に含まれているかどうかを判定するように遮蔽領域算出部1404を構成する。なお、視点から見た奥行き情報の算出処理では、実施の形態1と同様に、レンダリングにより生成されるZバッファ値を用いる。
そして、3D画像描画部1405では、切断領域の判定結果である切断領域に含まれる画素について、ボリュームデータとして描画するレンダリング処理を行う。この時点で切断領域の情報としては各視点から見た場合の2次元的な配置、すなわち光線情報と視点からの奥行き距離が算出されているため、3次元的な切断面の情報が得られており、ボリュームデータの参照が可能である。ボリュームデータのレンダリング時に、切断領域に含まれる画素の輝度値を高く設定することで、切断領域に含まれていない画素と容易に識別できるように構成してもよい。
ボリュームデータとしてスカラー値でなくベクトル値を扱ったテンソルデータは脳内の血流の可視化などで活用されてきている。このようなデータを扱った場合、切断面のボリューム要素としてベクトル情報をレンダリングする手法として異方性レンダリング手法を利用することができる。例えば、髪の毛などのレンダリングに利用される異方性のある反射輝度分布特性をマテリアルとして持たせ、ボリュームデータであるベクトル情報とカメラからの視点情報に基づいて方向依存なレンダリングを行うものである。利用者は、頭部を動かすことにより、ボリュームデータの切断形状だけでなく、ベクトルの向きを明るさや色の変化として知覚することが可能になる。ここで、実物体形状指定部101によって厚みのある実物体オブジェクトを指定することにより、切断面の形状が平面でなく、立体になるため、より効率良くテンソルデータの可視化を行うことができる。
実物体オブジェクトを通して視認できる仮想オブジェクトのシーンは、視点に依存して変化するため、従来は、同様な映像効果を実現するために利用者の視点のトラッキングが必要であったが、実施の形態2にかかる立体ディスプレイ装置1400では、実物体オブジェクトの属性の指定を受け付けて、指定された属性、形状や姿勢に基づいて遮蔽領域に対して各種表面効果を付与する描画処理を行って視差合成画像を生成するので、利用者の行動のトラッキング・システムを必要とせずに実物体の位置、姿勢、形状に応じて変化する立体画像を生成することができ、表面効果が現実的に表現された立体画像の生成を、処理量を削減して効率的に実現することができる。
すなわち、本実施の形態によれば、立体画像の構成に必要なカメラ視点ごとにあらかじめ実物体オブジェクトで遮蔽される遮蔽領域およびに実物体オブジェクトを通して見える仮想シーンの特定とレンダリングができるため、利用者の視点のトラッキングに依存せず、立体画像が生成でき、さらに立体ディスプレイ上で正確な立体映像を再現することが可能となる。
なお、実施の形態1および2にかかる立体ディスプレイ装置で実行される立体画像生成プログラムは、ROM等に予め組み込まれて提供される。
実施の形態1および2にかかる立体ディスプレイ装置で実行される立体画像生成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、実施の形態1および2にかかる立体ディスプレイ装置で実行される立体画像生成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、実施の形態1および2にかかる立体ディスプレイ装置で実行される立体画像生成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
実施の形態1および2にかかる立体ディスプレイ装置で実行される立体画像生成プログラムは、上述した各部(実物体位置姿勢検出部、実物体形状指定部、遮蔽領域算出部、3D画像描画部、実物体属性指定部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから立体画像生成プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、実物体位置姿勢検出部、実物体形状指定部、遮蔽領域算出部、3D画像描画部、実物体属性指定部が主記憶装置上に生成されるようになっている。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
実施の形態1にかかるディスプレイ装置の機能的構成を示すブロック図である。 実施の形態2にかかる立体ディスプレイ装置100のディスプレイの構造を概略的に示す斜視図である。 多眼方式の立体ディスプレイ装置における各視差成分画像と表示面上の視差合成画像との関係の一例を示す模式図である。 1次元IP方式の立体ディスプレイ装置における各視差成分画像と表示面上の視差合成画像との関係の一例を示す模式図である。 視距離が変わった場合に利用者から見える視差画像が変化している状態を示す模式図である。 視距離が変わった場合に利用者から見える視差画像が変化している状態を示す模式図である。 透明カップ705を立体ディスプレイ702のディスプレイ面703に載置した状態を示す模式図である。 実物体位置姿勢検出部のハードウェア構成を示す説明図である。 実施の形態1にかかる立体画像生成処理の手順を示すフローチャートである。 透明カップにボリューム効果を与えた場合の立体画像の表示例を示す説明図である。 実物体オブジェクトの周辺領域をボリュームデータとして描画する例を示す説明図である。 円筒形状の実物体オブジェクトの中空部分をボリュームデータとして描画する例を示す説明図である。 円筒形状の中空部内に仮想オブジェクトである金魚を自律的に泳がせるように描画した例を示す説明図である。 実施の形態2にかかる立体ディスプレイ装置の機能的構成を示すブロック図である。 実施の形態2にかかる立体画像生成処理の手順を示すフローチャートである。 各画素と光線情報との対応関係を示すために平置型の立体ディスプレイ702を斜め上方60度から眺めた場合の視点701とディスプレイ面703、およびに遮蔽する実物体オブジェクト1505との関係を示す模式図である。 視点位置及び光源位置に依存したテクスチャ・マッピングを行う場合に使用する球座標系を示した説明図である。 投影座標系のベクトルU及びベクトルVを求める具体的な手法を示す説明図である。 経度方向の相対方位θを求める具体的な手法を示す説明図である。 実物体オブジェクトである透明カップの表面にトマト弾があたり砕けた映像効果の具体例を示す説明図である。 平置き型立体ディスプレイと板との関係を示す模式図である。 平置き型立体ディスプレイ702と板2205と仮想オブジェクトである筒状の物体2206との関係を示す模式図である。 板の両側に検出用のマーカ2301a,2301b(すりガラス状の不透明加工)を線状に施して板の形状と姿勢の検出することを示す説明図である。
符号の説明
100,1400 立体ディスプレイ装置
101 実物体形状指定部
103 実物体位置姿勢報検出部
104,1404 遮蔽領域算出部
105,1405 3D画像描画部
1406 実物体属性指定部
701 視点
702 平置き型立体ディスプレイ
703 ディスプレイ面

Claims (16)

  1. 3次元表示面または該3次元表示面の近傍に配置された実物体の位置または姿勢若しくは形状を検出する検出部と、
    前記実物体の前記形状と前記位置または前記姿勢とに基づいて、前記実物体が前記3次元表示面により照射された光線を遮蔽する領域である遮蔽領域を算出する遮蔽領域算出部と、
    前記遮蔽領域に対して、前記遮蔽領域以外の領域と異なる描画処理を行って、立体画像を描画する描画部と、
    を備えたことを特徴とする立体画像生成装置。
  2. 前記実物体の前記形状の指定する形状指定部
    を更に備えたことを特徴とする請求項1に記載の立体画像生成装置。
  3. 前記描画部は、前記遮蔽領域を3次元空間内のボリュームデータとして描画することを特徴とする請求項2に記載の立体画像生成装置。
  4. 前記描画部は、前記遮蔽領域にある前記実物体の周辺の領域を3次元空間内のボリュームデータとして描画することを特徴とする請求項2に記載の立体画像生成装置。
  5. 前記描画部は、前記遮蔽領域にある前記実物体の中空部分の領域を3次元空間内のボリュームデータとして描画することを特徴とする請求項2に記載の立体画像生成装置。
  6. 前記実物体の属性の指定を受け付ける属性指定部を更に備え、
    前記描画部は、さらに、指定された前記属性に基づいて前記遮蔽領域に対する描画処理を行って、前記視差合成画像を生成することを特徴とする請求項2に記載の立体画像生成装置。
  7. 前記属性は、前記実物体の厚み、透明度、色彩の少なくともいずれかであることを特徴とする請求項6に記載の立体画像生成装置。
  8. 前記描画部は、前記指定を受け付けた前記形状に基づいて、前記遮蔽領域に対する描画処理を行って、前記立体画像を描画することを特徴とする請求項6に記載の立体画像生成装置。
  9. 前記描画部は、指定された前記属性に基づいて前記遮蔽領域に対し表面効果を付与する描画処理を行って、前記立体画像を描画することを特徴とする請求項7に記載の立体画像生成装置。
  10. 前記描画部は、指定された前記属性に基づいて前記遮蔽領域に対しハイライト効果を付与する描画処理を行って、前記立体画像を描画することを特徴とする請求項7に記載の立体画像生成装置。
  11. 前記描画部は、指定された前記属性に基づいて、前記遮蔽領域に対しひび割れ状態に関する描画処理を行って、前記立体画像を描画することを特徴とする請求項7に記載の立体画像生成装置。
  12. 前記描画部は、指定された前記属性に基づいて、前記遮蔽領域に対しテクスチャを付与する描画処理を行って、前記立体画像を描画することを特徴とする請求項7に記載の立体画像生成装置。
  13. 前記描画部は、指定された前記属性に基づいて、前記遮蔽領域に対し拡大縮小表示に関する描画処理を行って、前記立体画像を描画することを特徴とする請求項7に記載の立体画像生成装置。
  14. 前記描画部は、指定された前記属性に基づいて、前記遮蔽領域に対し前記実物体の断面を表示する描画処理を行って、前記立体画像を描画することを特徴とする請求項7に記載の立体画像生成装置。
  15. 3次元表示面または該3次元表示面の近傍に配置された実物体の位置または姿勢若しくは形状を検出するステップと、
    前記実物体の前記形状と前記位置または前記姿勢とに基づいて、前記実物体が前記3次元表示面により照射された光線を遮蔽する領域である遮蔽領域を算出するステップと、
    前記遮蔽領域に対して、前記遮蔽領域以外の領域と異なる描画処理を行って、立体画像を描画するステップと、
    を備えたことを特徴とする立体画像生成方法。
  16. 3次元表示面または該3次元表示面の近傍に配置された実物体の位置または姿勢若しくは形状を検出するステップと、
    前記実物体の前記形状と前記位置または前記姿勢とに基づいて、前記実物体が前記3次元表示面により照射された光線を遮蔽する領域である遮蔽領域を算出するステップと、
    前記遮蔽領域に対して、前記遮蔽領域以外の領域と異なる描画処理を行って、立体画像を描画するステップと、
    をコンピュータに実行させるプログラム。
JP2006271052A 2006-10-02 2006-10-02 立体画像生成装置、方法およびプログラム Expired - Fee Related JP4764305B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2006271052A JP4764305B2 (ja) 2006-10-02 2006-10-02 立体画像生成装置、方法およびプログラム
EP07828862A EP2070337A1 (en) 2006-10-02 2007-09-21 Method, apparatus and computer program product for generating stereoscopic image
US11/994,023 US20100110068A1 (en) 2006-10-02 2007-09-21 Method, apparatus, and computer program product for generating stereoscopic image
KR1020097004818A KR20090038932A (ko) 2006-10-02 2007-09-21 입체이미지생성을 위한 장치, 방법 및 프로그램 제품
PCT/JP2007/069121 WO2008041661A1 (en) 2006-10-02 2007-09-21 Method, apparatus, and computer program product for generating stereoscopic image
CNA2007800346084A CN101529924A (zh) 2006-10-02 2007-09-21 用于产生立体图像的方法、装置和计算机程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006271052A JP4764305B2 (ja) 2006-10-02 2006-10-02 立体画像生成装置、方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2008090617A true JP2008090617A (ja) 2008-04-17
JP2008090617A5 JP2008090617A5 (ja) 2008-06-05
JP4764305B2 JP4764305B2 (ja) 2011-08-31

Family

ID=38667000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006271052A Expired - Fee Related JP4764305B2 (ja) 2006-10-02 2006-10-02 立体画像生成装置、方法およびプログラム

Country Status (6)

Country Link
US (1) US20100110068A1 (ja)
EP (1) EP2070337A1 (ja)
JP (1) JP4764305B2 (ja)
KR (1) KR20090038932A (ja)
CN (1) CN101529924A (ja)
WO (1) WO2008041661A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011133496A2 (en) * 2010-04-21 2011-10-27 Samir Hulyalkar System, method and apparatus for generation, transmission and display of 3d content
EP2482248A2 (en) 2011-02-01 2012-08-01 Fujifilm Corporation Image processing device, three-dimensional image printing system, and image processing method and program
JP2012231235A (ja) * 2011-04-25 2012-11-22 Toshiba Corp 画像処理システム、装置、方法及びプログラム
JP2013003783A (ja) * 2011-06-15 2013-01-07 Toshiba Corp 画像処理システム、装置及び方法
JP2013008001A (ja) * 2011-05-26 2013-01-10 Sony Corp 表示装置および方法、並びにプログラム
JP2013175948A (ja) * 2012-02-24 2013-09-05 Casio Comput Co Ltd 画像生成装置、画像生成方法及びプログラム
JP2013197863A (ja) * 2012-03-19 2013-09-30 Casio Comput Co Ltd 画像生成装置、画像生成方法及びプログラム
JP2019219820A (ja) * 2018-06-18 2019-12-26 チームラボ株式会社 映像表示システム,映像表示方法,及びコンピュータプログラム
WO2022224754A1 (ja) * 2021-04-23 2022-10-27 株式会社デンソー 車両用表示システム、車両用表示方法、及び車両用表示プログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8249365B1 (en) 2009-09-04 2012-08-21 Adobe Systems Incorporated Methods and apparatus for directional texture generation using sample-based texture synthesis
US8599219B2 (en) 2009-09-18 2013-12-03 Adobe Systems Incorporated Methods and apparatuses for generating thumbnail summaries for image collections
US8619098B2 (en) 2009-09-18 2013-12-31 Adobe Systems Incorporated Methods and apparatuses for generating co-salient thumbnails for digital images
US20110149042A1 (en) * 2009-12-18 2011-06-23 Electronics And Telecommunications Research Institute Method and apparatus for generating a stereoscopic image
US8866887B2 (en) 2010-02-23 2014-10-21 Panasonic Corporation Computer graphics video synthesizing device and method, and display device
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
WO2011163359A2 (en) * 2010-06-23 2011-12-29 The Trustees Of Dartmouth College 3d scanning laser systems and methods for determining surface geometry of an immersed object in a transparent cylindrical glass tank
CN102467756B (zh) 2010-10-29 2015-11-25 国际商业机器公司 用于三维场景的透视方法及装置
KR101269773B1 (ko) * 2010-12-13 2013-05-30 주식회사 팬택 증강 현실 제공 단말기 및 방법
KR20120066891A (ko) * 2010-12-15 2012-06-25 삼성전자주식회사 디스플레이 장치 및 그의 영상 처리 방법
US20120308984A1 (en) * 2011-06-06 2012-12-06 Paramit Corporation Interface method and system for use with computer directed assembly and manufacturing
JP6147464B2 (ja) * 2011-06-27 2017-06-14 東芝メディカルシステムズ株式会社 画像処理システム、端末装置及び方法
JP5846791B2 (ja) * 2011-07-21 2016-01-20 株式会社東芝 画像処理システム、装置、方法及び医用画像診断装置
KR101334187B1 (ko) 2011-07-25 2013-12-02 삼성전자주식회사 다시점 렌더링 장치 및 방법
US8861868B2 (en) 2011-08-29 2014-10-14 Adobe-Systems Incorporated Patch-based synthesis techniques
CN110275607A (zh) * 2011-11-21 2019-09-24 株式会社尼康 显示装置及显示控制程序
US9986208B2 (en) * 2012-01-27 2018-05-29 Qualcomm Incorporated System and method for determining location of a device using opposing cameras
CN103297677B (zh) * 2012-02-24 2016-07-06 卡西欧计算机株式会社 生成重构图像的图像生成装置以及图像生成方法
KR102066058B1 (ko) * 2012-04-19 2020-01-14 인터디지탈 매디슨 페이튼트 홀딩스 입체 디스플레이에서 조절 효과로 인한 왜곡 에러를 교정하기 위한 방법 및 장치
US9589308B2 (en) * 2012-06-05 2017-03-07 Adobe Systems Incorporated Methods and apparatus for reproducing the appearance of a photographic print on a display device
US20140198103A1 (en) * 2013-01-15 2014-07-17 Donya Labs Ab Method for polygon reduction
KR102054680B1 (ko) * 2013-01-23 2020-01-22 삼성전자주식회사 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
CN106296621B (zh) * 2015-05-22 2019-08-23 腾讯科技(深圳)有限公司 图像处理方法和装置
US10217189B2 (en) * 2015-09-16 2019-02-26 Google Llc General spherical capture methods
GB2553293B (en) * 2016-08-25 2022-06-01 Advanced Risc Mach Ltd Graphics processing systems and graphics processors
US10594917B2 (en) 2017-10-30 2020-03-17 Microsoft Technology Licensing, Llc Network-controlled 3D video capture
CN112184916A (zh) * 2019-07-03 2021-01-05 光宝电子(广州)有限公司 平面物件的增强现实渲染方法
CN111275803B (zh) * 2020-02-25 2023-06-02 北京百度网讯科技有限公司 3d模型渲染方法、装置、设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6423286A (en) * 1987-06-27 1989-01-25 Triumph Adler Ag Control of braun tube having front disc with different thickness and circuit fpr implementing the same
JPH06317762A (ja) * 1993-01-14 1994-11-15 Sun Microsyst Inc 正確な立体三次元画像を発生する装置および方法
US6417969B1 (en) * 1988-07-01 2002-07-09 Deluca Michael Multiple viewer headset display apparatus and method with second person icon display
JP2004295013A (ja) * 2003-03-28 2004-10-21 Toshiba Corp 立体表示装置
JP2005086414A (ja) * 2003-09-08 2005-03-31 Toshiba Corp 立体表示装置および画像表示方法
JP2005107969A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示方法及び画像表示システム
WO2007018111A1 (ja) * 2005-08-05 2007-02-15 Pioneer Corporation 画像表示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6518966B1 (en) * 1998-03-11 2003-02-11 Matsushita Institute Industrial Co., Ltd. Method and device for collision detection and recording medium recorded with collision detection method
WO2000007364A1 (fr) * 1998-07-30 2000-02-10 Matsushita Electric Industrial Co., Ltd. Synthetiseur d'images mobiles
EP1777255A3 (en) * 1999-06-11 2007-07-11 Sydney Hyman Image making medium
US6956576B1 (en) * 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
US20050168465A1 (en) * 2003-09-24 2005-08-04 Setsuji Tatsumi Computer graphics system, computer graphics reproducing method, and computer graphics program
JP4282587B2 (ja) * 2004-11-16 2009-06-24 株式会社東芝 テクスチャ・マッピング装置
US7775666B2 (en) * 2005-03-16 2010-08-17 Panasonic Corporation Three-dimensional image communication terminal and projection-type three-dimensional image display apparatus
US7742046B2 (en) * 2005-08-31 2010-06-22 Kabushiki Kaisha Toshiba Method, device, and program for producing elemental image array for three-dimensional image display
US20090251460A1 (en) * 2008-04-04 2009-10-08 Fuji Xerox Co., Ltd. Systems and methods for incorporating reflection of a user and surrounding environment into a graphical user interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6423286A (en) * 1987-06-27 1989-01-25 Triumph Adler Ag Control of braun tube having front disc with different thickness and circuit fpr implementing the same
US6417969B1 (en) * 1988-07-01 2002-07-09 Deluca Michael Multiple viewer headset display apparatus and method with second person icon display
JPH06317762A (ja) * 1993-01-14 1994-11-15 Sun Microsyst Inc 正確な立体三次元画像を発生する装置および方法
JP2004295013A (ja) * 2003-03-28 2004-10-21 Toshiba Corp 立体表示装置
JP2005086414A (ja) * 2003-09-08 2005-03-31 Toshiba Corp 立体表示装置および画像表示方法
JP2005107969A (ja) * 2003-09-30 2005-04-21 Canon Inc 画像表示方法及び画像表示システム
WO2007018111A1 (ja) * 2005-08-05 2007-02-15 Pioneer Corporation 画像表示装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011133496A3 (en) * 2010-04-21 2012-04-05 Samir Hulyalkar System, method and apparatus for generation, transmission and display of 3d content
WO2011133496A2 (en) * 2010-04-21 2011-10-27 Samir Hulyalkar System, method and apparatus for generation, transmission and display of 3d content
US8891853B2 (en) 2011-02-01 2014-11-18 Fujifilm Corporation Image processing device, three-dimensional image printing system, and image processing method and program
EP2482248A2 (en) 2011-02-01 2012-08-01 Fujifilm Corporation Image processing device, three-dimensional image printing system, and image processing method and program
JP2012231235A (ja) * 2011-04-25 2012-11-22 Toshiba Corp 画像処理システム、装置、方法及びプログラム
US9842570B2 (en) 2011-05-26 2017-12-12 Saturn Licensing Llc Display device and method, and program
JP2013008001A (ja) * 2011-05-26 2013-01-10 Sony Corp 表示装置および方法、並びにプログラム
JP2013003783A (ja) * 2011-06-15 2013-01-07 Toshiba Corp 画像処理システム、装置及び方法
JP2013175948A (ja) * 2012-02-24 2013-09-05 Casio Comput Co Ltd 画像生成装置、画像生成方法及びプログラム
JP2013197863A (ja) * 2012-03-19 2013-09-30 Casio Comput Co Ltd 画像生成装置、画像生成方法及びプログラム
JP2019219820A (ja) * 2018-06-18 2019-12-26 チームラボ株式会社 映像表示システム,映像表示方法,及びコンピュータプログラム
WO2019244409A1 (ja) * 2018-06-18 2019-12-26 チームラボ株式会社 映像表示システム,映像表示方法,及びコンピュータプログラム
JP7174397B2 (ja) 2018-06-18 2022-11-17 チームラボ株式会社 映像表示システム,映像表示方法,及びコンピュータプログラム
US11720166B2 (en) 2018-06-18 2023-08-08 Teamlab Inc. Video display system, video display method, and computer program
WO2022224754A1 (ja) * 2021-04-23 2022-10-27 株式会社デンソー 車両用表示システム、車両用表示方法、及び車両用表示プログラム

Also Published As

Publication number Publication date
EP2070337A1 (en) 2009-06-17
JP4764305B2 (ja) 2011-08-31
US20100110068A1 (en) 2010-05-06
KR20090038932A (ko) 2009-04-21
WO2008041661A1 (en) 2008-04-10
CN101529924A (zh) 2009-09-09

Similar Documents

Publication Publication Date Title
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
KR101334187B1 (ko) 다시점 렌더링 장치 및 방법
KR101675961B1 (ko) 적응적 부화소 렌더링 장치 및 방법
KR102240568B1 (ko) 영상 처리 방법 및 장치
JP5366547B2 (ja) 立体視表示装置
US20160232710A1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
AU2018249563B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
US20060171028A1 (en) Device and method for display capable of stereoscopic vision
KR20110090958A (ko) 이미지 속성들에 대한 오클루젼 데이터의 생성
KR20090117531A (ko) 혼합현실 구현 시스템 및 그 방법
JP4266233B2 (ja) テクスチャ処理装置
WO2012140397A2 (en) Three-dimensional display system
TW201921318A (zh) 用於產生場景之舖磚式三維影像表示之設備及方法
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
CN115841539A (zh) 一种基于可视外壳的三维光场生成方法和装置
WO2014119555A1 (ja) 画像処理装置、表示装置及びプログラム
JP2020067960A (ja) 画像処理装置、画像処理方法、及びプログラム
KR101425321B1 (ko) 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법
Louis et al. Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping
WO2024095358A1 (ja) 画像表示システム、ディスプレイ装置
Thatte Cinematic virtual reality with head-motion parallax
KR101784208B1 (ko) 다수의 깊이 카메라를 이용한 3차원 디스플레이 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110517

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110610

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees