JP2006048484A - デザイン支援装置 - Google Patents
デザイン支援装置 Download PDFInfo
- Publication number
- JP2006048484A JP2006048484A JP2004230559A JP2004230559A JP2006048484A JP 2006048484 A JP2006048484 A JP 2006048484A JP 2004230559 A JP2004230559 A JP 2004230559A JP 2004230559 A JP2004230559 A JP 2004230559A JP 2006048484 A JP2006048484 A JP 2006048484A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- design support
- dimensional model
- moving image
- arrangement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
【課題】 グラフィカルなインタフェースを用いて短時間で拡張現実感を編集可能なデザイン支援装置を提供する。
【解決手段】 デザイン支援装置100は、マーカーを含む対象画像領域内の動画データを獲得するカメラ102と、対象画像領域内において、マーカーを検出し、マーカーの位置および配置に関する情報を算出するマーカー追跡装置本体110と、コンピュータグラフィックスによる3次元モデルを表現するための3次元モデル情報を予め格納し、検出されたマーカーの配置に整合するように、拡張現実感に対応する動画中に3次元モデルを合成するための描画専用マシン130とを備える。
【選択図】 図1
【解決手段】 デザイン支援装置100は、マーカーを含む対象画像領域内の動画データを獲得するカメラ102と、対象画像領域内において、マーカーを検出し、マーカーの位置および配置に関する情報を算出するマーカー追跡装置本体110と、コンピュータグラフィックスによる3次元モデルを表現するための3次元モデル情報を予め格納し、検出されたマーカーの配置に整合するように、拡張現実感に対応する動画中に3次元モデルを合成するための描画専用マシン130とを備える。
【選択図】 図1
Description
この発明は、ビデオ映像に基づく拡張現実のデザイン支援装置の構成に関する。
拡張現実感技術(Augmented Reality:AR)とは現実環境と仮想環境を融合することによって現実環境の情報を「拡張」させることが可能な技術である。
従来、カメラにより撮影されたビデオ画像に基づいて、このような「拡張現実感(Augmented Reality)」を編集するためには以下のような手続がとられることが一般的であった(たとえば、非特許文献1を参照)。
1)デザイナーは、市販の3次元モデルパッケージソフトウェアにより、3次元モデル(3Dモデル)を作成し、これをアニメーションに仕立てる。
2)C言語やC++言語により、特別にプログラムを書き下し、標準となるマーカーを追跡して、1)で作成した3Dモデルのアニメーションをカメラからのビデオ映像と合成する。
3)3Dモデルとユーザとの間の相互作用も、C言語やC++言語において書き下されている必要がある。
Kato,H., and Billinghurst, M. 1999. "Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System", Proc. Of 2nd Int. Workshop on Augmented Reality, pp.85-94
Kato,H., and Billinghurst, M. 1999. "Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System", Proc. Of 2nd Int. Workshop on Augmented Reality, pp.85-94
しかしながら、このような方法には以下のような問題がある。
まず、デザイナーは、拡張現実感の編集のために、彼自身がプログラマーであること、または、プログラマーとの共同作業を行なうことを強いられる。
さらには、デザインとデザインされた結果をテストするサイクルは時間がかかるものとなり、アイデアを思いついてから、結果を見て修正するまでの間に、多くの時間を費やすことになる。
本発明の目的は、グラフィカルなインタフェースを用いて短時間で拡張現実感を編集可能なデザイン支援装置を提供することである。
この発明のある局面に従うと、デザイン支援装置であって、マーカーを含む対象画像領域内の動画データを獲得する撮影手段と、対象画像領域内において、マーカーを検出する検出手段と、マーカーの位置および配置に関する情報を算出するマーカー位置算出手段と、コンピュータグラフィックスによる3次元モデルを表現するための3次元モデル情報を予め格納するための記憶手段と、検出されたマーカーの配置に整合するように、拡張現実感に対応する動画中に3次元モデルを合成するための合成描画手段とを備える。
好ましくは、マーカーは複数種類あり、合成描画手段は、マーカーの種類に応じた属性の3次元モデルを、それぞれ対応するマーカーの配置に整合するように合成する。
好ましくは、マーカーは、マーカーの大きさを及び方向を特定するための第1のマークと、マーカーの種類を特定するための第2のマークとを含む。
好ましくは、記憶手段は、マーカーの大きさと拡張現実感に対応する動画を描画する際の基準となる視点の位置からの距離の関係を予め定めたテーブルを予め格納しており、合成描画手段は、距離が遠くなるほど小さくなるように3次元モデルを描画する。
[実施の形態1]
[ハードウェア構成]
以下、本発明の実施の形態にかかるデザイン支援装置について説明する。
[ハードウェア構成]
以下、本発明の実施の形態にかかるデザイン支援装置について説明する。
図1は、本発明のデザイン支援装置100の構成を示す概略ブロック図である。
図1を参照して、このデザイン支援装置100は、大きくは、マーカー追跡装置本体110と描画専用マシン130とから構成される。
マーカー追跡装置本体110に対応して、表示装置としてのディスプレイ108と、入力装置の1つとしてのキーボード106と、後に説明するように入力装置の他の1つとして機能するマーカー104とが設けられる。また、マーカー追跡装置本体110は、バスBSそれぞれに接続された、CPU(Central Processing Unit )1200と、ROM(Read Only Memory)1106と、RAM(Random Access Memory)1108と、ハードディスク1110と、入力装置からの信号を受け取り、またディスプレイ108との間でデータを授受するためのインタフェース部1102とを含んでいる。
このROM1106に格納されたソフトウエアは、たとえば、RAM1108上に展開されてCPU1200で実行される。
さらに、インタフェース部1102は、ユーザ2の頭に装着されたカメラ(以下、「ヘッドマウントカメラ」と呼ぶ)102からの動画像を取り込む。カメラ102は、マーカー104を含む動画を撮影し、CPU1200は、この撮影された動画中からマーカー104を検出して追跡する。さらに、この追跡結果が描画専用マシン130に送信されて、このマーカーの位置に応じて3Dモデルが配置される。
この実施の形態のシステムでは、カメラ102としては、たとえば、CCD(固体撮像素子)を含むビデオカメラを用いる。
さらに、インタフェース部1102は、ユーザ2の頭に装着されたヘッドセットから伸びたアームによりユーザ2の目元で、ディスプレイ108と同様の画像を映し出すヘッドマウントディスプレイ(HMD:Head Mount Display)103へ映像信号を出力する。
デザイン支援装置100において、マーカー追跡機能または描画機能を実現する主要部は、CPU1200等のハードウェアと、CPU1200により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアは記憶媒体に格納されて流通し、記憶媒体から読取られてROM1106に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ROM1106にコピーされる。そうしてさらにROM1106からRAM1108に読出されてCPU1200により実行される。
図1に示したデザイン支援装置100のハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、ROM1106等の記憶媒体に記憶されたソフトウェアである。
図2は、描画専用マシン130のハードウェア構成をブロック図形式で示す図である。
図2に示されるように、描画専用マシン130を構成するコンピュータ本体302は、ディスクドライブ308および外部媒体ドライブ306に加えて、それぞれバスBS2に接続されたCPU1300と、ROMおよびRAMを含むメモリ322と、直接アクセスメモリ装置、たとえば、ハードディスク324と、LAN等を介して外部とデータの授受を行うための通信インタフェース1302とを含んでいる。
上述のとおり、描画専用マシン130では、マーカー追跡装置本体110により獲得されたマーカーの位置・配置および大きさに関するデータは、LANを介して、ハードディスク324に格納される。
ハードディスク324には、拡張現実感に対応した動画を作成するにあたり、描画のために想定された仮想的な3次元空間内において、1)ユーザにより設定された擬似的なカメラの位置(拡張現実感に対応する動画を描画する際の基準となる視点の位置)に関する情報と、2)獲得されたマーカー104の大きさと擬似的なカメラ位置からの距離の関係を予め定めたテーブル、3)擬似的なカメラ位置から見た場合に、獲得されたマーカー104の配置に整合するように、拡張現実感に対応する動画中に合成するためのコンピュータグラフィックスによる3Dモデルのファイル、4)マーカー104の種類と対応する3Dモデルの属性などの情報が格納されているものとする。
描画される3Dモデルの大きさは、マーカー104の擬似的なカメラ位置からの距離に応じて、距離が遠くなるほど小さくなるように描画されるものとする。
また、「マーカー104の種類と対応する3Dモデルの属性」に関しては、たとえば、マーカー104が複数種類ある場合に、各マーカーごとに異なる形状の3Dモデルが対応するものとしてもよいし、あるいは、マーカー104が複数種類ある場合に、同一の形状の3Dモデルについて各マーカーごとに異なる属性(色など)が対応するものとしてもよい。
なお、ディスク媒体318は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体であれば、たとえば、DVD−ROM(Digital Versatile Disc)などでよい。
本発明の描画専用マシン130の主要部も、コンピュータハードウェアと、CPU1300により実行されるソフトウェアとにより構成される。こうしたソフトウェアも、マーカー追跡装置本体110の場合と同様に、ディスク媒体318等の記憶媒体に格納されて流通し、ディスクドライブ308等により記憶媒体から読取られてハードディスク324に一旦格納される。または、ネットワーク上のアプリケーションサーバ410から一旦ハードディスク324にコピーされる。そうしてさらにハードディスク324からメモリ322中のRAMに読出されてCPU1300により実行される。なお、ネットワーク接続されている場合には、ハードディスク324に格納することなくRAMに直接ロードして実行するようにしてもよい。
なお、図2においては、描画専用マシン130の入力装置としては、マーカー追跡装置本体110と共用するものとして図示省略しているが、描画専用マシン130独自の入力装置が設けられていてもよい。
[ソフトウェア構成]
図3は、図1に示したマーカー追跡装置本体110と描画専用マシン130上で動作するソフトウェアの構成を説明するための機能ブロック図である。
図3は、図1に示したマーカー追跡装置本体110と描画専用マシン130上で動作するソフトウェアの構成を説明するための機能ブロック図である。
マーカー追跡装置本体110のCPU1200上でマーカー追跡のために動作するソフトウェア(マーカー検出プログラム)は、ヘッドマウントカメラ102から入力された画像信号を画像データとして取り込む(キャプチャする)ための画像キャプチャ部1202と、取り込まれた画像データ中において、周知の方法、たとえば、パターンマッチングの手法を用いて、マーカー104を検出し、かつその種類を判別するためのマーカー検出部1204と、検出されたマーカー104の各々について、対応する局所座標のx軸、y軸、z軸の各軸の方向および各軸についての回転量を算出するためのマーカー座標算出部1206とを含む。マーカー座標算出部1206において算出されたデータは、マーカーの局所座標の情報を本体に含むTCPのパケットデータとして通信部1208から描画専用マシン130に送信される。
描画専用マシン130は、通信部1302を介してマーカーの局所座標の情報を受け取る。
描画専用マシン130のCPU1300上で、拡張現実感に対応する動画を描画するために動作するソフトウェア(描画プログラム)は、描画のために想定された仮想的な3次元空間内におけるマーカーの位置・配置を算出するマーカー位置算出部1304と、ハードディスク308中に格納された3Dモデルデータに基づいて、検出されたマーカー104に対応する属性の3Dモデルの描画データを各動画フレームごとに生成する3Dモデル生成部1306と、マーカー位置算出部1304からのマーカー位置・配置に関する情報と3Dモデル生成部130からの3Dモデルの描画データとを合成して、拡張現実感に対応する動画を各フレームごとに生成する描画データ生成部1308とを含む。描画データ生成部1308で生成された合成された動画は、ディスプレイ108またはHMD103に表示される。
[マーカー104の例]
図4は、マーカー104の例を示す図である。図4に示されたマーカーを描いたボードなどをユーザ2が手に持って動かし、このマーカー104の位置を上述したように、カメラ102で撮影した画像中で追跡する。
図4は、マーカー104の例を示す図である。図4に示されたマーカーを描いたボードなどをユーザ2が手に持って動かし、このマーカー104の位置を上述したように、カメラ102で撮影した画像中で追跡する。
図4(a)に示したマーカー104は、一部に切り欠きを有する矩形の枠1402と、枠1402の星型の内部のマーク1404とから成る。
枠1402の大きさは、所定の大きさに規定されているので、カメラ102で撮影された画像中のマーカーの枠1402の大きさから、上述した擬似的なカメラ位置からの距離が計算により求められる。また、切れ欠きの位置からマーカーの方向が特定できる。さらに、内部のマーク1404から、マーカー104の種類が特定さされる。
図4(b)に示したマーカー104も、図4(a)に示したマーカー104と基本的な構成は共通であり、ただ、内部のマーク1404が、星型の代わりにギターとなっており、異なる種類のマーカーであることを判別可能としている。
[マーカー位置・配置に関する情報の例]
図5は、マーカー座標算出部1206において算出されたマーカーの位置および配置に関する情報を、通信部1208から送信する際に、パケットの本体に格納される情報の例を示す概念図である。
図5は、マーカー座標算出部1206において算出されたマーカーの位置および配置に関する情報を、通信部1208から送信する際に、パケットの本体に格納される情報の例を示す概念図である。
マーカー位置・配置に関する情報は、「スタート」と「スライス」から構成される。「スタート」データは、カメラ102で撮影される動画の各フレームを識別するためのトラッキング番号である。このトラッキング番号は、追跡処理が開始されたときを1として、順次インクリメントされるシリアル番号である。
一方、「スライス」データは、マーカーに対応する局所座標のx軸、y軸、z軸の各軸の方向および各軸について撮影時の基準座標に対する回転量を示す。さらに、「スライス」データには、現在、動画中にマーカーが検出されているか否かを示す「可視フラグ」も含まれる。
[デザイン支援装置100の動作]
図6は、デザイン支援装置100の動作の流れを説明するための概念図である。
図6は、デザイン支援装置100の動作の流れを説明するための概念図である。
まず、カメラ102が画像データを取り込むと(S100)、取り込まれたビデオ画像データは、マーカー追跡装置本体110上のマーカー検出プログラムおよび描画専用マシン130上の描画プログラムに供給される(ステップS102)。
追跡プログラムでは、マーカーの位置および回転が計算される(S104)。
ここで、図7は、マーカーの位置および回転を計算するための局所座標をマーカーに重畳して示す図である。マーカー104の枠1402の内側を底面とする立方体により、マーカーに対応する局所座標が示されている。
再び、図6に戻って、描画プログラムでは、描画処理に適したデータ形式とするために、フレームごとにビデオ画像データからテクスチャマップへの変換が行なわれる(S106)。
続いて、描画プログラムでは、拡張現実感に対応した動画を作成するにあたり、描画のために想定された仮想的な3次元空間内(擬3次元空間)において、ビデオテキスチャデータが擬似カメラの視界に相当する矩形領域オブジェクトにマッピングされる(S108)。
一方、追跡プログラムにおいて、検出されたマーカー104の位置・回転の情報は、TCPにより描画プログラムへ送信され、描画プログラムは、擬似的なカメラ位置から見た場合に、獲得されたマーカー104の配置に整合するように、擬3次元空間において、擬似カメラの前に3Dオブジェクトが配置される(S110)。
図8は、このような擬3次元空間における、擬似カメラ、3Dアニメーション、ビデオ画面の配置の関係を示す概念図である。
マーカー104の種類に応じて選択された3Dモデルが、マーカー104の大きさに対応する大きさ、言い換えると、擬似カメラからの対応する距離に配置される。
再び、図6に戻って、描画プログラムでは、擬似カメラの視点から見たときに、3Dモデルが現実のビデオ画像中のマーカー位置と整合するように画像合成が行なわれる(S112)。
図9は、このようにして合成された拡張現実感に対応した動画の1フレームを示す図である。
再び、図6に戻って、合成された画像がHMD103等に出力され(S114)るとともに、合成された各フレームのデータはハードディスク324に格納されて、処理は次のフレームの合成のためにステップS100に戻る。
すなわち、本発明によれば、合成された拡張現実感に対応した動画を、リアルタイムでユーザ2が確認しながら、動画の編集を行なうことが可能である。
また、ハードディスク324に格納された合成画像データに対して、事後に編集を行なうことも可能である。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
2 ユーザ、100 デザイン支援装置、102 ヘッドマウントカメラ、103 ヘッドマウントディスプレイ、104 マーカー、106 キーボード、108 ディスプレイ、110 マーカー追跡装置本体、322 メモリ、324 ハードディスク、1110 ハードディスク、1102 インタフェース部、1106 ROM、1108 RAM、1200 CPU、1202 画像キャプチャ部、1204 マーカー検出部、マーカー座標算出部、1208 通信部、1302 通信インタフェース、1304 マーカー位置算出部、1306 3Dモデル生成部、1308 描画データ生成部。
Claims (4)
- マーカーを含む対象画像領域内の動画データを獲得する撮影手段と、
前記対象画像領域内において、前記マーカーを検出する検出手段と、
前記マーカーの位置および配置に関する情報を算出するマーカー位置算出手段と、
コンピュータグラフィックスによる3次元モデルを表現するための3次元モデル情報を予め格納するための記憶手段と、
検出された前記マーカーの配置に整合するように、拡張現実感に対応する動画中に前記3次元モデルを合成するための合成描画手段とを備える、デザイン支援装置。 - 前記マーカーは複数種類あり、
前記合成描画手段は、前記マーカーの種類に応じた属性の前記3次元モデルを、それぞれ対応する前記マーカーの配置に整合するように合成する、請求項1記載のデザイン支援装置。 - 前記マーカーは、
前記マーカーの大きさを及び方向を特定するための第1のマークと、
前記マーカーの種類を特定するための第2のマークとを含む、請求項2記載のデザイン支援装置。 - 前記記憶手段は、前記マーカーの大きさと前記拡張現実感に対応する動画を描画する際の基準となる視点の位置からの距離の関係を予め定めたテーブルを予め格納しており、
前記合成描画手段は、前記距離が遠くなるほど小さくなるように前記3次元モデルを描画する、請求項1記載のデザイン支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004230559A JP2006048484A (ja) | 2004-08-06 | 2004-08-06 | デザイン支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004230559A JP2006048484A (ja) | 2004-08-06 | 2004-08-06 | デザイン支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006048484A true JP2006048484A (ja) | 2006-02-16 |
Family
ID=36026954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004230559A Withdrawn JP2006048484A (ja) | 2004-08-06 | 2004-08-06 | デザイン支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006048484A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007108100A1 (ja) * | 2006-03-20 | 2007-09-27 | Olympus Corporation | 画像情報処理装置、判定方法、及びコンピュータプログラム |
JP2011062390A (ja) * | 2009-09-18 | 2011-03-31 | Azuraito:Kk | ゲーム装置の制御プログラム |
WO2011118282A1 (ja) * | 2010-03-24 | 2011-09-29 | 株式会社日立製作所 | 世界座標系データベースを利用したサーバ及び端末 |
JP2012089133A (ja) * | 2010-10-19 | 2012-05-10 | Pantech Co Ltd | 移動式タグを利用した拡張現実提供装置及び方法 |
JP2013515275A (ja) * | 2010-03-08 | 2013-05-02 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実のためのブロードバンドパッシブ追跡 |
JP2014237016A (ja) * | 2014-07-28 | 2014-12-18 | 株式会社クラス・マイスター | ゲーム装置の制御プログラム |
US8947455B2 (en) | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
JP2015115723A (ja) * | 2013-12-10 | 2015-06-22 | Kddi株式会社 | 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム |
JP2018022242A (ja) * | 2016-08-01 | 2018-02-08 | 大豊精機株式会社 | 複合システム及びターゲットマーカ |
-
2004
- 2004-08-06 JP JP2004230559A patent/JP2006048484A/ja not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007108100A1 (ja) * | 2006-03-20 | 2007-09-27 | Olympus Corporation | 画像情報処理装置、判定方法、及びコンピュータプログラム |
JP2011062390A (ja) * | 2009-09-18 | 2011-03-31 | Azuraito:Kk | ゲーム装置の制御プログラム |
US9384578B2 (en) | 2010-02-22 | 2016-07-05 | Nike, Inc. | Augmented reality design system |
US9858724B2 (en) | 2010-02-22 | 2018-01-02 | Nike, Inc. | Augmented reality design system |
US8947455B2 (en) | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
JP2013515275A (ja) * | 2010-03-08 | 2013-05-02 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実のためのブロードバンドパッシブ追跡 |
US8610771B2 (en) | 2010-03-08 | 2013-12-17 | Empire Technology Development Llc | Broadband passive tracking for augmented reality |
US9390503B2 (en) | 2010-03-08 | 2016-07-12 | Empire Technology Development Llc | Broadband passive tracking for augmented reality |
WO2011118282A1 (ja) * | 2010-03-24 | 2011-09-29 | 株式会社日立製作所 | 世界座標系データベースを利用したサーバ及び端末 |
JP2012089133A (ja) * | 2010-10-19 | 2012-05-10 | Pantech Co Ltd | 移動式タグを利用した拡張現実提供装置及び方法 |
JP2015115723A (ja) * | 2013-12-10 | 2015-06-22 | Kddi株式会社 | 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム |
JP2014237016A (ja) * | 2014-07-28 | 2014-12-18 | 株式会社クラス・マイスター | ゲーム装置の制御プログラム |
JP2018022242A (ja) * | 2016-08-01 | 2018-02-08 | 大豊精機株式会社 | 複合システム及びターゲットマーカ |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068562B2 (ja) | 拡張現実データを記録するための手法 | |
EP1883052B1 (en) | Generating images combining real and virtual images | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
JP4956375B2 (ja) | 画像処理装置、画像処理方法 | |
US6822643B2 (en) | Image-display control apparatus | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
JP2010109783A (ja) | 電子カメラ | |
JP2002157607A (ja) | 画像生成システム、画像生成方法および記憶媒体 | |
JP2003141569A (ja) | 情報処理方法および映像合成装置 | |
JP2005327204A (ja) | 画像合成システムおよび画像合成方法、および画像合成装置 | |
JP2006048484A (ja) | デザイン支援装置 | |
JP2006012042A (ja) | 画像生成方法及び装置 | |
JP4447896B2 (ja) | 画像処理装置および方法 | |
US20200134779A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP2022171739A (ja) | 生成装置、生成方法、及びプログラム | |
JP2004310686A (ja) | 画像処理方法及び装置 | |
JP2012048529A (ja) | 地物の外観表示用画像の生成方法及びその装置 | |
JP2005258792A (ja) | 画像生成装置、画像生成方法、および画像生成プログラム | |
JP3575469B2 (ja) | 合成動画像生成装置および合成動画像生成方法 | |
WO2023145571A1 (ja) | 情報処理装置、情報処理方法、データ構造及びプログラム | |
EP4261788A1 (en) | Image processing apparatus, image processing method, and program | |
JP4214019B2 (ja) | 画像生成装置及びプログラム | |
US11682175B2 (en) | Previsualization devices and systems for the film industry | |
JP2004013309A (ja) | 情報処理方法および複合現実感提示装置 | |
US20220044351A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071106 |