JP2012242930A - 映像提示システム、映像提示方法、プログラム及び記録媒体 - Google Patents
映像提示システム、映像提示方法、プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP2012242930A JP2012242930A JP2011110160A JP2011110160A JP2012242930A JP 2012242930 A JP2012242930 A JP 2012242930A JP 2011110160 A JP2011110160 A JP 2011110160A JP 2011110160 A JP2011110160 A JP 2011110160A JP 2012242930 A JP2012242930 A JP 2012242930A
- Authority
- JP
- Japan
- Prior art keywords
- video
- electronic data
- model
- coordinate system
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【解決手段】映像提示システムは、撮影装置2a.2bによって取得された撮影映像を入力し、その撮影映像に電子データを合成して送受信することにより、遠隔地間のコミュニケーションを可能とする。本システムは、撮影する範囲の奥行き情報を基に、奥行き情報と映像情報とからなる映像モデルを生成する映像モデル生成部202と、入力した電子データの基準情報に基づいて電子データモデルを生成する電子データモデル生成部205と、共通の座標系を設けて、映像モデルと電子データモデルを共通の座標系内で合成する映像・データ合成部206と、共通の座標空間に仮想的な視点を設置して、該視点の映像を生成する視点生成部207とを有し、視点生成部で取得した映像を送信する。
【選択図】図3
Description
非特許文献2で開示されているシステムは、特殊な投影面が必要であり、かつ投影面の上部に偏光した映像を投影するための装置と投影面の後方に利用者を撮影する装置を設置する必要があり、システムとして非常に大がかりになる課題がある。
[実施形態1]
<システム構成>
図1は映像と音声を双方向通信できる本発明に係る映像提示システムの第1の実施形態を模式的に示す図である。広域のネットワーク6より先の遠隔地にも同じ映像提示システムが設置されており、映像提示システム間で、映像と音声を使ったコミュニケーションをリアルタイムに行うことができる。
計算機4には、遠隔地の利用者7の映像、及び遠隔地の相手と一緒に作業を行っている電子データ8を表示する液晶ディスプレイなどの表示装置1と、遠隔地の音声を再生する音声再生装置3とが接続される。計算機4は、遠隔地から伝送されてきた映像と音声の情報を受け取り、表示装置1と音声再生装置3に映像や音声を提示するためのものである。
また、計算機4には、キーボードなどの操作装置5が接続されており、利用者が作業形態等の情報を入力したり電子作業オブジェクトの属性を変更することが可能で、システムを制御することが可能である。
計算機4は、ネットワーク6を介して、遠隔地の同一の映像提示システムと繋がっており、映像や音声の送受信を行うことができる。利用者9はこの映像提示システムを利用することで、遠隔地に設置された同システムの利用者とリアルタイムに電子データ8を見ながらコミュニケーションを行うことができる。
(システム基本ブロックの説明)
計算機4の内部で行われる基本の処理について、図2のブロック図を用いて説明する。図2において、広域のネットワーク6より左側が上記利用者9の側を示し、右側が遠隔地の側を示している。
(映像・音声処理装置100の詳細説明)
映像・音声処理装置100について、図3のブロック図を用いて具体的に説明する。但し、音声処理については、支障がない限り説明を省略する。以下、上記利用者9が使用する映像提示システムにおいて、撮影された利用者の撮像画像に作業で扱う電子データを合成(重畳)した映像を遠隔地に伝送する流れと、遠隔地から送られてきた映像を受信して表示するまでの流れについて説明する。もう一方の遠隔地側の流れについては、利用者9のシステムと同じであるため説明は省略する。
映像モデル生成部202は、ブロックマッチングを行う際に、基準画像を所定の大きさのブロックに分割を行う。分割の大きさは、例えば16画素×16画素である。当該分割されたブロックと参照画像の間の指標値を領域毎に算出し、算出した指標値が最小となる領域を探し出す(対応点)。映像モデル生成部202は、基準画像の分割ブロックを画素単位でずらしていき、すべての画素において対応点を算出する。
映像モデル生成部202は、ブロックマッチングにおいて、パラメータp毎にSAD(p)を算出し、SAD(p)を最小とするpを探し出す。pは基準画像から当該分割されたブロックと当該参照領域の位置までの視差を表す。
映像モデル生成部202は、上記算出した視差画像を、式(3)を用いて実際の距離を示すデプスマップに変換する。
次に、映像モデル生成部202は、得られたデプスマップから、カメラ座標における奥行き情報(3次元モデル)を生成する。カメラ座標とは、撮影したカメラ固有の座標系である。
その前に、式(3)で得られたデプスマップを、画像座標系Ximgから前記カメラ座標系Xcamに変換する必要がある。画像座標系とは、画像の画素を扱うための座標系である。その変換式は、以下の通りである。
は画像座標系Ximgの斉次座標を表しており、2次元の画像座標(i,j)に1次元加えた3次元の座標(i,j,1)である。斉次座標とは、一般的に、空間の次元を1次上げ、これらの比によって空間を表現する座標の取り方である。
Aは、前記基準カメラの撮像面に投影された前記カメラ座標系の平面画像を前記画像座標系に変換するマトリクスであり、カメラの内部行列と呼ばれている。A−1は、その逆行列を示している。内部行列は、前記撮影装置のカメラ特性を示すパラメータ(内部パラメータ)を含むマトリクスで、具体的には以下のとおりである。
図3に戻り、映像モデル生成部202は、続いて座標系の変換を行う。具体的には、上記撮影装置で撮影されたカメラの座標系を、本システムで扱う共通の座標系(以下、ワールド座標系Xworld)に変換する必要がある。ワールド座標系は、図1の表示装置の中心を原点に、ディスプレイ面に向かって右の方向にx軸の正の方向、ディスプレイ面の上部の方向にy軸の正の方向、ディスプレイ面から奥の方向にz軸の正の方向とする。
座標系の変換は、一般的に以下の式によって行うことができる。
上記、カメラの特性や位置を表す行列A、行列Rや行列Tは、カメラ校正によって一般的に求めることができる。
共同作業で用いる電子データは、映像・音声処理装置100に接続された、外部記憶装置/外部サーバ203に格納されており、外部入力端子(I/F)204を通じて、電子データモデル生成部205に入力される。外部記憶装置/外部サーバは、ネットワークに接続されており、遠隔地に設置された映像提示システムからも参照することが可能である。
なお、電子データの位置や角度は、後述する電子データ制御方法によって、システム稼働中に可変しても良い。なお、基準設定については、後述する作業スタイルと利用者位置毎に準備し、作業内容に応じて切り替えることもできる。
映像・データ合成部206は、GPUで実現される一般的な3DCGレンダリング技術によって、映像モデル生成部202から入力する映像モデルと電子データモデル生成部205から入力する電子データモデルを共通の座標系(ワールド座標系)内に配置させ、お互いを合成させる。
具体的には、視点生成部207は、ビュー変換処理によって想定する観察者位置から見た画像を切り出すことができる。ビュー変換処理は、ワールド座標系から観察者位置に置かれた仮想カメラを基準とする座標に変換することである。仮想カメラのX軸を示すベクトルをR=(rx,ux,νx)、仮想撮像装置のY軸を示すベクトルをU=(ry,uy,νy)、仮想撮像装置のZ軸を示すベクトルをV=(rz,uz,νz)、仮想撮像装置の位置を示すベクトルをP=(x,y,z)としたときに、ビュー変換行列は式(10)のようになる。
図5は、本システムを一般的な対面のテレビ会議システムのように利用した場合に、システム全体を上部から見下ろした図(上面図)である。図の500及び501は、図1に示した1〜5の構成を含む映像提示システムである。500は、図1で示した利用者9側の映像提示システムで、501は遠隔地に設置してある映像提示システムである。利用者は9と7で、7は遠隔地に居る利用者である。
図7は、図6の位置関係を実現した場合に、表示装置に映る遠隔地の映像を模式的に示した図である。図7(A)は利用者9が見る映像で、図7(B)は利用者7が見る映像である。
以上、図7に示した映像を提示することによって、利用者は図6に示したような位置関係で、遠隔地間で共通の電子データと相手の映像を見ながらコミュニケーションを行うことができる。
併進マトリクスTW_BE_Bは、システム501の座標系Xworld_Bの原点OW_Bから電子データ600の中心位置PE_Aに向かうベクトルから構成され、以下の式のとおりである。
CPU208は、以下の式を用いて、遠隔地のシステム501の座標系を利用するシステム500の座標系に変換する。
CPU208は、遠隔地の利用者7の位置を式(14)に従って変換し、変換された座標位置に遠隔地システムのための映像を取得するカメラを設置する。CPU208は、そのカメラによって取得した映像を、遠隔地のシステム501に伝送する。
利用者9及び利用者7の位置は、適正視距離、例えば3H(ディスプレイ面の垂直の長さの3倍)によって、設定可能である。あるいは、例えば利用者の位置をトラッキングする装置を装着して、利用者位置をリアルタイムに算出しても良い。
次に、本実施形態に係る映像・音声処理装置(映像処理)100が行う処理について説明する。図10〜図14は、本実施形態に係る映像・音声処理装置(映像処理)100が行う処理を示すフローチャートである。なお、以下のフローチャート及び、その説明において、音声信号の処理は必要なところのみ記述する。
映像・音声処理装置(映像処理)100は、図示していないシステム全体を制御する制御部によって、システム処理を開始すると、ステップS100に進む。
(ステップS101)映像・音声処理装置(映像処理)100は、前記制御部によって、システムが終了したか否かを常に監視し、終了していない場合はステップS101の処理を繰り返す。終了した場合には、ステップS102に進む。
(ステップS102)映像・音声処理装置(映像処理)100は、前記制御部によって、前記通信を行うための処理において実行するスレッドの状態を監視し、スレッドが実行中である場合はステップS103に進み、スレッドが全て完了している場合はステップS104に進む。
(ステップS104)映像・音声処理装置(映像処理)100は、前記制御部によって、全ての処理が停止していることを確認して、システムを終了させる。
続いて、通信を行うための処理について説明する。
(ステップS106)映像・音声処理装置(映像処理)100は、前記制御部によって、後述するデータ通信スレッドを開始させ、ステップS107に進む。
(ステップS107)映像・音声処理装置(映像処理)100は、前記制御部によって、後述するデータ受信スレッドを開始させ、ステップS108に進む。
(ステップS109)映像・音声処理装置(映像処理)100は、前記制御部によって、上記開始させたスレッドの状態を常に監視し、全てのスレッドの処理が完了していることを検知した場合はステップS105に戻り上記処理を繰り返す。一方監視しているスレッドが全て終了していない場合は、ステップS109に戻り処理を繰り返す。
(ステップS200)映像処理装置(送信側)102は、後述する送信フレーム情報生成処理によって、送信するフレーム情報を生成し、ステップS201に進む。
(ステップS201)映像処理装置(送信側)102の内部にある送信制御部209は、生成された送信フレーム情報を、よりデータ量の少ない符号に圧縮する方法(例えば、国際標準動画圧縮規格H.264等)を用いて符号化(エンコード)し、ステップS202に進む。
(ステップS203)映像・音声処理装置100は、生成された符号データを、ネットワークを介して、遠隔地の映像提示装置に向けて伝送する。その後、ステップS204に進む。
(ステップS204)映像・音声処理装置100は、前記制御部によって、通信を終了させるか否かを常に監視し、終了させる場合はステップS205に進み、終了させない場合はステップS200に戻り上記処理を繰り返す。
(ステップS205)映像・音声処理装置100は、データ通信スレッドを終了させる。
(ステップS300)映像処理装置(送信側)102は、外部入力端子(I/F)200及び201を介して、撮影装置2aと2bで撮影した映像(フレーム)を取り込む。その後、ステップS301に進む。
(ステップS301)映像モデル生成部202は、前記入力されたマルチ画像を基に、映像モデルを生成する。その後、ステップS302に進む。
(ステップS302)電子データモデル生成部205は、後述する電子データ制御スレッドが生成する最新の電子データ属性情報に基づいて電子データのモデル情報を生成する。その後、ステップS303に進む。
(ステップS304)視点生成部207は、映像・データ合成部206から入力した合成されたモデル情報に基づいて、本発明に関わる前記視点の画像(フレーム)を生成し、ステップS305に進む。
(ステップS305)視点生成部207は、生成したフレームの信号を、送信制御部209に出力して、送信フレーム情報生成処理を終了する。
(ステップS400)映像処理装置105の内部にある受信制御部212は、遠隔地にある映像提示システムから送信された符号化データを、ネットワークを介して受信する。その後、ステップS401に進む。
(ステップS401)映像処理装置104の内部にある受信制御部212は、音声処理装置106の内部にある図示していない受信制御部と連携して、受信した符号化データを映像符号化データと音声符号化データに分割する。その後、ステップS402に進む。
(ステップS403)受信制御部212は、復元した画像信号を、表示メモリ213に書き込む。表示装置1は、表示メモリ213に書き込まれた画像信号を、定期的に読み出し、画面に表示する。その後、ステップS404に進む。
(ステップS405)映像・音声処理装置100は、データ受信スレッドを終了させる。
(ステップS500)映像処理装置(送信側)102内のCPU208は、操作装置5を用いてユーザが設定する電子データの属性(後述)変更を常に監視し、属性が変更された場合はステップS501に進む。属性が変更されない場合は、ステップS500の処理を繰り返す。
(ステップS502)CPU208は、更新された電子データ属性情報を図示しないネットワークを介した別の手段によって、遠隔地の映像提示装置にその属性情報を伝送する。その後、ステップS503に進む。
(ステップS504)映像・音声処理装置100は、電子データ制御スレッドを終了させる。
図14のステップS501において生成する電子データ属性情報について、図15を用いて説明する。電子データ属性情報は、例えば電子データの3次元位置と面の向きと大きさを示す情報で、電子データを上記ワールド座標系内の3次元位置に配置させることが可能な情報である。
図7の送信フレーム情報生成処理で生成する送信フレーム情報について、図16を用いて説明する。送信フレーム情報は、例えば画素数(横方向):widthと画素数(縦方向):heightと画素情報から構成された、1枚分の画像を表す情報である。
<ソフトウェア>
上述した実施形態における映像・音声処理装置100の一部、例えば、映像モデル生成部202、電子データモデル生成部205、映像・データ合成部206、視点生成部207、送信制御部209、並びに受信制御部212をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、映像・音声処理装置に内蔵されたコンピュータシステム及びDSP(デジタル・シグナル・プロセッサ)であって、OSや周辺機器等のハードウェアを含むものとする。
Claims (8)
- 撮影装置によって取得された撮影映像を入力し、該入力した撮影映像に、画像として生成された電子データを加工して合成し、該合成した映像を送受信することにより、遠隔地間でコミュニケーションを行なうことを可能とした映像提示システムであって、
撮影する範囲の奥行き情報と、該奥行き情報を基に該奥行き情報に貼り付けた映像情報とからなる映像モデルを生成する映像モデル生成部と、
電子データを入力し、該入力した電子データの位置、大きさ、向きの情報を含む基準情報に基づいて電子データモデルを生成する電子データモデル生成部と、
共通の座標系を設けて、前記映像モデルと前記電子データモデルを共通の座標系内で合成する映像・データ合成部と、
該映像・データ合成部で合成されたモデルを入力し、前記共通の座標空間に仮想的な視点を設置して、該視点の映像を生成する視点生成部と、
該視点生成部で取得した映像を送信する送信部と、を有することを特徴とする映像提示システム。 - 前記視点生成部は、前記電子データの3次元的な位置と前記共通の座標系における利用者の相対的な位置関係に基づいて算出された視点位置の映像を生成することを特徴とする請求項1に記載の映像提示システム。
- 利用者による操作入力を受け付ける操作装置と、
前記電子データの位置及び利用者の視点位置を設定するための表示画面を表示装置に表示させる制御手段とを有し、前記視点生成部は、前記表示画面に対する前記操作装置の操作入力に従って、前記電子データの3次元的な位置及び利用者の視点位置を決定することを特徴とする請求項2に記載の映像提示システム。 - 利用者の3次元上の位置を計測する3次元位置計測装置を有し、
前記視点生成部は、前記3次元位置計測装置による計測結果に従って、利用者の位置をリアルタイムに変更することを特徴とする請求項1〜3のいずれか1に記載の映像提示システム。 - 前記撮影装置を複数備え、
前記映像モデル生成部は、複数の前記撮影装置で撮影された映像から視差画像を生成し、該生成した視差画像に基づいて撮影された対象のデプスを示すデプスマップを生成し、該デプスマップから前記撮影装置の固有の座標系における奥行き情報を生成し、該撮影装置の固有の座標系を前記映像提示システムで扱う共通座標系に変換して、奥行き情報と該奥行き情報に貼り付けた映像情報とからなる前記映像モデルを生成することを特徴とする、請求項1〜4のいずれか1に記載の映像提示システム。 - 撮影装置によって取得された撮影映像を入力し、該入力した撮影映像に、画像として生成された電子データを加工して合成し、該合成した映像を送受信することにより、遠隔地間でコミュニケーションを行なうことを可能とした映像提示方法であって、
撮影する範囲の奥行き情報と、該奥行き情報を基に該奥行き情報に貼り付けた映像情報とからなる映像モデルを生成する第1の過程と、
電子データを入力し、該入力した電子データの位置、大きさ、向きの情報を含む基準情報に基づいて該電子データモデルを生成する第2の過程と、
共通の座標系を設けて、前記映像モデルと前記電子データモデルを共通の座標系内で合成する第3の過程と、
該第3の過程で合成されたモデルを入力し、前記共通の座標空間に仮想的な視点を設置して、該視点の映像を生成する第4の過程と、
該第4の過程で取得した映像を送信する第5の過程と、を有することを特徴とする映像提示方法。 - 撮影装置によって取得された撮影映像を入力し、該入力した撮影映像に、画像として生成された電子データを加工して合成し、該合成した映像を送受信することにより、遠隔地間でコミュニケーションを行なうことを可能とした映像提示装置のコンピュータに、
撮影する範囲の奥行き情報と、該奥行き情報を基に該奥行き情報に貼り付けた映像情報とからなる映像モデルを生成する手順と、
電子データを入力し、該入力した電子データの位置、大きさ、向きの情報を含む基準情報に基づいて該電子データモデルを生成する手順と、
共通の座標系を設けて、前記映像モデルと前記電子データモデルを共通の座標系内で合成する手順と、
該合成されたモデルを入力し、前記共通の座標空間に仮想的な視点を設置して、該視点の映像を生成する手順と、
該生成された映像を送信する手順を実行させるための映像提示プログラム。 - 請求項7に記載の映像提示プログラムを、コンピュータ読み取り可能に記録した記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011110160A JP5200141B2 (ja) | 2011-05-17 | 2011-05-17 | 映像提示システム、映像提示方法、プログラム及び記録媒体 |
PCT/JP2012/061996 WO2012157516A1 (ja) | 2011-05-17 | 2012-05-10 | 映像提示システム、映像提示方法、プログラム及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011110160A JP5200141B2 (ja) | 2011-05-17 | 2011-05-17 | 映像提示システム、映像提示方法、プログラム及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012242930A true JP2012242930A (ja) | 2012-12-10 |
JP5200141B2 JP5200141B2 (ja) | 2013-05-15 |
Family
ID=47176844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011110160A Expired - Fee Related JP5200141B2 (ja) | 2011-05-17 | 2011-05-17 | 映像提示システム、映像提示方法、プログラム及び記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5200141B2 (ja) |
WO (1) | WO2012157516A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101748637B1 (ko) | 2014-08-05 | 2017-06-20 | 한국전자통신연구원 | 깊이 맵 생성 장치 및 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08153213A (ja) * | 1994-09-29 | 1996-06-11 | Hitachi Ltd | 画像合成表示方法 |
JP2004178036A (ja) * | 2002-11-25 | 2004-06-24 | Hitachi Ltd | 遠隔者の映像を伴う仮想空間の提示装置 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2006293605A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理方法およびシステム |
JP2006293604A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP2010217719A (ja) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | 装着型表示装置、その制御方法及びプログラム |
-
2011
- 2011-05-17 JP JP2011110160A patent/JP5200141B2/ja not_active Expired - Fee Related
-
2012
- 2012-05-10 WO PCT/JP2012/061996 patent/WO2012157516A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08153213A (ja) * | 1994-09-29 | 1996-06-11 | Hitachi Ltd | 画像合成表示方法 |
JP2004178036A (ja) * | 2002-11-25 | 2004-06-24 | Hitachi Ltd | 遠隔者の映像を伴う仮想空間の提示装置 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2006293605A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理方法およびシステム |
JP2006293604A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP2010217719A (ja) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | 装着型表示装置、その制御方法及びプログラム |
Non-Patent Citations (2)
Title |
---|
CSNG200700185003; 鈴木耕, 外3名: '"遠隔作業支援用立体映像システムの開発 -表示立体映像への運動視差付加-"' 映像情報メディア学会技術報告 第30巻, 第52号, 20061018, p.13-16, (社)映像情報メディア学会 * |
JPN6012032370; 鈴木耕, 外3名: '"遠隔作業支援用立体映像システムの開発 -表示立体映像への運動視差付加-"' 映像情報メディア学会技術報告 第30巻, 第52号, 20061018, p.13-16, (社)映像情報メディア学会 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101748637B1 (ko) | 2014-08-05 | 2017-06-20 | 한국전자통신연구원 | 깊이 맵 생성 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2012157516A1 (ja) | 2012-11-22 |
JP5200141B2 (ja) | 2013-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450071B2 (en) | Adapting acoustic rendering to image-based object | |
JP4115117B2 (ja) | 情報処理装置および方法 | |
US20120105581A1 (en) | 2d to 3d image and video conversion using gps and dsm | |
KR20140100656A (ko) | 전방향 영상 및 3차원 데이터를 이용한 시점 영상 제공 장치 및 방법 | |
JP2006209664A (ja) | システム、画像処理装置、情報処理方法 | |
WO2017128887A1 (zh) | 全景图像的校正3d显示方法和系统及装置 | |
US20230298280A1 (en) | Map for augmented reality | |
JP4406824B2 (ja) | 画像表示装置、画素データ取得方法、およびその方法を実行させるためのプログラム | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
WO2020184174A1 (ja) | 画像処理装置および画像処理方法 | |
WO2020166376A1 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP2018033107A (ja) | 動画の配信装置及び配信方法 | |
JP2006040053A (ja) | 画像処理方法及びプログラム | |
JP6091850B2 (ja) | テレコミュニケーション装置及びテレコミュニケーション方法 | |
US20200134779A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP5200141B2 (ja) | 映像提示システム、映像提示方法、プログラム及び記録媒体 | |
US20230252722A1 (en) | Information processing apparatus, information processing method, and program | |
JP5647813B2 (ja) | 映像提示システム、プログラム及び記録媒体 | |
Wegner et al. | Omnidirectional view synthesis and test images | |
WO2024055925A1 (zh) | 图像传输方法、图像显示方法、装置和计算机设备 | |
WO2015156128A1 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
JP7336871B2 (ja) | 全天周映像処理装置及びプログラム | |
WO2023166794A1 (ja) | 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム | |
JP5172794B2 (ja) | ビデオコミュニケーションシステム、方法およびプログラム | |
US20220044351A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130208 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5200141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |