JP2019139697A - 表示装置、映像表示システム、及び映像表示方法 - Google Patents
表示装置、映像表示システム、及び映像表示方法 Download PDFInfo
- Publication number
- JP2019139697A JP2019139697A JP2018025061A JP2018025061A JP2019139697A JP 2019139697 A JP2019139697 A JP 2019139697A JP 2018025061 A JP2018025061 A JP 2018025061A JP 2018025061 A JP2018025061 A JP 2018025061A JP 2019139697 A JP2019139697 A JP 2019139697A
- Authority
- JP
- Japan
- Prior art keywords
- video
- display
- image
- display device
- generates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳する。【解決手段】通信回路33は、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像から生成された1つの第1の連結映像をサーバ装置1から受信する。記憶装置36は、予め決められた目標画像及び目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶した。制御回路31は、第1の連結映像から、表示装置3の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成する。制御回路31は、第2の連結映像から目標画像を検出し、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成する。制御回路31は、合成映像から、表示装置3の表示範囲に対応する切り出し映像を生成する。切り出し映像を視覚可能な形式で出力するように映像形成装置35を制御する。【選択図】図1
Description
本開示は、サーバ装置から配信された映像を受信し、映像に拡張現実情報を重畳して表示する表示装置に関する。本開示はまた、サーバ装置からそのような複数の表示装置に映像を配信して表示する映像表示システム及び映像表示方法に関する。
近年、複数の撮像素子を備え、周囲の風景を全方位又は全天球にわたって撮影する全方向カメラが普及しつつある。全方向カメラは、例えば、仮想現実の分野において、現実の風景から仮想空間の映像(動画像)を生成するために使用される。
全方向カメラの複数の撮像素子によってそれぞれ生成された複数の撮影映像は、一般的には、何らかの地図投影法、例えば正距円筒図法を用いて、全方位又は全天球をカバーする1つの映像(連結映像)に合成される。この場合、全方向カメラによって撮影された映像を表示装置に表示するときは、連結映像から表示装置の表示範囲に対応する部分が切り出される。表示装置の表示位置及び表示範囲は、ユーザ操作に応じて変更される。
全方向カメラによって撮影された映像のうち、その全範囲を表示するために、又は、1つの表示装置の表示範囲を超える範囲を表示するために、複数の表示装置を含むマルチディスプレイシステムが使用されることがある。全方向カメラによって撮影された映像は、サーバ装置から複数の表示装置に配信される。例えば、特許文献1は、複数の表示装置を含む表示システムであって、全方向カメラにより撮影された映像、又は、ある一点を中心として放射方向に設置された複数の撮像装置を含むカメラシステムにより撮影された映像を表示する表示システムを開示している。
また一方で、撮影映像において予め決められた目標画像が検出されたとき、それに関連付けられた仮想オブジェクト(画像又はテキスト)を重畳する拡張現実(AR:augmented reality)の技術が普及しつつある。特許文献2は、パノラマ画像を再生する際により多くの情報をユーザに提示する情報処理装置を開示している。特許文献2の情報処理装置は、時間条件と方向条件とを含む制御データを取得し、時間条件および方向条件の判定結果に応じて、再生中のパノラマ動画とともに画像および/または音を出力することに関する所定の情報処理を実行する。
しかしながら、リアルタイムの撮影映像に仮想オブジェクトを重畳しようとする場合、目標画像は、必ずしも、決まった時刻かつ決まった位置に出現するとは限らない。例えば、表示装置の表示位置及び表示範囲をユーザ操作に応じてリアルタイムで変更する場合には、目標画像が出現する時刻及び位置はさらに予測不能になる。従って、任意に変化する映像に含まれる目標画像に対して適切に仮想オブジェクトを重畳することが求められる。
本開示の目的は、全方向カメラによって撮影されてサーバ装置から配信された映像を表示する表示装置であって、映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳することができる表示装置を提供することにある。
また、本開示の目的は、サーバ装置からそのような複数の表示装置に映像を配信して表示する映像表示システム及び映像表示方法を提供することにある。
本開示の一態様によれば、サーバ装置から配信された映像を表示する表示装置が提供される。表示装置は、通信回路、映像形成装置、記憶装置、及び制御回路を備える。通信回路は、複数の撮像素子によってそれぞれ生成された複数の撮影映像から生成された1つの第1の連結映像をサーバ装置から受信する。映像形成装置は、映像を視覚可能な形式で出力する。記憶装置は、予め決められた目標画像及び目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶する。制御回路は、第1の連結映像から、表示装置の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成する。制御回路は、第2の連結映像から目標画像を検出し、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成する。制御回路は、合成映像から、表示装置の表示範囲に対応する切り出し映像を生成する。制御回路は、切り出し映像を視覚可能な形式で出力するように映像形成装置を制御する。
本開示によれば、映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳することができる。
以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施形態)
以下、図面を参照して実施形態について説明する。
以下、図面を参照して実施形態について説明する。
[1−1.構成]
[1−1−1.映像表示システムの全体構成]
図1は、実施形態に係る映像表示システムの構成を示す図である。図1の映像表示システムは、サーバ装置1、ハブ2、表示装置3a〜3c、及びコマンド入力装置4を備える。
[1−1−1.映像表示システムの全体構成]
図1は、実施形態に係る映像表示システムの構成を示す図である。図1の映像表示システムは、サーバ装置1、ハブ2、表示装置3a〜3c、及びコマンド入力装置4を備える。
サーバ装置1、表示装置3a〜3c、及びコマンド入力装置4は、ハブ2を含むローカルエリアネットワークなどの有線のネットワークを介して互いに接続される。
サーバ装置1は、例えば、床面に平行な面内において90度ずつ異なる方向に向かって配置された、複数の撮像素子13a〜13dを備える。撮像素子13aはθ1=0度の方向に向かって配置され、撮像素子13bはθ1=90度の方向に向かって配置され、撮像素子13dはθ1=270度の方向に向かって配置され、撮像素子13dはθ1=180度の方向に向かって配置される。撮像素子13a〜13dには、魚眼タイプのレンズ12a〜12dにより集光された光がそれぞれ入射する。これにより、撮像素子13a〜13dは、サーバ装置1の周囲の風景5を全方位又は全天球にわたって撮影する全方向カメラとして機能する。サーバ装置1は、撮像素子13a〜13dによって撮影して処理した映像を、ハブ2を介して複数の表示装置3a〜3cに配信する。
図2は、図1のサーバ装置1の周囲の風景5を示す概略図である。風景5は、屋外であっても屋内であってもよい。サーバ装置1に対して+Y側、+X側、−X側、−Y側、+Z側、及び−Z側に見える風景の像を、元像5a〜5fとしてそれぞれ概略的に示す。図1の撮像素子13a〜13dは、それらの視野の中心において、図2の+Y側、+X側、−X側、及び−Y側の元像5a〜5dをそれぞれ撮影するように配置される。また、撮像素子13a〜13dは、+Z側及び−Z側の元像5e及び5dのうちの少なくとも一部をそれぞれ撮影してもよい。
再び図1を参照すると、表示装置3a〜3cは、サーバ装置1から配信された映像をスクリーン6a〜6cにそれぞれ投写して表示する。スクリーン6aは、視聴のための基準位置(図1においてユーザ7が立っている位置)に対してθ2=0度の方向に配置され、スクリーン6bは基準位置に対してθ2=90度の方向に配置され、スクリーン6cは基準位置に対してθ2=270度の方向に配置される。表示装置3a〜3cは、一体の映像(撮像素子13a〜13dによって撮影された全方位又は全天球の映像)から空間的に分割された3つの映像をスクリーン6a〜6cにそれぞれ表示するマルチディスプレイシステムを構成する。
本明細書では、表示装置3a〜3cを総称して「表示装置3」ともいい、スクリーン6a〜6cを総称して「スクリーン6」ともいう。
コマンド入力装置4は、ユーザ7からコマンドを取得し、ハブ2を介してコマンドを表示装置3a〜3cに送信する。コマンドは、表示装置3a〜3cによってそれぞれ表示される映像の範囲を示す表示位置を指定又は変更することを含む。また、コマンドは、映像の配信及び表示の一時停止及び停止、映像表示システムの電源オフ、などを含んでもよい。コマンド入力装置4は、後述するように、ユーザのジェスチャーを撮影して認識する距離画像検出器を備え、ジェスチャーに基づいてコマンドを生成する。
[1−1−2.サーバ装置1の構成]
図3は、図1のサーバ装置1の構成を示すブロック図である。サーバ装置1は、制御回路11、レンズ12a〜12d、撮像素子13a〜13d、映像処理回路14、通信回路15、及び記憶装置16を備える。
図3は、図1のサーバ装置1の構成を示すブロック図である。サーバ装置1は、制御回路11、レンズ12a〜12d、撮像素子13a〜13d、映像処理回路14、通信回路15、及び記憶装置16を備える。
制御回路11は、サーバ装置1の全体の動作を制御する。レンズ12a〜12dは、サーバ装置1の周囲の風景5からの光を集光して撮像素子13a〜13dにそれぞれ入射させる。撮像素子13a〜13dは、レンズ12a〜12dを介して入射した光を電気信号にそれぞれ変換して、撮像素子13a〜13dにそれぞれ対応する4つの撮影映像を生成する。映像処理回路14は、撮像素子13a〜13dによってそれぞれ生成された4つの撮影映像を、制御回路11の制御下で処理する。通信回路15は、ハブ2を含むネットワークを介して、各表示装置3及びコマンド入力装置4に通信可能に接続される。記憶装置16は、サーバ装置1の動作のために必要な情報を記憶する。
制御回路11は、ネットワーク設定器11a、時刻同期器11b、映像データ生成器11c、及び配信データ生成器11dを備える。
ネットワーク設定器11aは、通信回路15を用いて、サーバ装置1のネットワーク接続の初期設定、例えばIPアドレスの設定を行う。
時刻同期器11bは、サーバ装置1の内蔵時計を備え、さらに、通信回路15を介して、内蔵時計の時刻を各表示装置3の内蔵時計の時刻と同期させる。サーバ装置1及び各表示装置3は、例えばIEEE1588の時刻同期プロトコルに従って動作し、サーバ装置1が時刻同期マスタとして動作する。
映像データ生成器11cは、映像処理回路14を制御し、撮像素子13a〜13dによってそれぞれ生成された4つの撮影映像を処理させる。映像処理回路14は、映像データ生成器11cの制御下で、4つの撮影映像から1つの第1の連結映像を生成する。
配信データ生成器11dは、映像処理回路14によって生成された第1の連結映像にタイムスタンプを付加し、通信回路15を介して各表示装置3に配信する。配信データ生成器11dは、第1の連結映像をマルチキャストパケットとして各表示装置3に配信してもよい。
サーバ装置1の制御回路11の内部の各回路部分11a〜11dは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
[1−1−3.表示装置3の構成]
図4は、図1の各表示装置3の構成を示すブロック図である。各表示装置3は、制御回路31、入力装置32、通信回路33、映像処理回路34、映像形成装置35、及び記憶装置36をそれぞれ備える。
図4は、図1の各表示装置3の構成を示すブロック図である。各表示装置3は、制御回路31、入力装置32、通信回路33、映像処理回路34、映像形成装置35、及び記憶装置36をそれぞれ備える。
制御回路31は、サーバ装置1の全体の動作を制御する。入力装置32は、互いに関連付けられた目標画像及び仮想オブジェクトを含む拡張現実情報(AR情報)、表示装置3の物理的な配置を示す配置情報をサーバ装置1に入力するためのインターフェースである。入力装置32は、例えばユニバーサルシリアルバス(USB)のソケットであり、AR情報及び配置情報を記録したUSBメモリを接続することにより、これらの情報はサーバ装置1に入力される。入力装置32は、ユーザ入力を受けるキーボード又はボタンなどを含んでもよい。通信回路33は、ハブ2を含むネットワークを介して、サーバ装置1及びコマンド入力装置4に通信可能に接続される。映像処理回路34は、通信回路33によりサーバ装置1から受信された第1の連結映像を制御回路31の制御下で処理する。映像形成装置35は、映像処理回路34によって処理された映像をスクリーン6に投写することにより視覚可能な形式で出力する。表示装置3は、映像形成装置35の画素数及びスクリーン6の寸法などによって決まる所定の表示範囲を有する。記憶装置36は、表示装置3の動作のために必要な情報、例えば、AR情報、表示装置3の配置情報、表示装置3の表示範囲、コマンド入力装置4から受信したユーザ操作を示すコマンド、などを記憶する。
制御回路31は、ネットワーク設定器31a、時刻同期器31b、配置情報設定器31c、AR情報設定器31d、コマンド処理器31e、表示位置計算器31f、及び表示データ生成器31gを備える。
ネットワーク設定器31aは、通信回路33を用いて、表示装置3のネットワーク接続の初期設定、例えばIPアドレスの設定を行う。
時刻同期器31bは、表示装置3の内蔵時計を備え、さらに、通信回路33を介して、内蔵時計の時刻をサーバ装置1の内蔵時計の時刻と同期させる。サーバ装置1及び各表示装置3は、前述のように、例えばIEEE1588の時刻同期プロトコルに従って動作し、各表示装置3が時刻同期スレーブとして動作する。
配置情報設定器31cは、入力装置32から表示装置3の配置情報を取得して表示装置3に設定する。図1の例では、配置情報は、各表示装置3の物理的な配置に代えて、各スクリーン6の物理的な配置を示す。配置情報設定器31cは、設定した配置情報を記憶装置36に記憶し、記憶した配置情報を記憶装置36から読み出す。
AR情報設定器31dは、入力装置32から、互いに関連付けられた目標画像及び仮想オブジェクトを含むAR情報を取得して表示装置3に設定する。目標画像は、サーバ装置1から受信した映像において認識すべき対象を示す。仮想オブジェクトは、目標画像に関連付けて表示すべき画像又はテキストを含む。AR情報設定器31dは、取得したAR情報を、互いに関連付けられた目標画像及び仮想オブジェクトからなる少なくとも1つのペアを含むAR情報リストとして記憶装置36に記憶し、また、記憶したAR情報リストを記憶装置36から読み出す。
コマンド処理器31eは、通信回路33を介して、ユーザ操作を示すコマンドをコマンド入力装置4から受信し、受信したコマンドを解釈して実行する。コマンドは、撮像素子13a〜13dによってそれぞれ生成された4つの撮影映像によって表される範囲のうち、前述のように、各表示装置3によってそれぞれ表示される映像の範囲を示す表示位置を指定又は変更することを含む。ただし、コマンドは、「現在表示している映像を撮影した撮像素子の右に隣接する撮像素子によって撮影した映像に切り換える」、「各表示装置3の上方から見て映像を時計回りにθ2度回転させる」など、各表示装置3の大まかな表示位置(又はその変更量)を指定する。コマンド処理器31eがコマンドを解釈して実行することにより、後述の表示位置計算器31f及び表示データ生成器31gは、コマンドの内容(すなわち、各表示装置3の大まかな表示位置)に従って動作する。コマンド処理器31eは、受信したコマンドを記憶装置36に記憶し、記憶したコマンドを記憶装置36から読み出す。
表示位置計算器31fは、配置情報設定器31cによって設定された配置情報と、コマンド処理器31eによって取得された表示装置3の大まかな表示位置とに基づいて、表示装置3によって表示すべき映像の詳細な表示位置を計算する。ここで、詳細な表示位置は、例えば、各画素の座標などを含む。コマンド処理器31eは、配置情報を記憶装置36から読み出してもよく、表示装置3の大まかな表示位置を記憶装置36から読み出してもよい。
表示データ生成器31gは、通信回路33を介してサーバ装置1から第1の連結映像を受信する。表示データ生成器31gは、さらに、表示位置計算器31fによって計算された表示装置3の表示位置に基づいて、かつ、AR情報設定器31dによって設定されたAR情報リストに基づいて、映像処理回路34を制御し、受信した映像を処理させる。映像処理回路34は、表示データ生成器31gの制御下で、表示装置3の表示位置に基づいて、第1の連結映像から、表示装置3の表示範囲に対応する切り出し映像と、隣接表示範囲に対応する切り出し映像とを生成する。ここで、隣接表示範囲は、スクリーン6の左側もしくは右側に実際に隣接する他のスクリーン6の表示範囲、又は、スクリーン6の左側もしくは右側に仮想的に隣接する表示範囲を示す。次いで、映像処理回路34は、第1の連結映像の3つの切り出し映像から第2の連結映像を生成する。これにより、映像処理回路34は、第1の連結映像から、表示装置3の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成する。表示データ生成器31gは、AR情報リストに基づいて、第2の連結映像から目標画像を検出する。目標画像が検出されたとき、映像処理回路34は、表示データ生成器31gの制御下で、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成する。映像処理回路34は、表示データ生成器31gの制御下で、合成映像から、表示装置3の表示範囲に対応する切り出し映像を生成する。表示データ生成器31gは、サーバ装置1から受信した第1の連結映像に付加されたタイムスタンプに基づいて決定される時刻において、合成映像の切り出し映像を映像形成装置35から視覚可能な形式で出力させる。
本明細書では、第1の連結映像の切り出し映像を「第1の切り出し映像」ともいい、合成映像の切り出し映像を「第2の切り出し映像」ともいう。
各表示装置3の制御回路31の内部の各回路部分31a〜31gは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
[1−1−4.コマンド入力装置4の構成]
図5は、図1のコマンド入力装置4の構成を示すブロック図である。コマンド入力装置4は、制御回路41、赤外線発光器42、レンズ43、撮像素子44、映像処理回路45、及び通信回路46を備える。
図5は、図1のコマンド入力装置4の構成を示すブロック図である。コマンド入力装置4は、制御回路41、赤外線発光器42、レンズ43、撮像素子44、映像処理回路45、及び通信回路46を備える。
制御回路41は、コマンド入力装置4の全体の動作を制御する。赤外線発光器42は、赤外線を発生して図1のユーザ7の身体に照射する。レンズ43は、赤外線発光器42からユーザ7の身体に照射されて反射された光を集光して撮像素子44に入射させる。撮像素子44は、レンズ43を介して入射した光を電気信号に変換して赤外線映像を生成する。映像処理回路45は、制御回路41の制御下で、撮像素子44によって生成された赤外線映像を距離画像として処理し、赤外線映像からユーザ7のジェスチャーを認識する。通信回路46は、ハブ2を含むネットワークを介して、各表示装置3に通信可能に接続される。
制御回路41は、ネットワーク設定器41a、距離画像生成器41b、画像認識器41c、移動量計算器41d、及びコマンド生成器41eを備える。
ネットワーク設定器41aは、通信回路46を用いて、コマンド入力装置4のネットワーク接続の初期設定、例えばIPアドレスの設定を行う。
距離画像生成器41bは、赤外線発光器42から所定のパターンの赤外線を発生させ、撮像素子44によって生成された赤外線映像を、距離画像として映像処理回路45に取得させる。
画像認識器41cは、映像処理回路45に赤外線映像を距離画像として処理させることにより、赤外線映像からユーザ7のジェスチャーを認識する。ユーザ7のジェスチャーは、例えば、各表示装置3の表示位置を左又は右に移動させるために、手を左右に動かすことを含む。
移動量計算器41dは、画像認識器41cにより認識されたジェスチャーに基づいて、各表示装置3の現在の表示位置から、ユーザ7によって所望される各表示装置3の新たな表示位置までの移動量(例えば角度変化量)を計算する。
コマンド生成器41eは、移動量計算器41dにより計算された移動量に基づいてコマンドを生成し、生成したコマンドを、通信回路46を介して各表示装置3に送信する。
これにより、コマンド入力装置4は、ユーザ7のジェスチャーを撮影して認識する距離画像検出器として動作し、ジェスチャーに基づいてコマンドを生成する。
コマンド入力装置4の制御回路41の内部の各回路部分41a〜41eは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
[1−2.動作]
図6は、図1の映像表示システムによって実行される処理を示すシーケンス図である。
図6は、図1の映像表示システムによって実行される処理を示すシーケンス図である。
図6のステップS1〜S5において、サーバ装置1、表示装置3a〜3c、及びコマンド入力装置4は、起動後、ネットワークの初期設定を行い、それらのIPアドレスを設定する。
次にステップS6において、サーバ装置1は時刻同期マスタとして起動する。一方、ステップS7〜S9において、表示装置3a〜3cは時刻同期スレーブとしてそれぞれ起動する。次にステップS10〜S13において、サーバ装置1及び表示装置3a〜3cは、例えばIEEE1588の時刻同期プロトコルに従って時刻同期処理を行い、表示装置3a〜3cの時刻はサーバ装置1の時刻と同期する。
次にステップS14〜S16において、表示装置3a〜3cに現在の配置情報を設定する。図1の例では、表示装置3aが中央に配置され(θ2=0度)、表示装置3bが表示装置3aの右側90度の位置に配置され(θ2=90度)、表示装置3cが表示装置3aの左90度の位置に配置される(θ2=270度)。各表示装置3a〜3cは、入力装置32を介して配置情報のユーザ入力を取得してもよく、予め取得された配置情報を記憶装置36から読み出してもよい。
次にステップS17〜S19において、表示装置3a〜3cは、互いに関連付けられた目標画像及び仮想オブジェクトからなる少なくとも1つのペアを含むAR情報リストを設定する。
図9は、各表示装置3によって管理されるAR情報リストを示す図である。AR情報リストは、前述のように、互いに関連付けられた目標画像201及び仮想オブジェクト202からなる少なくとも1つのペアを含む。
再び図6を参照し、ステップS20において、コマンド入力装置4は、ユーザ7のジェスチャーを撮影して認識し、認識したジェスチャーに基づいてコマンドを生成し、生成したコマンドを表示装置3a〜3cに送信する。次にステップS21〜S23において、表示装置3a〜3cは、コマンド入力装置4から送信されたコマンドを受信する。
次にステップS24において、サーバ装置1は、映像データ生成及び配信処理を実行する。
図7は、図6の映像データ生成及び配信処理のサブルーチンを示すフローチャートである。
図7のステップS41において、サーバ装置1は、サーバ装置1の撮像素子13a〜13dによってそれぞれ生成された撮影映像から第1の連結映像を生成する。
図10は、図1の撮像素子13aによって生成される撮影映像101aを示す図である。図11は、図1の撮像素子13bによって生成される撮影映像101bを示す図である。図12は、図1の撮像素子13cによって生成される撮影映像101cを示す図である。図13は、図1の撮像素子13dによって生成される撮影映像101dを示す図である。前述のように、図1の撮像素子13a〜13dは、それらの視野の中心において、図2の+Y側、+X側、−X側、及び−Y側の元像5a〜5dをそれぞれ撮影する。レンズ12a〜12dは魚眼タイプであり、図10〜図13の例では、90度より大きく、180度よりも小さな視野角を有する。
図14は、図1のサーバ装置1によって生成される第1の連結映像111を示す図である。図14に示すように、撮影映像101a〜101dは互いに連結され、第1の連結映像111が生成される。第1の連結映像111は、例えば正距円筒図法を用いて、撮影映像101a〜101dから生成される。撮像素子13a〜13dから見た各点(すなわち、撮影映像101a〜101dにおける各点)の方位角及び仰角は、第1の連結映像111における経度及び緯度に対応する。図10〜図13の撮影映像101a〜101dは、図2の+Z側及び−Z側の元像5e,5fの一部をそれぞれ含んでいる。しかしながら、図1の例では、ユーザ7に対して上方向及び下方向に投写する表示装置及びスクリーンが設けられていないので、図14に示すように、第1の連結映像111において、元像5e,5fに対応する部分を除去してもよい。
再び図7を参照し、次にステップS42において、サーバ装置1は、第1の連結映像にタイムスタンプを付加する。次にステップS43において、サーバ装置1は、タイムスタンプが付加された第1の連結映像をマルチキャストパケットとして各表示装置3に配信する。
再び図6を参照し、次にステップS25〜S27において、表示装置3a〜3cは、映像データ受信及び表示処理を実行する。
図8は、図6の映像データ受信及び表示処理のサブルーチンを示すフローチャートである。
図8のステップS61において、表示装置3は、サーバ装置1から第1の連結映像を受信する。
次にステップS62において、表示装置3は、表示装置3自体の配置情報を取得する。次にステップS63において、表示装置3は、コマンド入力装置4から受信したコマンドから、表示装置3の表示位置の移動量を取得する。次にステップS64において、表示装置3は、表示装置3の配置情報及び移動量に基づいて、ユーザ7によって所望される表示装置3の新たな表示位置を計算する。
次にステップS65において、表示装置3は、第1の連結映像の各点の経度及び緯度情報と、表示装置3の新たな表示位置とに基づいて、第1の連結映像を立方体にマッピングする。
図15は、図1の各表示装置3によって第1の連結映像111から生成されたキューブマップ121を示す図である。図15の角度θ3は図1の角度θ2に対応する。図15のキューブマップ121において、水平面に対して垂直な4つの面は、表示装置3a〜3cの表示範囲と、スクリーン6bの右側かつスクリーン6cの左側に仮想的に隣接する表示範囲とにそれぞれ対応する。図15の例は、表示装置3aが図2の元像5a,5bにまたがる範囲を表示し、表示装置3bが図2の元像5b,5dにまたがる範囲を表示し、表示装置3cが図2の元像5a,5cにまたがる範囲を表示する場合を示す。
再び図8を参照し、次にステップS66において、表示装置3は、第1の連結映像をマッピングした立方体において、立方体の内部から外部に向かって、表示装置3の表示位置に対応する面と、その左側及び右側に隣接する面とを仮想的に撮影して、3つの第1の切り出し映像を生成する。
図16は、図15のキューブマップ121を撮影する仮想カメラ122を示す概略図である。図17は、図15のキューブマップ121から生成された第1の切り出し映像123を示す図である。図16及び図17は、図15のキューブマップ121において、表示装置3aの表示範囲に対応する面を仮想的に撮影する場合を示す。
また、図18は、図15のキューブマップ121から生成された第1の切り出し映像124を示す図である。図18は、図15のキューブマップ121において、表示装置3bの表示範囲に対応する面を仮想的に撮影する場合を示す。
図19は、図15のキューブマップ121から生成された第1の切り出し映像125を示す図である。図19は、図15のキューブマップ121において、表示装置3cの表示範囲に対応する面を仮想的に撮影する場合を示す。
図20は、図15のキューブマップ121から生成された第1の切り出し映像126を示す図である。図20は、図15のキューブマップ121において、スクリーン6bの右側かつスクリーン6cの左側に仮想的に隣接する表示範囲に対応する面を仮想的に撮影する場合を示す。
ステップS66では、表示装置3は、図15のキューブマップ121の水平面に対して垂直な4つの面のうち、θ3=n(n=0、90、又は270度)の方向の面と、θ3=n±90度の方向の面とを仮想的に撮影する。
再び図8を参照し、次にステップS67において、表示装置3は、3つの第1の切り出し映像から第2の連結映像を生成する。
図21は、図1の表示装置3aによって第1の切り出し映像123,124,125から生成された第2の連結映像131aを示す図である。第1の切り出し映像123が表示装置3aの表示範囲に対応し、第1の切り出し映像124,125がその隣接表示範囲に対応する。
図24は、図1の表示装置3bによって第1の切り出し映像123,124,126から生成された第2の連結映像131bを示す図である。第1の切り出し映像123が表示装置3bの表示範囲に対応し、第1の切り出し映像123,126がその隣接表示範囲に対応する。
図27は、図1の表示装置3cによって第1の切り出し映像123,125,126から生成された第2の連結映像131cを示す図である。第1の切り出し映像125が表示装置3cの表示範囲に対応し、第1の切り出し映像123,126がその隣接表示範囲に対応する。
再び図8を参照し、次にステップS68において、表示装置3は、AR情報リストを取得する。次にステップS69において、AR情報リストに基づいて、第2の連結映像から目標画像を検出する。次にステップS70において、表示装置3は、第2の連結映像から目標画像を検出したか否かを判断し、YESのときはステップS71に進み、NOのときはステップS72に進む。
ステップS71において、表示装置3は、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳して合成映像を生成する。
図22は、図21の第2の連結映像131aに仮想オブジェクト202を重畳した合成映像を示す図である。図25は、図24の第2の連結映像131bに仮想オブジェクト202を重畳した合成映像を示す図である。図21の第2の連結映像131a及び図24の第2の連結映像131bは、図9の目標画像201を含む。従って、図22及び図25に示すように、連結映像131a,131bにおいて、目標画像201と同じ部分画像に仮想オブジェクト202が重畳される。一方、図27の連結画像131cは図9の目標画像201を含まないので、連結画像131cには仮想オブジェクト202は重畳されない。
仮想オブジェクト202は、図22及び図25に示すように、目標画像201と同じ部分画像の上に重畳されてもよく、部分画像の近傍に重畳されてもよい。
再び図8を参照し、次にステップS72において、表示装置3は、合成映像から第2の切り出し映像を生成する。
図23は、図22の合成映像から生成された第2の切り出し映像141aを示す図である。図26は、図25の合成映像から生成された第2の切り出し映像141bを示す図である。図28は、図27の第2の連結映像131cから生成された第2の切り出し映像141bを示す図である。図23、図26、及び図28に示すように、表示装置3a〜3cは、それらの表示範囲に対応する第2の切り出し映像をそれぞれ生成する。
再び図8を参照し、次にステップS73において、各表示装置3は、第2の切り出し映像141a〜141cをタイムスタンプに従ってそれぞれ表示する。
このように、図8の映像データ受信及び表示によれば、各表示装置3は、サーバ装置1から受信した第1の連結映像から、当該表示装置3の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成する。次いで、各表示装置3は、第2の連結映像から目標画像を検出し、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成する。次いで、各表示装置3は、合成映像から、当該表示装置3の表示範囲に対応する切り出し映像を生成し、映像形成装置35から切り出し映像を出力する。
これにより、図1に示すように、複数の表示装置3を含む映像表示システムにおいて、各表示装置3の表示位置及び表示範囲がユーザ操作に応じてリアルタイムに変化する場合であっても、表示される映像に仮想オブジェクト202を適切に重畳することができる。
実施形態に係る映像表示システムによれば、各表示装置3の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成し、第2の連結映像から目標画像を検出することにより、図1に示すように目標画像が複数の表示装置3の表示範囲にまたがる場合であっても、表示される映像に仮想オブジェクト202を適切に重畳することができる。
このように、実施形態に係る映像表示システムによれば、映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳することができる。
[1−3.変形例]
図29は、実施形態の変形例に係るコマンド入力装置4A及びリモートコントローラ8の構成を示すブロック図である。図21の変形例では、図5のコマンド入力装置4のように距離画像検出器として動作してユーザ7のジェスチャーを認識することに代えて、ユーザ7によるリモートコントローラ8の空間的な動きを検出することによりユーザ7のジェスチャーを認識する。
コマンド入力装置4Aは、制御回路41A、通信回路46、及び無線受信回路47を備える。
制御回路41Aは、コマンド入力装置4Aの全体の動作を制御する。通信回路46は、図5の通信回路46と同様に構成される。無線受信回路47は、リモートコントローラ8と通信し、リモートコントローラ8の空間的な動きを示す信号を受信する。
制御回路41Aは、ネットワーク設定器41a、ジェスチャー認識器41f、移動量計算器41d、及びコマンド生成器41eを備える。
ネットワーク設定器41a、移動量計算器41d、及びコマンド生成器41eは、図5の対応する構成要素と同様に構成される。
ジェスチャー認識器41fは、リモートコントローラ8から受信した信号に基づいて、ユーザ7のジェスチャーを認識する。
リモートコントローラ8は、制御回路81、入力装置82、加速度センサ83、及び無線送信回路84を備える。
制御回路81は、リモートコントローラ8の全体の動作を制御する。入力装置82は、ユーザ入力を受けるキーボード又はボタンなどを含む。加速度センサ83は、リモートコントローラ8を保持するユーザ7のジェスチャーによって生じた、リモートコントローラ8にかかる加速度を検出する。制御回路81は、加速度センサ83によって検出された加速度に基づいて、リモートコントローラ8の空間的な動きを検出する。無線送信回路84は、コマンド入力装置4Aと通信し、リモートコントローラ8の空間的な動きを示す信号を送信する。
コマンド入力装置4Aの制御回路41Aの内部の各回路部分41a,41d,41e,41fは、ハードウェアとして構成されても、ソフトウェアとして構成されてもよい。
図21のコマンド入力装置4A及びリモートコントローラ8もまた、図5のコマンド入力装置4と同様に、ジェスチャーに基づいてコマンドを生成する。
次に、実施形態の他のいくつかの変形例について説明する。
サーバ装置は、4つ以外の複数の撮像素子を備えていてもよい。撮像素子は、サーバ装置の本体に一体化されていても、所定のインターフェースを介してサーバ装置の外部に接続されていてもよい。
映像表示システムは、ユーザを包囲するように例えば4つの表示装置を備えてもよい。
また、映像表示システムは、ユーザから見て90度とは異なる角度間隔で配置された複数の表示装置を備えてもよく、曲面(例えば円筒面)のスクリーンを備えてもよい。映像表示システムは、天井及び/又は床に投影する表示装置をさらに備えてもよい。この場合、第1の連結映像から、各表示装置の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成するとき、第2の連結映像は、左側及び右側の隣接表示範囲だけでなく、上側及び下側の隣接表示範囲も含むように生成される。
また、映像表示システムは、ユーザから見て90度とは異なる角度間隔で配置された複数の表示装置を備えてもよく、曲面(例えば円筒面)のスクリーンを備えてもよい。映像表示システムは、天井及び/又は床に投影する表示装置をさらに備えてもよい。この場合、第1の連結映像から、各表示装置の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成するとき、第2の連結映像は、左側及び右側の隣接表示範囲だけでなく、上側及び下側の隣接表示範囲も含むように生成される。
各表示装置の配置情報は、図4を参照して説明したように、表示装置の入力装置を介して入力されてもよく、カメラにより各表示装置を撮影することにより取得されてもよい。また、各表示装置の配置情報は、各表示装置に入力されることに代えて、サーバ装置に入力されてもよい。
各表示装置の映像形成装置は、投写型表示装置に代えて、例えば、液晶パネル、LEDパネルなどであってもよい。
コマンド入力装置は、サーバ装置又は表示装置のうちの1つに一体化されていてもよい。
コマンド入力装置は、サーバ装置を制御するコマンド(映像の配信及び表示の一時停止及び停止、映像表示システムの電源オフ、など)を取得し、当該コマンドをサーバ装置に送信してもよい。
[1−4.効果等]
本開示の態様に係る表示装置によれば、サーバ装置1から配信された映像を表示する表示装置3a〜3cが提供される。表示装置3a〜3cは、通信回路33、映像形成装置35、記憶装置36、及び制御回路31を備える。通信回路33は、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像から生成された1つの第1の連結映像をサーバ装置1から受信する。映像形成装置35は、映像を視覚可能な形式で出力する。記憶装置36は、予め決められた目標画像及び目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶する。制御回路31は、第1の連結映像から、表示装置3a〜3cの表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成する。制御回路31は、第2の連結映像から目標画像を検出し、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成する。制御回路31は、合成映像から、表示装置3a〜3cの表示範囲に対応する切り出し映像を生成する。制御回路31は、切り出し映像を視覚可能な形式で出力するように映像形成装置35を制御する。
本開示の態様に係る表示装置によれば、サーバ装置1から配信された映像を表示する表示装置3a〜3cが提供される。表示装置3a〜3cは、通信回路33、映像形成装置35、記憶装置36、及び制御回路31を備える。通信回路33は、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像から生成された1つの第1の連結映像をサーバ装置1から受信する。映像形成装置35は、映像を視覚可能な形式で出力する。記憶装置36は、予め決められた目標画像及び目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶する。制御回路31は、第1の連結映像から、表示装置3a〜3cの表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成する。制御回路31は、第2の連結映像から目標画像を検出し、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成する。制御回路31は、合成映像から、表示装置3a〜3cの表示範囲に対応する切り出し映像を生成する。制御回路31は、切り出し映像を視覚可能な形式で出力するように映像形成装置35を制御する。
これにより、映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳することができる。
本開示の態様に係る映像表示システムによれば、サーバ装置1と、請求項1記載の複数の表示装置3a〜3cとを含む映像表示システムが提供される。サーバ装置1は、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像を処理して第1の連結映像を生成する映像処理回路14と、複数の表示装置3a〜3cに第1の連結映像を配信する通信回路15とを備える。
これにより、映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳することができる。
本開示の態様に係る映像表示システムによれば、複数の撮影映像は、複数の撮像素子13a〜13dの周りの全方位又は全天球をカバーする。
これにより、全方向カメラによって撮影された映像を表示することができる。
本開示の態様に係る映像表示システムによれば、サーバ装置1の映像処理回路14は、正距円筒図法を用いて複数の撮影映像から第1の連結映像を生成する。
これにより、複数の撮影映像から連結映像を適切に生成することができる。
本開示の態様に係る映像表示システムによれば、映像表示システムは、複数の撮影映像によって表される範囲のうち、複数の表示装置3a〜3cによってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドをユーザ7から取得するコマンド入力装置4をさらに含む。各表示装置3a〜3cは、コマンド入力装置4からコマンドを受信する。
これにより、各表示装置3の表示位置及び表示範囲がユーザ操作に応じてリアルタイムに変化する場合であっても、表示される映像に仮想オブジェクト202を適切に重畳することができる。
本開示の態様に係る映像表示システムによれば、コマンド入力装置4は、ユーザ7のジェスチャーを撮影して認識する距離画像検出器を備え、ジェスチャーに基づいてコマンドを生成する。
これにより、ジェスチャーに基づいてコマンドを確実に生成することができる。
本開示の態様に係る映像表示システムによれば、リモートコントローラ8は、ユーザ7のジェスチャーを検出する加速度センサ83を備え、コマンド入力装置4は、ジェスチャーに基づいてコマンドを生成する。
これにより、ジェスチャーに基づいてコマンドを確実に生成することができる。
本開示の態様に係る映像表示方法によれば、サーバ装置1から複数の表示装置3a〜3cに映像を配信して表示する映像表示方法が提供される。本方法は、各表示装置3a〜3cが、予め決められた目標画像及び目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶装置36から読み出すステップを含む。本方法は、サーバ装置1が、複数の撮像素子13a〜13dによってそれぞれ生成された複数の撮影映像から1つの第1の連結映像を生成して各表示装置3a〜3cに配信するステップを含む。本方法は、各表示装置3a〜3cが、第1の連結映像から、当該表示装置3a〜3cの表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成するステップを含む。本方法は、各表示装置3a〜3cが、第2の連結映像から目標画像を検出し、目標画像に関連付けられた仮想オブジェクトを第2の連結映像に重畳した合成映像を生成するステップを含む。本方法は、各表示装置3a〜3cが、合成映像から、当該表示装置3a〜3cの表示範囲に対応する切り出し映像を生成するステップを含む。本方法は、各表示装置3a〜3cが、切り出し映像を視覚可能な形式で出力するステップを含む。
これにより、映像に含まれる目標映像に関連付けられた仮想オブジェクトを適切に重畳することができる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。また、第1及び第2の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
以上のように、本出願において開示する技術の例示として実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。また、第1及び第2の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
以上のように、本開示に係る技術の例示として実施形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
以上のように、添付図面および詳細な説明によって、ベストモードと考える実施形態を提供した。これら、特定の実施形態を参照することにより、当業者に対して、特許請求の範囲に記載の主題を例証するために提供されるものである。したがって、特許請求の範囲またはその均等の範囲において、上述の実施形態に対して、種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、全方向カメラによって撮影された一体の映像にリアルタイムで拡張現実情報を重畳して表示する、ビデオウォール及びマルチプロジェクションなどのマルチディスプレイシステムに適用可能である。
1…サーバ装置、
2…ハブ、
3a〜3c…表示装置、
4,4A…コマンド入力装置、
5…風景、
6a〜6c…スクリーン、
7…ユーザ、
8…リモートコントローラ、
11…サーバ装置の制御回路、
12a〜12d…サーバ装置のレンズ、
13a〜13d…サーバ装置の撮像素子、
14…サーバ装置の映像処理回路、
15…サーバ装置の通信回路、
16…サーバ装置の記憶装置、
31…制御回路、
32…表示装置の入力装置、
33…表示装置の通信回路、
34…表示装置の映像処理回路、
35…表示装置の映像形成装置、
36…表示装置の記憶装置、
41,41A…コマンド入力装置の制御回路、
42…コマンド入力装置の赤外線発光器、
43…コマンド入力装置のレンズ、
44…コマンド入力装置の撮像素子、
45…コマンド入力装置の映像処理回路、
46…コマンド入力装置の通信回路、
47…無線受信回路、
81…リモートコントローラの制御回路、
82…リモートコントローラの入力装置、
83…リモートコントローラの加速度センサ、
84…リモートコントローラの無線送信回路。
2…ハブ、
3a〜3c…表示装置、
4,4A…コマンド入力装置、
5…風景、
6a〜6c…スクリーン、
7…ユーザ、
8…リモートコントローラ、
11…サーバ装置の制御回路、
12a〜12d…サーバ装置のレンズ、
13a〜13d…サーバ装置の撮像素子、
14…サーバ装置の映像処理回路、
15…サーバ装置の通信回路、
16…サーバ装置の記憶装置、
31…制御回路、
32…表示装置の入力装置、
33…表示装置の通信回路、
34…表示装置の映像処理回路、
35…表示装置の映像形成装置、
36…表示装置の記憶装置、
41,41A…コマンド入力装置の制御回路、
42…コマンド入力装置の赤外線発光器、
43…コマンド入力装置のレンズ、
44…コマンド入力装置の撮像素子、
45…コマンド入力装置の映像処理回路、
46…コマンド入力装置の通信回路、
47…無線受信回路、
81…リモートコントローラの制御回路、
82…リモートコントローラの入力装置、
83…リモートコントローラの加速度センサ、
84…リモートコントローラの無線送信回路。
Claims (8)
- サーバ装置から配信された映像を表示する表示装置であって、前記表示装置は、
複数の撮像素子によってそれぞれ生成された複数の撮影映像から生成された1つの第1の連結映像を前記サーバ装置から受信する通信回路と、
映像を視覚可能な形式で出力する映像形成装置と、
予め決められた目標画像及び前記目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶した記憶装置と、
制御回路とを備え、
前記制御回路は、
前記第1の連結映像から、前記表示装置の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成し、
前記第2の連結映像から前記目標画像を検出し、前記目標画像に関連付けられた仮想オブジェクトを前記第2の連結映像に重畳した合成映像を生成し、
前記合成映像から、前記表示装置の表示範囲に対応する切り出し映像を生成し、
前記切り出し映像を視覚可能な形式で出力するように前記映像形成装置を制御する、
表示装置。 - サーバ装置と、請求項1記載の複数の表示装置とを含む映像表示システムであって、
前記サーバ装置は、
複数の撮像素子によってそれぞれ生成された複数の撮影映像を処理して前記第1の連結映像を生成する映像処理回路と、
前記複数の表示装置に前記第1の連結映像を配信する通信回路とを備えた、
映像表示システム。 - 前記複数の撮影映像は、前記複数の撮像素子の周りの全方位又は全天球をカバーする、
請求項2記載の映像表示システム。 - 前記サーバ装置の映像処理回路は、正距円筒図法を用いて前記複数の撮影映像から前記第1の連結映像を生成する、
請求項3記載の映像表示システム。 - 前記映像表示システムは、前記複数の撮影映像によって表される範囲のうち、前記複数の表示装置によってそれぞれ表示される映像の範囲を示す表示位置を指定するコマンドをユーザから取得するコマンド入力装置をさらに含み、
前記各表示装置は、前記コマンド入力装置から前記コマンドを受信する、
請求項2〜4のうちの1つに記載の映像表示システム。 - 前記コマンド入力装置は、前記ユーザのジェスチャーを撮影して認識する距離画像検出器を備え、前記ジェスチャーに基づいて前記コマンドを生成する、
請求項5記載の映像表示システム。 - 前記コマンド入力装置は、前記ユーザのジェスチャーを検出する加速度センサを備え、前記ジェスチャーに基づいて前記コマンドを生成する、
請求項5記載の映像表示システム。 - サーバ装置から複数の表示装置に映像を配信して表示する映像表示方法であって、
前記各表示装置が、予め決められた目標画像及び前記目標画像に関連付けられた仮想オブジェクトからなる少なくとも1つのペアを含む拡張現実情報リストを記憶装置から読み出すステップと、
前記サーバ装置が、複数の撮像素子によってそれぞれ生成された複数の撮影映像から1つの第1の連結映像を生成して前記各表示装置に配信するステップと、
前記各表示装置が、前記第1の連結映像から、当該表示装置の表示範囲の映像及び隣接表示範囲の映像を含む第2の連結映像を生成するステップと、
前記各表示装置が、前記第2の連結映像から前記目標画像を検出し、前記目標画像に関連付けられた仮想オブジェクトを前記第2の連結映像に重畳した合成映像を生成するステップと、
前記各表示装置が、前記合成映像から、当該表示装置の表示範囲に対応する切り出し映像を生成するステップと、
前記各表示装置が、前記切り出し映像を視覚可能な形式で出力するステップとを含む、
映像表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018025061A JP2019139697A (ja) | 2018-02-15 | 2018-02-15 | 表示装置、映像表示システム、及び映像表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018025061A JP2019139697A (ja) | 2018-02-15 | 2018-02-15 | 表示装置、映像表示システム、及び映像表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019139697A true JP2019139697A (ja) | 2019-08-22 |
Family
ID=67694176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018025061A Pending JP2019139697A (ja) | 2018-02-15 | 2018-02-15 | 表示装置、映像表示システム、及び映像表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019139697A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114222188A (zh) * | 2021-12-28 | 2022-03-22 | 深圳小湃科技有限公司 | 基于旋转屏的全屏显示方法、装置、设备及存储介质 |
-
2018
- 2018-02-15 JP JP2018025061A patent/JP2019139697A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114222188A (zh) * | 2021-12-28 | 2022-03-22 | 深圳小湃科技有限公司 | 基于旋转屏的全屏显示方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7452596B2 (ja) | 通信端末、表示方法、プログラム及び画像通信システム | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
JP4098808B2 (ja) | 遠隔映像表示方法、映像取得装置及びその方法とそのプログラム | |
JP2022031324A (ja) | 通信管理システム、通信システム、通信管理方法、及びプログラム | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
WO2020084951A1 (ja) | 画像処理装置および画像処理方法 | |
US11228737B2 (en) | Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium | |
KR20150067197A (ko) | 비디오 시각 변경 방법 및 장치 | |
JP2020149635A (ja) | 撮像装置、画像通信システム、画像処理方法、プログラム | |
US11743590B2 (en) | Communication terminal, image communication system, and method for displaying image | |
US20220070412A1 (en) | Communication terminal, image communication system, method of displaying image, and recording medium | |
US11818492B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
US11736802B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JP2023164844A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019139697A (ja) | 表示装置、映像表示システム、及び映像表示方法 | |
JP7379785B2 (ja) | 3dツアーの比較表示システム及び方法 | |
KR20180010891A (ko) | Vr기기를 통한 360도 오페라 영상 제공방법 | |
JP7017045B2 (ja) | 通信端末、表示方法、及びプログラム | |
JP5189673B1 (ja) | 表示装置、表示方法、ならびに、プログラム | |
US11533430B2 (en) | Image capturing device with display control, image communication system, and method for display control, and recording medium | |
JP2019140530A (ja) | サーバ装置、表示装置、映像表示システム、及び映像表示方法 | |
JP2019062534A (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
EP4099705A1 (en) | Communication terminal, image communication system, method for displaying image, and carrier means |