JP6027585B2 - 表示システム、表示方法及びプログラム - Google Patents

表示システム、表示方法及びプログラム Download PDF

Info

Publication number
JP6027585B2
JP6027585B2 JP2014193405A JP2014193405A JP6027585B2 JP 6027585 B2 JP6027585 B2 JP 6027585B2 JP 2014193405 A JP2014193405 A JP 2014193405A JP 2014193405 A JP2014193405 A JP 2014193405A JP 6027585 B2 JP6027585 B2 JP 6027585B2
Authority
JP
Japan
Prior art keywords
computers
display
server
virtual space
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014193405A
Other languages
English (en)
Other versions
JP2016066149A (ja
Inventor
秀行 栗原
秀行 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2014193405A priority Critical patent/JP6027585B2/ja
Publication of JP2016066149A publication Critical patent/JP2016066149A/ja
Application granted granted Critical
Publication of JP6027585B2 publication Critical patent/JP6027585B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、表示システム、表示方法及びプログラムに関し、より詳細には、複数のディスプレイを用いて高解像度の映像を大画面で表示するためのシステム、方法及びプログラムに関する。
複数のディスプレイを並べることにより、1台の大きなディスプレイとして用いて、映像を表示する技術が知られている。このような技術によれば、単一の大画面ディスプレイを用いる場合と比較して、個々のディスプレイの解像度を生かすことができる。このため、表示システム全体として、より高解像度の映像を大画面に表示することが可能となる。このような技術は、例えば、新製品発表のための記者会見などの場面において、映像を大画面に表示する場合などに、特に有用である。
しかしながら、上記のようなシステムにおいて、高解像度の映像ソースを複数の部分に分割し、それぞれの部分をそれぞれ対応する複数のディスプレイに分配配信するためには、専用の機器が必要となり、そのコストは非常に高くなる。また、高解像度の映像ソースを処理するためにコンピュータにかかる負荷は非常に大きくなる。
例えば、4Kディスプレイ(横3840ドット×縦2160ドット)を横に7台、縦に3台並べて1台の27Kディスプレイ(横26880ドット×縦6480ドット)として使用し、非常に高い解像度の映像を表示するシステムを実現しようとすると、27Kの映像ソースを21個の4K映像ソースに分割し、それぞれの4K映像ソースを21台の4Kディスプレイの各々に配信するための専用のハードウェアが必要となる。しかしながら、そのようなハードウェアは現状存在しない。また、仮にそのようなハードウェアを実現できたとしても、それに係る負担は非常に大きなものとなる。さらに、27Kの映像ソースの作成には高いコストがかかるうえ、メンテナンス性が著しく低下する。
したがって、コンピュータに対して過度の負荷をかけることなく、複数のディスプレイからなるディスプレイに高解像度の映像を表示することを可能とする技術が必要とされている。
上記課題を解決するための本発明の一態様は、並べて配置することにより1つのディスプレイとして使用される複数のディスプレイと、複数のディスプレイの各々に各々が接続される複数のコンピュータと、複数のコンピュータに接続されるサーバとを具備する表示システムである。サーバは、3次元仮想空間のデータと、複数のコンピュータと同数の複数の仮想カメラの各々についての、各時点における3次元仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行し、複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示し、複数のコンピュータの各々に、該コンピュータが複数の仮想カメラのうちのどの仮想カメラに対応するかを通知し、複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理により画像を取得し、該コンピュータに接続されたディスプレイに画像を他のコンピュータと同期して表示するよう指示するように構成される。
実施例において、3次元仮想空間は、その中で動くオブジェクトの3次元モデルを含む。サーバは、実行ファイルを実行するとき、3次元仮想空間におけるオブジェクトの座標情報を取得し、当該座標情報を複数のコンピュータに送る。複数のコンピュータは、当該座標情報に基づいて、オブジェクトの3次元モデルを、1つのディスプレイに表示する。
実施例において、複数のディスプレイの各々は4Kディスプレイであってもよい。
実施例において、3次元仮想空間は、低解像度の3次元映像をアップサンプリングすることによって作成される。
本発明の別の態様は、表示システムにおいて映像を表示する方法であって、表示システムは、並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、複数のディスプレイの各々に各々が接続される複数のコンピュータと、複数のコンピュータに接続されるサーバとを含む。当該方法は、サーバが、3次元仮想空間のデータと、複数のコンピュータと同数の複数の仮想カメラの各々についての、各時点における3次元仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行するステップと、サーバが、複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示するステップと、サーバが、複数のコンピュータの各々に、該コンピュータが複数の仮想カメラのうちのどの仮想カメラに対応するかを通知するステップと、サーバが、複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理により画像を取得し、該コンピュータに接続されたディスプレイに画像を他のコンピュータと同期して表示するよう指示するステップとを含む。
実施例において、3次元仮想空間は、その中で動くオブジェクトの3次元モデルを含む。方法は、サーバが、実行ファイルを実行するとき、3次元仮想空間におけるオブジェクトの座標情報を取得し、座標情報を複数のコンピュータに送るステップをさらに含んでもよい。複数のコンピュータは、座標情報に基づいて、オブジェクトの3次元モデルを、1つのディスプレイに表示してもよい。
本発明の別の態様は、並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、複数のディスプレイの各々に各々が接続される複数のコンピュータと、複数のコンピュータに接続されるサーバとを含む表示システムのためのプログラムである。当該プログラムは、サーバによって実行されると、サーバに、3次元仮想空間のデータと、複数のコンピュータと同数の複数の仮想カメラの各々についての、各時点における3次元仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行するステップと、複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示するステップと、複数のコンピュータの各々に、該コンピュータが複数の仮想カメラのうちのどの仮想カメラに対応するかを通知するステップと、複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理によって画像を取得し、該コンピュータに接続されたディスプレイに当該画像を他のコンピュータと同期して表示するよう指示するステップとを実行させる。
実施例において、3次元仮想空間は、その中で動くオブジェクトの3次元モデルを含む。プログラムは、サーバによって実行されると、サーバに、実行ファイルを実行するとき、3次元仮想空間におけるオブジェクトの座標情報を取得し、座標情報を複数のコンピュータに送るステップをさらに実行させてもよい。複数のコンピュータは、座標情報に基づいて、オブジェクトの3次元モデルを、1つのディスプレイに表示する。
本発明によれば、コンピュータに対して過度の負荷をかけることなく、複数のディスプレイからなる大画面ディスプレイに高解像度の映像を表示することができる。また、低解像度の3次元映像をアップサンプリングすることによって3次元仮想空間を作成することができ、映像ソースの作成に係るコストを抑えることができる。
本発明の実施例による表示システムを概略的に示す。 図1の表示システムの動作を示すシーケンス図である。 本発明の実施例において実行ファイルに含まれる3次元仮想空間の一例を示す。 ディスプレイに表示される画像の一例を示す。 ディスプレイに表示される画像の別の例を示す。 3次元仮想空間において各仮想カメラによって取得されたデータに対するレンダリング処理の結果として得られる、各仮想カメラに対応する画像を示す。 3次元仮想空間において各仮想カメラによって取得されたデータに対するレンダリング処理の結果として得られる、各仮想カメラに対応する画像を示す。 3次元仮想空間において各仮想カメラによって取得されたデータに対するレンダリング処理の結果として得られる、各仮想カメラに対応する画像を示す。 図6A乃至図6Cの画像に基づいてディスプレイ全体に表示される画像を示す。 本発明の実施例による、表示システムにおいて映像を表示する方法のフローチャートである。
本発明は、並べて配置することにより1つのディスプレイとして使用される複数のディスプレイと、当該複数のディスプレイの各々に各々が接続される複数のコンピュータと、当該複数のコンピュータに接続されるサーバとを具備する表示システムの構成、表示方法及びプログラムに特徴を有するものである。表示システムの実施例において、サーバは、3次元仮想空間のデータと、複数のコンピュータと同数の複数の仮想カメラの各々についての、各時点における3次元仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行する。また、サーバは、複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示する。また、サーバは、複数のコンピュータの各々に、該コンピュータが複数の仮想カメラのうちのどの仮想カメラに対応するかを通知する。また、サーバは、複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理により画像を取得し、該コンピュータに接続されたディスプレイにその画像を他のコンピュータと同期して表示するよう指示する。
以下、本発明の実施例について、図面を参照して説明する。
図1は、本発明の実施例による表示システム100を概略的に示す。表示システム100は、21台のディスプレイ102−1乃至102−21を横7台、縦3台に並べることによって構成されるディスプレイ102を含む。また、表示システム100は、コンピュータ104−1乃至104−21、並びにサーバ106を含む。ディスプレイ102−1乃至102−21の各々は、コンピュータ104−1乃至104−21の各々にそれぞれ接続される。例えば、ディスプレイ102−1はコンピュータ104−1に接続され、ディスプレイ102−2はコンピュータ104−2に接続され、ディスプレイ102−21はコンピュータ104−21に接続される。コンピュータ104−1乃至104−21とサーバ106は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、イントラネット、インターネットなどの様々な通信ネットワークを介して接続されてもよい。コンピュータ104−1乃至104−21の各々は、レンダリング処理を行い、レンダリング処理によって得られる画像を対応するディスプレイ102−1乃至102−21に表示させる。サーバ106は、コンテンツの表示に関する様々な指示をコンピュータ104−1乃至104−21に送る。
図1において、ディスプレイ102は、21台のディスプレイ102−1乃至102−21を横7台、縦3台に並べることによって構成されているが、任意の数のディスプレイを任意の形式で配置して、1つのディスプレイ102として使用することが可能である。この場合、各ディスプレイに1つのコンピュータが割り当てられる。また、ディスプレイ102−1乃至102−21は、任意の解像度を有することができる。例えば、ディスプレイ102−1乃至102−21は、4K(横3840ドット×縦2160ドット)の解像度を有する4Kディスプレイであってもよい。
コンピュータ104−1乃至104−21の各々は、プロセッサ108及び記憶部110を有する。記憶部110は、揮発性又は不揮発性の、取り外し可能な又は取り外し不能な記憶媒体とすることができる。記憶部は、所望の情報を格納するために使用することができ、コンピュータ104−1乃至104−21によってアクセスできる任意の記憶媒体であってもよい。図1において、記憶部110はコンピュータ104−1乃至104−21に内蔵されているが、記憶部110は、コンピュータ104−1乃至104−21の外部に配置されてコンピュータ104−1乃至104−21と通信するように構成されてもよい。後述するように、ディスプレイ102を用いた映像の表示に先立って、記憶部110は、3次元仮想空間を含む実行ファイル112を格納する。実行ファイル112は、少なくとも、ディスプレイ102を用いて表示する映像の基礎となる3次元仮想空間のデータと、当該3次元仮想空間内での各時点における仮想カメラの位置及び角度に関する情報とを含む。仮想カメラの数はコンピュータ104−1乃至104−21の台数と同数とすることができる。したがって、この場合、実行ファイルは、3次元仮想空間内での各時点における21台の仮想カメラ(「仮想カメラ1乃至21」とする)の各々について、位置及び角度の情報を含んでいる。後述するように、仮想カメラ1乃至21の各々は、コンピュータ104−1乃至104−21の各々に対応付けられる。本発明によれば、任意の数のディスプレイを任意の形式で配置して、1つのディスプレイ102として使用することが可能であり、したがって、ディスプレイの数と同数の任意の数のコンピュータ及び仮想カメラを用いてもよい。
サーバ106は、プロセッサ114及び記憶部116を含む。図1において、記憶部116はサーバ106に内蔵されているが、記憶部110は、サーバ106の外部に配置されてサーバ106と通信するように構成されてもよい。コンピュータ104−1乃至104−21と同様に、ディスプレイ102を用いた映像の表示に先立って、記憶部116は、3次元仮想空間のデータ並びに仮想カメラ1乃至21の位置及び角度に関する情報を含む実行ファイル118を格納する。
図2は、図1の表示システム100の動作を示すシーケンス図である。サーバ106は、ディスプレイ102を用いた映像の表示のための実行ファイル118を記憶部116に予め格納している(202)。同様に、コンピュータ104−1乃至104−21もまた、実行ファイル112を記憶部110に予め格納している(204)。実行ファイルは、ディスプレイ102により表示される映像の基礎となる3次元仮想空間のデータと、当該3次元仮想空間内での各時点における複数の仮想カメラ1乃至21の各々の位置及び角度に関するデータとを含む。実行ファイルの実行中、様々な時点において、様々な位置及び角度に配置された複数の仮想カメラによって3次元仮想空間を撮影し、3次元仮想空間に関する情報を取得することができる。
サーバ106は、実行ファイル118の実行を開始し(206)、さらに、コンピュータ104−1乃至104−21に対して、実行ファイル112を実行するよう指示する(208)。その際、サーバ106は、コンピュータ104−1乃至104−21が同期して実行ファイル112を実行するよう、各コンピュータに指示を送る。また、サーバ106は、初期設定として、コンピュータ104−1乃至104−21の各々が21台の仮想カメラ1乃至21のうちのどの仮想カメラの情報を処理するのかにつき、コンピュータ104−1乃至104−21と仮想カメラ1乃至21との間の対応付けに関する情報をコンピュータ104−1乃至104−21に送る(210)。
サーバ106は、実行ファイル118の実行中に、3次元仮想空間内で動くオブジェクトの、3次元仮想空間に関する座標情報を取得する(210)。すなわち、サーバ106は、実行ファイル118の実行中のどの時点(あるいは、場面)において、オブジェクトが3次元仮想空間内のどの位置に存在するか、どのような姿勢をとっているか等について情報を得ることができる。
コンピュータ104−1乃至104−21の各々は、サーバ106からの指示(208)に従って、他のコンピュータと同期して実行ファイル112の実行を開始する(212)。
次いで、サーバ106は、コンピュータ104−1乃至104−21に、実行ファイル中で定義される複数の仮想カメラ(ここでは、仮想カメラ1乃至21)のうちのどの仮想カメラにコンピュータ104−1乃至104−21のどのコンピュータが対応するかについて通知する(214)。本実施例において、実行ファイルは、コンピュータの個数(21台)と同数の仮想カメラ1乃至21を規定するように構成される。サーバ106から受け取った指示に基づいて、コンピュータ104−1乃至104−21の各々は、自身がどの仮想カメラに対応づけられるか、どの仮想カメラが取得した情報を処理するべきかを認識する。例えば、サーバ106からの指示に従い、コンピュータ104−1は仮想カメラ1に対応付けられ、コンピュータ104−2は仮想カメラ2に対応付けられ、コンピュータ104−21は仮想カメラ21に対応付けられる。
次いで、サーバ106は、ステップ210において取得した、オブジェクトの3次元仮想空間における座標情報を、コンピュータ104−1乃至104−21に送る(216)。
コンピュータ104−1乃至104−21の各々は、サーバ106からの通知(214)に基づいて、自身がどの仮想カメラに関連付けられるかを知ることができる。また、サーバ106から受け取ったオブジェクトの座標情報(216)に基づいて、様々な時点において、3次元仮想空間のどこにオブジェクトが存在するか、オブジェクトがどのような姿勢をとっているか等を知ることができる。したがって、コンピュータ104−1乃至104−21の各々は、実行ファイル112の実行中の様々な時点において、対応する仮想カメラが3次元仮想空間に関して取得した情報と、その時点におけるオブジェクトの座標情報とを得ることができる。
次いで、サーバ106は、コンピュータ104−1乃至104−21の各々に対して、レンダリング処理及びコンテンツの表示を、他のコンピュータと同期して実行するよう指示する(218)。当該指示を受けて、コンピュータ104−1乃至104−21の各々は、対応する仮想カメラ1乃至21の各々によって3次元仮想空間内で取得されたデータを、他のコンピュータと同期してレンダリングする(220)。さらに、コンピュータ104−1乃至104−21の各々は、レンダリングによって得られた画像を、対応するディスプレイ102−1乃至102−21の各々に送り(222)、同期して表示させる(224)。各コンピュータは、他のコンピュータに関連付けられる仮想カメラが取得したデータについてはレンダリング処理をしない。したがって、画像のサイズが非常に大きい場合であっても、1つのコンピュータがレンダリング処理をするべき画像の大きさを制限することができる。したがって、1台のコンピュータに係る負担が軽くなり、システム全体として、所望のレンダリング速度を実現することができる。
図3は、実行ファイルに含まれる3次元仮想空間300の一例を示す。ここで、3次元仮想空間300には、ステージ332、ステージ332上を移動するクマのオブジェクト334、及びステージ332の後方に配置されたクマのマーク及び「コプラ」という文字336が存在している。ここでは仮想カメラ332はステージ332の前方に配置され、ステージ332の方に向けられている。図3において詳細には示されないが、本実施例において、仮想カメラ330は21台の仮想カメラ330−1乃至330−21からなる。仮想カメラ330−1乃至330−21は、隣り合う仮想カメラが3次元仮想空間300中の隣り合う領域を写すように配置される。一例として、仮想カメラ330は、3次元仮想空間300に関して、格子338で示される領域を撮影する。格子338の各区画338−1乃至338−21は、仮想カメラ330−1乃至330−21が写す領域に対応する。図2のシーケンスのステップ220において、コンピュータ104−1乃至104−21は、対応する仮想カメラ330−1乃至330−21が取得したデータ338−1乃至338−21を、他のコンピュータと同期してレンダリングし、得られた画像をディスプレイ102−1乃至102−21にそれぞれ送り、同期して表示させる。
図4は、このようにしてディスプレイ102に表示された画像を示す。図3におけるデータ338−1乃至338−21は上述のようにレンダリングされて、ディスプレイ102−1乃至102−21にそれぞれ表示される。クマのマーク及び「コプラ」という文字は、ディスプレイ102−3、102−5、102−10乃至102−12にわたって表示されている。また、クマのオブジェクト434が、ディスプレイ102−11及び102−18にわたって表示されている。図2に関連して説明したように、サーバ106が3次元仮想空間300中のクマのオブジェクト334の座標情報を取得し、当該座標情報をコンピュータ104−1乃至104−21に送る。コンピュータ104−1乃至104−21は、当該座標情報に基づいて、図4に示すように、クマのオブジェクト434をディスプレイ102上の正確な位置に表示することができる。
図5は、図4とは別の時点において、クマのオブジェクト534がクマのマークにぶら下がっているときに、図3の3次元仮想空間300に基づいてディスプレイ102に表示された別の画像を示す。表示内容は、クマのオブジェクトを除いて図4と同じである。本実施例では、3次元仮想空間300は、その中でクマのオブジェクトが動き回るように作成されている。サーバ106は、3次元仮想空間300中のクマのオブジェクト334の座標情報(クマがクマのマークにぶら下がっている状態を示す)を取得し、当該座標情報をコンピュータ104−1乃至104−21に送る。コンピュータ104−1乃至104−21は、当該座標情報に基づいて、図5に示すように、クマのオブジェクト534をディスプレイ102上の正確な位置に表示することができる。
図6A乃至6Cは、一例として、コンピュータ104−1乃至104−21がゲームアプリケーションの3次元仮想空間を含む実行ファイルを実行した場合に、ある時点で仮想カメラ1乃至21によって取得されたデータに対するレンダリング処理の結果として得られる、各仮想カメラに対応する画像を示す。図6A(1)乃至(7)は、それぞれ、仮想カメラ1乃至7によって撮影されたデータをコンピュータ104−1乃至104−7がレンダリング処理することによって得られた画像である。図6B(8)乃至(14)は、それぞれ、仮想カメラ8乃至14によって撮影されたデータをコンピュータ104−8乃至104−14がレンダリング処理することによって得られた画像である。図6C(15)乃至(21)は、それぞれ、仮想カメラ15乃至21によって撮影されたデータをコンピュータ104−15乃至104−21がレンダリング処理することによって得られた画像である。コンピュータ104−1乃至104−21は、それぞれ、画像(1)乃至(21)を、ディスプレイ102−1乃至102−21上に表示させる。図7は、上記の作業の結果としてディスプレイ102全体に表示される画像を示す。
本実施例の表示システム100は、映像を表示するものとして説明されたが、静止画、メッセージなどの表示にも使用できることは当業者にとって明らかであろう。
ここまで、本発明の実施例として表示システムの構成について説明したが、本発明は、表示システムにおいて映像を表示する方法として実施することもできる。図8は、本発明の実施例による、表示システム100において映像を表示する方法を示すフローチャートである。
方法はステップ802において開始し、ステップ804において、3次元仮想空間のデータと当該3次元仮想空間内での各時点における仮想カメラの位置及び角度に関する情報とを含む実行ファイルが実行される。ステップ806において、複数のコンピュータの各々に対して、実行ファイルを同期して実行するよう指示がなされる。ステップ808において、3次元仮想空間中のオブジェクトの座標情報が取得される。ステップ810において、複数のコンピュータの各々に対して、該コンピュータが複数の仮想カメラのうちのどの仮想カメラに対応するかについて通知がなされる。ステップ812において、オブジェクトの座標情報が複数のコンピュータの各々に送られる。ステップ814において、複数のコンピュータの各々に対して、該コンピュータに対応する仮想カメラが3次元仮想空間内で取得した情報及びサーバから受け取ったオブジェクトの座標情報に基づいて、他のコンピュータと同期してレンダリング処理を行って画像を取得し、該コンピュータに接続されたディスプレイに当該画像を他のコンピュータと同期して表示するよう指示がなされる。結果として、複数のディスプレイからなる大画面のディスプレイ上に映像が表示される。ステップ816において方法は終了する。
本発明はまた、プログラムとして実施することもできる。この場合、実施例は、表示システム100のサーバ106によって実行されると、サーバ106に、図8に示す各ステップを実行させるプログラムである。
本発明において、3次元仮想空間は、既に実行されたアプリケーションにおいて描画されたコンテンツを利用して作成することもできる。例えば、3次元仮想空間は、スマートフォンでゲームアプリケーションを実行した際にスマートフォンプラットフォームで使用した3次元映像を再利用することによって作成することができる。このような映像が表示システム100で表示される映像より低解像度のものであっても、これをアップサンプリングすることによって、表示システム100のための3次元仮想空間を作成することができる。
以上、本発明の実施の形態を図面を参照しつつ説明してきたが、当業者であれば、他の類似する実施形態を使用することができること、また、本発明から逸脱することなく適宜形態の変更又は追加を行うことができることに留意すべきである。なお、本発明は、上記の実施形態に限定されるべきではなく、特許請求の範囲の記載に基づいて解釈されるべきである。

Claims (12)

  1. 並べて配置することにより1つのディスプレイとして使用される複数のディスプレイと、
    前記複数のディスプレイの各々に各々が接続される複数のコンピュータであって、前記複数のコンピュータの各々が、3次元仮想空間のデータと、前記3次元仮想空間内での各時点における前記複数のコンピュータと同数の複数の仮想カメラの各々の位置及び角度に関する情報とを含む、実行ファイルを予め格納している、複数のコンピュータと、
    前記複数のコンピュータに接続され、前記実行ファイルを予め格納しているサーバと
    を具備し、
    前記サーバは、
    前記サーバに予め格納されている実行ファイルを実行し、
    前記実行ファイルを予め格納している前記複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示し、
    前記複数のコンピュータの各々に、該コンピュータが前記複数の仮想カメラのうちのどの仮想カメラに対応するかを通知し、
    前記複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが前記3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理により画像を取得し、該コンピュータに接続されたディスプレイに前記画像を他のコンピュータと同期して表示するよう指示する
    ように構成される表示システム。
  2. 前記3次元仮想空間は、その中で動くオブジェクトの3次元モデルを含み、
    前記サーバは、前記実行ファイルを実行するとき、前記3次元仮想空間における前記オブジェクトの座標情報を取得し、前記座標情報を前記複数のコンピュータに送り、
    前記複数のコンピュータは、前記座標情報に基づいて、前記オブジェクトの3次元モデルを、前記1つのディスプレイに表示する請求項1に記載の表示システム。
  3. 前記複数のディスプレイの各々は4Kディスプレイである請求項1又は2に記載の表示システム。
  4. 前記3次元仮想空間は、低解像度の3次元映像をアップサンプリングすることによって作成される請求項1乃至3のいずれか1項に記載の表示システム。
  5. 表示システムにおいて映像を表示する方法であって、前記表示システムは、並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、前記複数のディスプレイの各々に各々が接続される複数のコンピュータであって、前記複数のコンピュータの各々が、3次元仮想空間のデータと、前記3次元仮想空間内での各時点における前記複数のコンピュータと同数の複数の仮想カメラの各々の位置及び角度に関する情報とを含む、実行ファイルを予め格納している、複数のコンピュータと、前記複数のコンピュータに接続され、前記実行ファイルを予め格納しているサーバとを含み、前記方法は、
    前記サーバが、前記サーバに予め格納されている実行ファイルを実行するステップと、
    前記サーバが、前記実行ファイルを予め格納している前記複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示するステップと、
    前記サーバが、前記複数のコンピュータの各々に、該コンピュータが前記複数の仮想カメラのうちのどの仮想カメラに対応するかを通知するステップと、
    前記サーバが、前記複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが前記3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理により画像を取得し、該コンピュータに接続されたディスプレイに前記画像を他のコンピュータと同期して表示するよう指示するステップと
    を含む方法。
  6. 前記3次元仮想空間は、その中で動くオブジェクトの3次元モデルを含み、前記方法は、
    前記サーバが、前記実行ファイルを実行するとき、前記3次元仮想空間における前記オブジェクトの座標情報を取得し、前記座標情報を前記複数のコンピュータに送るステップ
    をさらに含み、
    前記複数のコンピュータは、前記座標情報に基づいて、前記オブジェクトの3次元モデルを、前記1つのディスプレイに表示する請求項5に記載の方法。
  7. 前記複数のディスプレイの各々は4Kディスプレイである請求項5又は6に記載の方法。
  8. 前記3次元仮想空間は、低解像度の3次元映像をアップサンプリングすることによって作成される請求項5乃至7のいずれか1項に記載の方法。
  9. 並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、前記複数のディスプレイの各々に各々が接続される複数のコンピュータであって、前記複数のコンピュータの各々が、3次元仮想空間のデータと、前記3次元仮想空間内での各時点における前記複数のコンピュータと同数の複数の仮想カメラの各々の位置及び角度に関する情報とを含む、実行ファイルを予め格納している、複数のコンピュータと、前記複数のコンピュータに接続され、前記実行ファイルを予め格納しているサーバとを含む表示システムのためのプログラムであって、前記サーバによって実行されると、前記サーバに、
    前記サーバに予め格納されている実行ファイルを実行するステップと、
    前記実行ファイルを予め格納している前記複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示するステップと、
    前記複数のコンピュータの各々に、該コンピュータが前記複数の仮想カメラのうちのどの仮想カメラに対応するかを通知するステップと、
    前記複数のコンピュータの各々に、該コンピュータに対応する仮想カメラが前記3次元仮想空間内で取得した情報に基づいて、他のコンピュータと同期してレンダリング処理によって画像を取得し、該コンピュータに接続されたディスプレイに前記画像を他のコンピュータと同期して表示するよう指示するステップと
    を実行させるプログラム。
  10. 前記3次元仮想空間は、その中で動くオブジェクトの3次元モデルを含み、前記プログラムは、前記サーバによって実行されると、前記サーバに、
    前記実行ファイルを実行するとき、前記3次元仮想空間における前記オブジェクトの座標情報を取得し、前記座標情報を前記複数のコンピュータに送るステップ
    をさらに実行させ、
    前記複数のコンピュータは、前記座標情報に基づいて、前記オブジェクトの3次元モデルを、前記1つのディスプレイに表示する請求項9に記載のプログラム。
  11. 前記複数のディスプレイの各々は4Kディスプレイである請求項9又は10に記載のプログラム。
  12. 前記3次元仮想空間は、低解像度の3次元映像をアップサンプリングすることによって作成される請求項9乃至11のいずれか1項に記載のプログラム。
JP2014193405A 2014-09-24 2014-09-24 表示システム、表示方法及びプログラム Expired - Fee Related JP6027585B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014193405A JP6027585B2 (ja) 2014-09-24 2014-09-24 表示システム、表示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014193405A JP6027585B2 (ja) 2014-09-24 2014-09-24 表示システム、表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016066149A JP2016066149A (ja) 2016-04-28
JP6027585B2 true JP6027585B2 (ja) 2016-11-16

Family

ID=55805479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014193405A Expired - Fee Related JP6027585B2 (ja) 2014-09-24 2014-09-24 表示システム、表示方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6027585B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297081B2 (en) 2016-12-26 2019-05-21 Colopl, Inc. Method for communication via virtual space and system for executing the method on computer
US10432679B2 (en) 2017-04-26 2019-10-01 Colopl, Inc. Method of communicating via virtual space and system for executing the method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6472486B2 (ja) 2016-09-14 2019-02-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR102382247B1 (ko) * 2016-09-14 2022-04-08 캐논 가부시끼가이샤 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
KR102625773B1 (ko) 2017-01-04 2024-01-17 삼성전자주식회사 뷰 벡터별 다른 렌더링 품질을 갖는 영상을 생성하는 전자 장치
JP7290852B2 (ja) * 2018-12-07 2023-06-14 国立大学法人東京工業大学 多コンテンツ描画システム及び多コンテンツ描画方法
US10951877B2 (en) 2019-07-15 2021-03-16 Msg Entertainment Group, Llc Providing a contiguous virtual space for a plurality of display devices
CN110860084B (zh) * 2019-11-14 2024-02-23 珠海金山数字网络科技有限公司 一种虚拟画面处理方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642259B2 (ja) * 2000-05-10 2005-04-27 三菱電機株式会社 マルチスクリーン表示装置
JP2004005182A (ja) * 2002-05-31 2004-01-08 Canon Inc 可視化方法
JP5172769B2 (ja) * 2009-04-14 2013-03-27 株式会社東芝 映像装置、映像処理方法およびこの装置における画質モード設定方法
US8704732B2 (en) * 2010-09-29 2014-04-22 Qualcomm Incorporated Image synchronization for multiple displays

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297081B2 (en) 2016-12-26 2019-05-21 Colopl, Inc. Method for communication via virtual space and system for executing the method on computer
US10432679B2 (en) 2017-04-26 2019-10-01 Colopl, Inc. Method of communicating via virtual space and system for executing the method

Also Published As

Publication number Publication date
JP2016066149A (ja) 2016-04-28

Similar Documents

Publication Publication Date Title
JP6027585B2 (ja) 表示システム、表示方法及びプログラム
CN106454291B (zh) 用于自动配准和投影映射的系统和方法
JP6970283B2 (ja) 画像ステッチング方法および装置、記憶媒体
WO2018133692A1 (zh) 实现增强现实的方法、计算机设备及存储介质
US10070043B2 (en) Image processing system, image processing method, and program
US9697581B2 (en) Image processing apparatus and image processing method
JP2020004325A5 (ja)
CN104168315A (zh) 一种全视角平滑的沉浸式显示方法和系统
JP2020036116A5 (ja)
JP2020500380A5 (ja)
JP5960855B1 (ja) 表示システム、表示方法及びプログラム
CN109491565B (zh) 三维场景中物体的组件信息显示方法及设备
CN106331435B (zh) 实时实现图像特效显示的方法
CN111913343B (zh) 一种全景图像显示方法及装置
JP2019047492A (ja) 画像処理装置、情報処理システム、情報処理方法及びプログラム
JP2017538140A (ja) リアルタイム3d映像多重画面同期化システム
JP2016090906A (ja) 画像処理装置、画像処理方法及びプログラム
JP2016092435A5 (ja)
JP2016076853A5 (ja)
EP3210191B1 (en) Accelerated image gradient based on one-dimensional data
CN105338261A (zh) 一种传输图片相关信息的方法及装置
JP2021076923A5 (ja)
JP2015219634A (ja) 画像処理プログラム、画像処理方法および画像処理装置
JP6283297B2 (ja) オリジナルデプスフレームをリサイズ及び復元する方法、装置並びにシステム
JPWO2018212272A1 (ja) 画像処理装置、画像処理プログラム及び画像処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161014

R150 Certificate of patent or registration of utility model

Ref document number: 6027585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees