JP2016143215A - Display system, display method, and program - Google Patents

Display system, display method, and program Download PDF

Info

Publication number
JP2016143215A
JP2016143215A JP2015018205A JP2015018205A JP2016143215A JP 2016143215 A JP2016143215 A JP 2016143215A JP 2015018205 A JP2015018205 A JP 2015018205A JP 2015018205 A JP2015018205 A JP 2015018205A JP 2016143215 A JP2016143215 A JP 2016143215A
Authority
JP
Japan
Prior art keywords
display
computers
computer
virtual space
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015018205A
Other languages
Japanese (ja)
Other versions
JP5960855B1 (en
Inventor
功淳 馬場
Naruatsu Baba
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015018205A priority Critical patent/JP5960855B1/en
Application granted granted Critical
Publication of JP5960855B1 publication Critical patent/JP5960855B1/en
Publication of JP2016143215A publication Critical patent/JP2016143215A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Abstract

PROBLEM TO BE SOLVED: To display a high-definition video on a display unit formed of a plurality of displays, without applying an excessive load on a computer.SOLUTION: A display system 100 includes a plurality of computers 104-1 to 21 connected to a plurality of displays 102-1 to 21, and a server 106. The server 106 executes an execution file 118 including data on a virtual space and information on a position and angle of one virtual camera, issues an instruction to the computers to execute an execution file 112 synchronously, transmits information on an area corresponding to a computer, in a shooting area of the virtual camera, acquires an image corresponding to the computer by rendering, on the basis of information acquired in the virtual space by the virtual camera and the information on the area corresponding to the computer, and issues an instruction to a display connected to the computer to display the image in synchronization with other computers.SELECTED DRAWING: Figure 1

Description

本発明は、表示システム、表示方法及びプログラムに関し、より詳細には、複数のディスプレイを用いて高解像度の映像を大画面で表示するためのシステム、方法及びプログラムに関する。   The present invention relates to a display system, a display method, and a program, and more particularly, to a system, a method, and a program for displaying a high-resolution video on a large screen using a plurality of displays.

複数のディスプレイを並べることにより、1台の大きなディスプレイとして用いて、映像を表示する技術が知られている。このような技術によれば、単一の大画面ディスプレイを用いる場合と比較して、個々のディスプレイの解像度を生かすことができる。このため、表示システム全体として、より高解像度の映像を大画面に表示することが可能となる。このような技術は、例えば、新製品発表のための記者会見などの場面において、映像を大画面に表示する場合などに、特に有用である。   A technique for displaying an image by arranging a plurality of displays as one large display is known. According to such a technique, the resolution of each display can be utilized as compared with the case where a single large screen display is used. For this reason, the display system as a whole can display a higher-resolution video on a large screen. Such a technique is particularly useful when, for example, displaying a video on a large screen in a press conference for a new product announcement.

しかしながら、上記のようなシステムにおいて、高解像度の映像ソースを複数の部分に分割し、それぞれの部分をそれぞれ対応する複数のディスプレイに分配配信するためには、専用の機器が必要となり、そのコストは非常に高くなる。また、高解像度の映像ソースを処理するためにコンピュータにかかる負荷は非常に大きくなる。   However, in the system as described above, in order to divide a high-resolution video source into a plurality of parts and distribute and distribute each part to a plurality of corresponding displays, a dedicated device is required, and the cost is Become very expensive. In addition, the load on the computer to process a high-resolution video source becomes very large.

例えば、4Kディスプレイ(横3840ドット×縦2160ドット)を横に7台、縦に3台並べて1台の27Kディスプレイ(横26880ドット×縦6480ドット)として使用し、非常に高い解像度の映像を表示するシステムを実現しようとすると、27Kの映像ソースを21個の4K映像ソースに分割し、それぞれの4K映像ソースを21台の4Kディスプレイの各々に配信するための専用のハードウェアが必要となる。しかしながら、そのようなハードウェアは現状存在しない。また、仮にそのようなハードウェアを実現できたとしても、それに係る負担は非常に大きなものとなる。さらに、27Kの映像ソースの作成には高いコストがかかるうえ、メンテナンス性が著しく低下する。   For example, a 4K display (horizontal 3840 dots x vertical 2160 dots) is used as a 27K display (horizontal 26880 dots x vertical length 6480 dots) by arranging 7 units horizontally and 3 units vertically to display very high resolution video. To achieve this system, dedicated hardware for dividing the 27K video source into 21 4K video sources and distributing each 4K video source to each of the 21 4K displays is required. However, there is currently no such hardware. Even if such hardware can be realized, the burden on the hardware becomes very large. Furthermore, the creation of a 27K video source is costly and significantly reduces maintainability.

したがって、コンピュータに対して過度の負荷をかけることなく、複数のディスプレイからなるディスプレイに高解像度の映像を表示することを可能とする技術が必要とされている。   Therefore, there is a need for a technique that enables a high-resolution video to be displayed on a display composed of a plurality of displays without imposing an excessive load on the computer.

上記課題を解決するための本発明の一態様は、並べて配置することにより1つのディスプレイとして使用される複数のディスプレイと、複数のディスプレイの各々に各々が接続される複数のコンピュータと、複数のコンピュータに接続されるサーバとを具備する表示システムである。サーバは、仮想空間のデータと、1つの仮想カメラについての各時点における仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行し、実行ファイルを格納する複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示し、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を通知し、複数のコンピュータの各々に、仮想カメラが仮想空間内で取得した情報及び当該コンピュータに対応する領域に関する情報に基づいて、当該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、当該コンピュータに接続されたディスプレイに当該画像を他のコンピュータと同期して表示するよう指示するように構成される。   In one embodiment of the present invention for solving the above problems, a plurality of displays used as one display by arranging them side by side, a plurality of computers each connected to each of the plurality of displays, and a plurality of computers And a server connected to the display system. The server executes an execution file including data on the virtual space and information on the position and angle in the virtual space at each time point for one virtual camera, and stores each of the plurality of computers storing the execution file. The execution file is instructed to be executed synchronously, and each of the plurality of computers is notified of information related to the area corresponding to the computer in the shooting area of the virtual camera. Based on the information acquired in the space and the information related to the area corresponding to the computer, an image corresponding to the computer is acquired by a rendering process in synchronization with another computer, and the image is displayed on a display connected to the computer. It is configured to instruct to display in synchronization with another computer.

実施例において、仮想空間は、3次元仮想空間であり、その中で動くオブジェクトの3次元モデルを含む。サーバは、実行ファイルを実行するとき、仮想空間におけるオブジェクトの座標情報を取得し、座標情報を複数のコンピュータに送る。複数のコンピュータは、座標情報に基づいて、オブジェクトの3次元モデルを、1つのディスプレイに表示する。   In an embodiment, the virtual space is a three-dimensional virtual space and includes a three-dimensional model of objects that move within it. When executing the execution file, the server acquires coordinate information of the object in the virtual space and sends the coordinate information to a plurality of computers. The plurality of computers display a three-dimensional model of the object on one display based on the coordinate information.

実施例において、複数のコンピュータの各々は、当該コンピュータに対応する領域のうち、当該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得する。   In the embodiment, each of the plurality of computers acquires an image of an area excluding an area corresponding to a bezel of a display connected to the computer, from an area corresponding to the computer.

実施例において、サーバは、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を、当該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知するように構成される。   In the embodiment, the server excludes information about the area corresponding to the computer from the imaging area of the virtual camera from each of the plurality of computers, and excludes the area corresponding to the bezel of the display connected to the computer. Configured to notify.

実施例において、複数のディスプレイの各々は4Kディスプレイである。
本発明の別の態様は、並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、複数のディスプレイの各々に各々が接続される複数のコンピュータと、複数のコンピュータに接続されるサーバとを含む、表示システムにおいて映像を表示する方法である。当該方法は、サーバが、仮想空間のデータと、1つの仮想カメラについての各時点における仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行するステップと、サーバが、実行ファイルを格納する複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示するステップと、サーバが、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を通知するステップと、サーバが、複数のコンピュータの各々に、仮想カメラが仮想空間内で取得した情報及び当該コンピュータに対応する領域に関する情報に基づいて、当該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、当該コンピュータに接続されたディスプレイに当該画像を他のコンピュータと同期して表示するよう指示するステップとを含む。
In an embodiment, each of the plurality of displays is a 4K display.
According to another aspect of the present invention, a plurality of displays used as one display by arranging them side by side, a plurality of computers each connected to each of the plurality of displays, and a server connected to the plurality of computers A method for displaying an image in a display system. The method includes a step of executing an execution file including data on the virtual space and information on the position and angle in the virtual space at each time point for one virtual camera; and the server executes the execution file. Instructing each of the plurality of computers to execute the execution file in synchronization with each other, and the server provides each of the plurality of computers with information on an area corresponding to the computer among the imaging areas of the virtual camera. And the server synchronizes the image corresponding to the computer with each of the plurality of computers based on the information acquired by the virtual camera in the virtual space and the information regarding the area corresponding to the computer. Display by a rendering process and connected to the computer. The image in synchronization with other computer instructs to display on and the step.

実施例において、仮想空間は、3次元仮想空間であり、その中で動くオブジェクトの3次元モデルを含む。方法は、サーバが、実行ファイルを実行するとき、仮想空間におけるオブジェクトの座標情報を取得し、座標情報を複数のコンピュータに送るステップをさらに含む。複数のコンピュータは、座標情報に基づいて、オブジェクトの3次元モデルを、1つのディスプレイに表示する。   In an embodiment, the virtual space is a three-dimensional virtual space and includes a three-dimensional model of objects that move within it. The method further includes obtaining the coordinate information of the object in the virtual space and sending the coordinate information to a plurality of computers when the server executes the executable file. The plurality of computers display a three-dimensional model of the object on one display based on the coordinate information.

実施例において、複数のコンピュータの各々は、当該コンピュータに対応する領域のうち、当該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得する。   In the embodiment, each of the plurality of computers acquires an image of an area excluding an area corresponding to a bezel of a display connected to the computer, from an area corresponding to the computer.

実施例において、上記通知するステップは、サーバが、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を、当該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知するステップを含む。   In the embodiment, in the step of notifying, the server corresponds to each of a plurality of computers information about an area corresponding to the computer among the imaging areas of the virtual camera, corresponding to a bezel of a display connected to the computer. Notifying the region to be excluded.

本発明の別の態様は、並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、複数のディスプレイの各々に各々が接続される複数のコンピュータと、複数のコンピュータに接続されるサーバとを含む表示システムのためのプログラムである。当該プログラムは、サーバによって実行されると、サーバに、仮想空間のデータと、1つの仮想カメラについての各時点における仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行するステップと、実行ファイルを格納する複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示するステップと、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を通知するステップと、複数のコンピュータの各々に、仮想カメラが仮想空間内で取得した情報及び当該コンピュータに対応する領域に関する情報に基づいて、当該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、当該コンピュータに接続されたディスプレイに当該画像を他のコンピュータと同期して表示するよう指示するステップとを実行させる。   According to another aspect of the present invention, a plurality of displays used as one display by arranging them side by side, a plurality of computers each connected to each of the plurality of displays, and a server connected to the plurality of computers Is a program for a display system including When the program is executed by the server, the server executes an executable file including data on the virtual space and information on the position and angle in the virtual space at each time point for one virtual camera. Instructing each of the plurality of computers storing the execution file to execute the execution file synchronously, and information on an area corresponding to the computer among the imaging areas of the virtual camera to each of the plurality of computers And informing each of the plurality of computers of the image corresponding to the computer based on the information acquired by the virtual camera in the virtual space and the information on the area corresponding to the computer. Obtained by the rendering process and connected to the computer The image a ray and a step of instructing to display in synchronism with the other computer.

実施例において、仮想空間は、3次元仮想空間であり、その中で動くオブジェクトの3次元モデルを含む。プログラムは、サーバによって実行されると、サーバに、実行ファイルを実行するとき、仮想空間におけるオブジェクトの座標情報を取得し、座標情報を複数のコンピュータに送るステップをさらに実行させる。複数のコンピュータは、座標情報に基づいて、オブジェクトの3次元モデルを、1つのディスプレイに表示する。   In an embodiment, the virtual space is a three-dimensional virtual space and includes a three-dimensional model of objects that move within it. When the program is executed by the server, the server further causes the server to acquire coordinate information of the object in the virtual space and send the coordinate information to a plurality of computers when executing the execution file. The plurality of computers display a three-dimensional model of the object on one display based on the coordinate information.

実施例において、複数のコンピュータの各々は、当該コンピュータに対応する領域のうち、当該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得する。   In the embodiment, each of the plurality of computers acquires an image of an area excluding an area corresponding to a bezel of a display connected to the computer, from an area corresponding to the computer.

実施例において、上記通知するステップは、サーバが、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を、当該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知するステップを含む。   In the embodiment, in the step of notifying, the server corresponds to each of a plurality of computers information about an area corresponding to the computer among the imaging areas of the virtual camera, corresponding to a bezel of a display connected to the computer. Notifying the region to be excluded.

本発明によれば、コンピュータに対して過度の負荷をかけることなく、複数のディスプレイからなる大画面ディスプレイに高解像度の映像を表示することができる。   ADVANTAGE OF THE INVENTION According to this invention, a high resolution image | video can be displayed on the big screen display which consists of a some display, without applying an excessive load with respect to a computer.

本発明の実施例による表示システム100を概略的に示す。1 schematically shows a display system 100 according to an embodiment of the invention. 図1の表示システム100の動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the display system 100 of FIG. 実行ファイルに含まれる仮想空間の一例を示す。An example of the virtual space contained in the execution file is shown. 仮想カメラの撮影領域の分割の例を示す。An example of dividing a shooting area of a virtual camera is shown. ディスプレイに表示された画像を示す。The image displayed on the display is shown. ディスプレイに表示される別の画像を示す。Fig. 4 shows another image displayed on the display. ディスプレイがベゼルを有することを示す模式図である。It is a schematic diagram which shows that a display has a bezel. ディスプレイに表示された画像を示す。The image displayed on the display is shown. ディスプレイに表示される別の画像を示す。Fig. 4 shows another image displayed on the display. 3次元仮想空間を含む実行ファイルを実行した場合に、ある時点で仮想カメラによって取得されたデータに対するレンダリング処理の結果として得られる画像を示す。When an execution file including a three-dimensional virtual space is executed, an image obtained as a result of a rendering process for data acquired by a virtual camera at a certain point in time is shown. 本発明の実施例による、表示システムにおいて映像を表示する方法を示すフローチャートである。3 is a flowchart illustrating a method for displaying an image in a display system according to an embodiment of the present invention.

本発明は、並べて配置することにより1つのディスプレイとして使用される複数のディスプレイと、当該複数のディスプレイの各々に各々が接続される複数のコンピュータと、当該複数のコンピュータに接続されるサーバとを具備する表示システムの構成、表示方法及びプログラムに特徴を有するものである。表示システムの実施例において、サーバは、仮想空間のデータと、1つの仮想カメラについての各時点における仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行する。また、サーバは、実行ファイルを格納する複数のコンピュータの各々に、実行ファイルを同期して実行するよう指示する。また、サーバは、複数のコンピュータの各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を通知する。また、サーバは、複数のコンピュータの各々に、仮想カメラが仮想空間内で取得した情報及び当該コンピュータに対応する領域に関する情報に基づいて、当該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、当該コンピュータに接続されたディスプレイにその画像を他のコンピュータと同期して表示するよう指示する。   The present invention includes a plurality of displays used as one display by arranging them side by side, a plurality of computers each connected to each of the plurality of displays, and a server connected to the plurality of computers. The display system has a configuration, a display method, and a program. In the embodiment of the display system, the server executes an execution file including data on the virtual space and information on the position and angle in the virtual space at each time point for one virtual camera. Further, the server instructs each of the plurality of computers that store the execution file to execute the execution file in synchronization. In addition, the server notifies each of the plurality of computers of information regarding an area corresponding to the computer in the imaging area of the virtual camera. In addition, the server renders an image corresponding to the computer in synchronization with other computers based on the information acquired by the virtual camera in the virtual space and the information related to the area corresponding to the computer. It is acquired by processing, and an instruction is given to display the image in synchronization with other computers on a display connected to the computer.

以下、本発明の実施例について、図面を参照して説明する。
図1は、本発明の実施例による表示システム100を概略的に示す。表示システム100は、21台のディスプレイ102−1乃至102−21を横7台、縦3台に並べることによって構成されるディスプレイ102を含む。また、表示システム100は、コンピュータ104−1乃至104−21、並びにサーバ106を含む。ディスプレイ102−1乃至102−21の各々は、コンピュータ104−1乃至104−21の各々にそれぞれ接続される。例えば、ディスプレイ102−1はコンピュータ104−1に接続され、ディスプレイ102−2はコンピュータ104−2に接続され、ディスプレイ102−21はコンピュータ104−21に接続される。コンピュータ104−1乃至104−21とサーバ106は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、イントラネット、インターネットなどの様々な通信ネットワークを介して接続されてもよい。コンピュータ104−1乃至104−21の各々は、レンダリング処理を行い、レンダリング処理によって得られる画像を、対応するディスプレイ102−1乃至102−21に表示させる。サーバ106は、コンテンツの表示に関する様々な指示をコンピュータ104−1乃至104−21に送る。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 schematically illustrates a display system 100 according to an embodiment of the present invention. The display system 100 includes a display 102 configured by arranging 21 displays 102-1 to 102-21 in a horizontal direction and a vertical direction. The display system 100 includes computers 104-1 to 104-21 and a server 106. Each of the displays 102-1 to 102-21 is connected to each of the computers 104-1 to 104-21. For example, the display 102-1 is connected to the computer 104-1, the display 102-2 is connected to the computer 104-2, and the display 102-21 is connected to the computer 104-21. The computers 104-1 to 104-21 and the server 106 may be connected via various communication networks such as a local area network (LAN), a wide area network (WAN), an intranet, and the Internet. Each of the computers 104-1 to 104-21 performs a rendering process, and displays an image obtained by the rendering process on the corresponding displays 102-1 to 102-21. The server 106 sends various instructions related to content display to the computers 104-1 to 104-21.

図1において、ディスプレイ102は、21台のディスプレイ102−1乃至102−21を横7台、縦3台に並べることによって構成されているが、任意の数のディスプレイを任意の形式で配置して、1つのディスプレイ102として使用することが可能である。この場合にも、各ディスプレイに1つのコンピュータが割り当てられる。また、ディスプレイ102−1乃至102−21は、任意の解像度を有することができる。例えば、ディスプレイ102−1乃至102−21は、4K(横3840ドット×縦2160ドット)の解像度を有する4Kディスプレイであってもよい。   In FIG. 1, the display 102 is configured by arranging 21 displays 102-1 to 102-21 in 7 horizontal and 3 vertical, but an arbitrary number of displays can be arranged in an arbitrary format. It can be used as one display 102. Again, one computer is assigned to each display. In addition, the displays 102-1 to 102-21 can have an arbitrary resolution. For example, the displays 102-1 to 102-21 may be 4K displays having a resolution of 4K (horizontal 3840 dots × vertical 2160 dots).

コンピュータ104−1乃至104−21の各々は、プロセッサ108及び記憶部110を有する。記憶部110は、揮発性又は不揮発性の、取り外し可能な又は取り外し不能な記憶媒体とすることができる。記憶部は、所望の情報を格納するために使用することができ、コンピュータ104−1乃至104−21によってアクセスできる任意の記憶媒体であってもよい。図1において、記憶部110はコンピュータ104−1乃至104−21に内蔵されている。しかし、記憶部110は、コンピュータ104−1乃至104−21の外部に配置されてコンピュータ104−1乃至104−21と通信するように構成されてもよい。後述するように、ディスプレイ102を用いた映像の表示に先立って、記憶部110は、仮想空間(例えば、3次元仮想空間)を含む実行ファイル112を格納する。実行ファイル112は、少なくとも、ディスプレイ102を用いて表示される映像の基礎となる仮想空間のデータと、当該仮想空間内での各時点における1つの仮想カメラの位置及び角度に関する情報とを含む。当業者であれば、本明細書の記載に基づいて、このような実行ファイルを作成することができる。実施例において、1つの仮想カメラが仮想空間全体をカバーすることができる。すなわち、単一の仮想カメラが、仮想空間内の様々な位置において任意の時点で撮影を行い、仮想空間の情報を取得することができる。本発明の実施例によれば、任意の数のディスプレイを任意の形式で配置して、1つのディスプレイ102として使用することが可能であるが、使用されるディスプレイの数にかかわらず、1つの仮想カメラを用いることができる。   Each of the computers 104-1 to 104-21 includes a processor 108 and a storage unit 110. The storage unit 110 can be a volatile or non-volatile removable or non-removable storage medium. The storage unit may be any storage medium that can be used to store desired information and can be accessed by the computers 104-1 to 104-21. In FIG. 1, the storage unit 110 is built in computers 104-1 to 104-21. However, the storage unit 110 may be configured outside the computers 104-1 to 104-21 and configured to communicate with the computers 104-1 to 104-21. As will be described later, prior to video display using the display 102, the storage unit 110 stores an execution file 112 including a virtual space (for example, a three-dimensional virtual space). The execution file 112 includes at least data of a virtual space serving as a basis of an image displayed using the display 102 and information regarding the position and angle of one virtual camera at each time point in the virtual space. A person skilled in the art can create such an executable file based on the description in this specification. In an embodiment, one virtual camera can cover the entire virtual space. That is, a single virtual camera can take images at various points in the virtual space and acquire information on the virtual space. According to embodiments of the present invention, any number of displays can be arranged in any form and used as one display 102, but one virtual, regardless of the number of displays used. A camera can be used.

サーバ106は、プロセッサ114及び記憶部116を含む。図1において、記憶部116はサーバ106に内蔵されている。しかし、記憶部110は、サーバ106の外部に配置されてサーバ106と通信するように構成されてもよい。コンピュータ104−1乃至104−21と同様に、ディスプレイ102を用いた映像の表示に先立って、記憶部116は、仮想空間のデータ並びに仮想カメラの位置及び角度に関する情報を含む実行ファイル118を格納する。実行ファイル118の内容は実行ファイル112の内容と同一であってもよい。   The server 106 includes a processor 114 and a storage unit 116. In FIG. 1, the storage unit 116 is built in the server 106. However, the storage unit 110 may be configured to be disposed outside the server 106 and communicate with the server 106. Similar to the computers 104-1 to 104-21, prior to displaying video using the display 102, the storage unit 116 stores an execution file 118 including virtual space data and information regarding the position and angle of the virtual camera. . The contents of the execution file 118 may be the same as the contents of the execution file 112.

図2は、図1の表示システム100の動作を示すシーケンス図である。サーバ106は、ディスプレイ102を用いた映像の表示のための実行ファイル118を記憶部116に予め格納している(202)。同様に、コンピュータ104−1乃至104−21もまた、実行ファイル112を記憶部110に予め格納している(204)。実行ファイル112及び118は、少なくとも、ディスプレイ102により表示される映像の基礎となる仮想空間のデータと、当該仮想空間内での各時点における1つの仮想カメラの位置及び角度に関するデータとを含む。実行ファイルは、当該実行ファイルの実行中に、様々な時点において、様々な位置及び角度に配置された単一の仮想カメラによって仮想空間を撮影し、仮想空間に関する情報を取得することができるように構成される。   FIG. 2 is a sequence diagram showing the operation of the display system 100 of FIG. The server 106 stores an execution file 118 for displaying a video using the display 102 in the storage unit 116 in advance (202). Similarly, the computers 104-1 to 104-21 also store the execution file 112 in the storage unit 110 in advance (204). The execution files 112 and 118 include at least data of a virtual space serving as a basis of an image displayed on the display 102 and data regarding the position and angle of one virtual camera at each time point in the virtual space. The executable file can capture information on the virtual space by capturing a virtual space with a single virtual camera arranged at various positions and angles at various times during execution of the executable file. Composed.

サーバ106は、実行ファイル118の実行を開始する(206)。サーバは、次いで、コンピュータ104−1乃至104−21に対して、実行ファイル112を実行するよう指示する(208)。その際、サーバ106は、コンピュータ104−1乃至104−21が同期して実行ファイル112を実行するよう、各コンピュータに指示を送る。また、サーバ106は、初期設定として、コンピュータ104−1乃至104−21の各々に、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報を通知する(210)。これにより、コンピュータ104−1乃至104−21の各々は、仮想空間において仮想カメラによって撮影された領域のうちのどの部分を自身がレンダリングするべきかを知ることができる。   The server 106 starts executing the execution file 118 (206). The server then instructs the computers 104-1 through 104-21 to execute the executable file 112 (208). At that time, the server 106 sends an instruction to each computer so that the computers 104-1 to 104-21 execute the execution file 112 in synchronization. In addition, as an initial setting, the server 106 notifies each of the computers 104-1 to 104-21 of information related to an area corresponding to the computer in the imaging area of the virtual camera (210). Thereby, each of the computers 104-1 to 104-21 can know which portion of the area photographed by the virtual camera in the virtual space should be rendered by itself.

サーバ106は、実行ファイル118の実行中に、仮想空間内で動くオブジェクトの、仮想空間に関する座標情報を取得する(212)。ここで、仮想空間は3次元仮想空間であってもよく、オブジェクトの3次元モデルが当該3次元仮想空間内で動いてもよい。サーバ106は、実行ファイル118の実行中のどの時点(あるいは、場面)において、オブジェクトが3次元仮想空間内のどの位置に存在するか、どのような姿勢をとっているか等について情報を得ることができる。   During execution of the execution file 118, the server 106 obtains coordinate information related to the virtual space of the object moving in the virtual space (212). Here, the virtual space may be a three-dimensional virtual space, and a three-dimensional model of an object may move in the three-dimensional virtual space. The server 106 can obtain information on at which time point (or scene) during execution of the execution file 118, at which position the object exists in the three-dimensional virtual space, and what posture it takes. it can.

コンピュータ104−1乃至104−21の各々は、サーバ106からの指示(208)に従って、他のコンピュータと同期して実行ファイル112の実行を開始する(214)。   Each of the computers 104-1 to 104-21 starts executing the execution file 112 in synchronization with other computers in accordance with an instruction (208) from the server 106 (214).

次いで、サーバ106は、ステップ212において取得したオブジェクトの仮想空間における座標情報を、コンピュータ104−1乃至104−21に送る(216)。
コンピュータ104−1乃至104−21の各々は、初期設定(210)に基づいて、自身が仮想カメラの撮影領域のうちのどの領域に関連付けられているかを既に把握している。また、コンピュータ104−1乃至104−21の各々は、サーバ106から受け取ったオブジェクトの座標情報(216)に基づいて、様々な時点において、仮想空間のどこにオブジェクトが存在するか、オブジェクトがどのような姿勢をとっているか等を知ることができる。したがって、コンピュータ104−1乃至104−21の各々は、実行ファイル112の実行中の様々な時点において、単一の仮想カメラが仮想空間に関して取得した情報と、その時点におけるオブジェクトの座標情報とを得ることができる。
Next, the server 106 sends the coordinate information in the virtual space of the object acquired in step 212 to the computers 104-1 to 104-21 (216).
Based on the initial setting (210), each of the computers 104-1 to 104-21 already knows which of the imaging areas of the virtual camera it is associated with. Further, each of the computers 104-1 to 104-21 determines where the object exists in the virtual space, what kind of object is based on the coordinate information (216) of the object received from the server 106 at various points in time. You can know if you are taking a posture. Accordingly, each of the computers 104-1 to 104-21 obtains information acquired by the single virtual camera regarding the virtual space and the coordinate information of the object at that time at various times during execution of the execution file 112. be able to.

次いで、サーバ106は、コンピュータ104−1乃至104−21の各々に対して、レンダリング処理及びコンテンツの表示を、他のコンピュータと同期して実行するよう指示する(218)。当該指示を受けて、コンピュータ104−1乃至104−21の各々は、仮想カメラによって仮想空間内で取得されたデータを、他のコンピュータと同期してレンダリングする(220)。このとき、コンピュータ104−1乃至104−21の各々は、仮想カメラが取得したデータのうち、ステップ210において自身に割り当てられた撮影領域に対応するデータのみをレンダリングする。さらに、コンピュータ104−1乃至104−21の各々は、レンダリングによって得られた画像を、対応するディスプレイ102−1乃至102−21の各々に送り(222)、当該画像を同期して表示させる(224)。各コンピュータは、他のコンピュータに関連付けられる領域に対応するデータについてはレンダリング処理をしない。したがって、画像のサイズが非常に大きい場合であっても、1つのコンピュータがレンダリング処理をするべき画像の大きさを制限することができる。したがって、1台のコンピュータに係る負担が軽くなり、システム全体として、所望のレンダリング速度を実現することができる。   Next, the server 106 instructs each of the computers 104-1 to 104-21 to execute rendering processing and content display in synchronization with other computers (218). In response to the instruction, each of the computers 104-1 to 104-21 renders data acquired in the virtual space by the virtual camera in synchronism with other computers (220). At this time, each of the computers 104-1 to 104-21 renders only the data corresponding to the imaging region assigned to it in Step 210 among the data acquired by the virtual camera. Further, each of the computers 104-1 to 104-21 sends the image obtained by rendering to each of the corresponding displays 102-1 to 102-21 (222), and displays the images in synchronization (224). ). Each computer does not perform rendering processing on data corresponding to an area associated with another computer. Therefore, even when the size of the image is very large, the size of the image that one computer should perform the rendering process can be limited. Therefore, the burden on one computer is reduced, and a desired rendering speed can be realized as the entire system.

図3は、実行ファイル112及び118に含まれる仮想空間300の一例を示す。ここで、仮想空間300は3次元仮想空間である。仮想空間300には、ステージ302、ステージ302上を移動するクマのオブジェクト304、ステージ302上で浮いているクマのマーク及び「コロプラ」の文字306、並びに他のオブジェクト312が存在している。この例では、単一の仮想カメラ308が、オブジェクト304や文字306の前方に配置され、オブジェクト304や文字306の方向に向けられている。本発明の実施例においては、単一の仮想カメラ308が仮想空間300内をカバーする。すなわち、単一の仮想カメラ308のみを用いて、仮想空間300内の任意の場所を、任意の角度で撮影することができる。図3には、仮想カメラ308によって仮想空間が撮影されてデータ化される撮影領域310が示されている。図4は、このような仮想カメラの撮影領域310の分割の例を示す。ここでは、撮影領域310は、領域310−1乃至310−21の21個の領域に分割される。領域310−1乃至310−21の各々は、コンピュータ104−1乃至104−21のうちの異なる1つに対応付けられる。図2について上述したように、サーバ106は、コンピュータ104−1乃至104−21の各々に、仮想カメラの撮影領域310のうちの該コンピュータに対応する領域に関する情報を通知する。例えば、サーバ106は、コンピュータ104−1に、領域310−1に関する情報(撮影領域310内での領域310−1の位置など)を通知する。図2のシーケンスのステップ220において、コンピュータ104−1乃至104−21の各々は、撮影領域310のうち自身に対応付けられる領域について仮想カメラ308が取得したデータを、他のコンピュータと同期してレンダリングし、得られた画像をディスプレイ102−1乃至102−21にそれぞれ送り、同期して表示させる。図3は、撮影領域310のレンダリング処理結果のプレビューを右下に示す。   FIG. 3 shows an example of the virtual space 300 included in the execution files 112 and 118. Here, the virtual space 300 is a three-dimensional virtual space. In the virtual space 300, there are a stage 302, a bear object 304 that moves on the stage 302, a bear mark floating on the stage 302, a “colopura” character 306, and other objects 312. In this example, a single virtual camera 308 is disposed in front of the object 304 or the character 306 and is directed toward the object 304 or the character 306. In the embodiment of the present invention, a single virtual camera 308 covers the inside of the virtual space 300. That is, an arbitrary place in the virtual space 300 can be photographed at an arbitrary angle using only the single virtual camera 308. FIG. 3 shows a shooting area 310 in which a virtual space is shot by the virtual camera 308 and converted into data. FIG. 4 shows an example of such a division of the imaging area 310 of the virtual camera. Here, the imaging region 310 is divided into 21 regions, regions 310-1 to 310-21. Each of the areas 310-1 to 310-21 is associated with a different one of the computers 104-1 to 104-21. As described above with reference to FIG. 2, the server 106 notifies each of the computers 104-1 to 104-21 of information related to the area corresponding to the computer in the imaging area 310 of the virtual camera. For example, the server 106 notifies the computer 104-1 of information related to the area 310-1 (such as the position of the area 310-1 within the imaging area 310). In step 220 of the sequence in FIG. 2, each of the computers 104-1 to 104-21 renders the data acquired by the virtual camera 308 in an area associated with itself among the imaging areas 310 in synchronization with other computers. Then, the obtained images are respectively sent to the displays 102-1 to 102-21 and displayed in synchronization. FIG. 3 shows a preview of the rendering processing result of the shooting area 310 at the lower right.

図5は、上述の処理によってディスプレイ102に表示された画像を示す。図3における撮影領域310の各領域のデータは、上述のように、それぞれの領域に対応するコンピュータ104−1乃至104−21によってレンダリングされて、ディスプレイ102を構成するディスプレイ102−1乃至102−21にそれぞれ表示される。クマのマーク及び「コロプラ」という文字306は、ディスプレイ102−2乃至102−6、102−9乃至102−13及び102−16にわたって表示されている。また、クマのオブジェクト304が、ディスプレイ102−12、102−13及び102−20にわたって表示されている。図2に関連して説明したように、サーバ106が仮想空間300中のクマのオブジェクト304の座標情報を取得し、当該座標情報をコンピュータ104−1乃至104−21に送る。コンピュータ104−1乃至104−21は、当該座標情報に基づいて、図5に示すように、クマのオブジェクト304をディスプレイ102上の正確な位置に表示することができる。   FIG. 5 shows an image displayed on the display 102 by the above-described processing. As described above, the data of each area of the imaging area 310 in FIG. 3 is rendered by the computers 104-1 to 104-21 corresponding to each area, and the displays 102-1 to 102-21 constituting the display 102 are rendered. Respectively. The bear mark and the character 306 “Colopura” are displayed across the displays 102-2 through 102-6, 102-9 through 102-13, and 102-16. Also, a bear object 304 is displayed across the displays 102-12, 102-13, and 102-20. As described with reference to FIG. 2, the server 106 acquires coordinate information of the bear object 304 in the virtual space 300 and sends the coordinate information to the computers 104-1 to 104-21. Based on the coordinate information, the computers 104-1 to 104-21 can display the bear object 304 at an accurate position on the display 102 as shown in FIG.

図6は、図5とは別の時点において、クマのオブジェクト304が左方向に移動したときに、図3の仮想空間300に基づいてディスプレイ102に表示される別の画像を示す。表示内容は、クマのオブジェクトを除いて図5と同じである。本実施例では、仮想空間300は、その中でクマのオブジェクトが動き回るように作成されている。サーバ106は、仮想空間300中のクマのオブジェクト304の座標情報(クマが左方向に移動した状態を示す)を取得し、当該座標情報をコンピュータ104−1乃至104−21に送る。コンピュータ104−1乃至104−21は、当該座標情報に基づいて、図6に示すように、クマのオブジェクト304をディスプレイ102上の正確な位置に表示することができる。   6 shows another image displayed on the display 102 based on the virtual space 300 of FIG. 3 when the bear object 304 moves to the left at a different time point from FIG. The display contents are the same as in FIG. 5 except for the bear object. In this embodiment, the virtual space 300 is created so that a bear object moves around in the virtual space 300. The server 106 acquires coordinate information of the bear object 304 in the virtual space 300 (indicating a state in which the bear has moved to the left), and sends the coordinate information to the computers 104-1 to 104-21. Based on the coordinate information, the computers 104-1 to 104-21 can display a bear object 304 at an accurate position on the display 102 as shown in FIG.

図7は、ディスプレイがベゼルを有することを示す模式図である。図7(A)に示すように、ディスプレイ102を構成するディスプレイ102−1などの各ディスプレイは、実際にはベゼル120−1を有する。ディスプレイ102−1は、実際には、ベゼル120−1を除く表示領域120−2のみに画像を表示することができる。図7(B)は、図1に示されるディスプレイ102を、ディスプレイ102−1乃至102−21の各々がベゼルを有するように示す。例として、ディスプレイ102−1はベゼル120−1を有し、ディスプレイ102−2はベゼル120−2を有する。ベゼルに関する他の参照数字は省略されているが、他のディスプレイ102−3乃至102−21も同様にベゼルを有する。ディスプレイ102−1とディスプレイ102−2との間の境界122の幅は、ベゼル120−1の幅とベゼル120−2の幅の合計の幅を有するので、ベゼル120−1及びベゼル120−2と比較して太くなっている。   FIG. 7 is a schematic diagram showing that the display has a bezel. As shown in FIG. 7A, each display such as the display 102-1 constituting the display 102 actually has a bezel 120-1. The display 102-1 can actually display an image only in the display area 120-2 excluding the bezel 120-1. FIG. 7B shows the display 102 shown in FIG. 1 such that each of the displays 102-1 to 102-21 has a bezel. As an example, the display 102-1 has a bezel 120-1, and the display 102-2 has a bezel 120-2. Other reference numerals for the bezel are omitted, but the other displays 102-3 through 102-21 have a bezel as well. Since the width of the boundary 122 between the display 102-1 and the display 102-2 has a total width of the width of the bezel 120-1 and the width of the bezel 120-2, the bezel 120-1 and the bezel 120-2 It is thick compared.

図7に示されるようなディスプレイ102を用いて映像を表示する場合には、ベゼルの幅を考慮して、ディスプレイ102全体にわたって画像が歪みをもつことなく自然に見えるように表示されることが重要である。システム100がそのように構成されない場合、ベゼル122によって隠されるべき画像の部分が、ディスプレイ102−1の右端及びディスプレイ102−2の左端に表示され、その結果、ディスプレイ102に表示される画像は本来の画像と比較して歪みを有することになる。   When displaying an image using the display 102 as shown in FIG. 7, it is important to display the image so that the image looks natural without distortion in consideration of the width of the bezel in consideration of the width of the bezel. It is. If the system 100 is not so configured, the portion of the image that is to be hidden by the bezel 122 is displayed at the right edge of the display 102-1 and the left edge of the display 102-2, so that the image displayed on the display 102 is inherently It will have distortion compared with the image of.

本発明の実施例は、図7に示されるようなディスプレイ102に画像を表示する際に、ベゼルの幅を考慮して、ディスプレイ102−1乃至102−21が1つのディスプレイ102として画像を自然に表示するように構成することができる。   In the embodiment of the present invention, when an image is displayed on the display 102 as shown in FIG. 7, the display 102-1 to 102-21 naturally displays the image as one display 102 in consideration of the width of the bezel. It can be configured to display.

1つの実施例において、コンピュータ104−1乃至104−21の各々が、当該コンピュータに対応する領域のうち、当該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得してもよい。実施例において、実行ファイル112及び118は、ディスプレイ102−1乃至102−21の各々のベゼルの幅に関する情報を含んでいてもよい。例えば、実行ファイルは、図4に示される撮影領域310のうちの領域310−1に関して、当該領域の上端から5%の部分、当該領域の下端から5%の部分、当該領域の左端から5%の部分及び当該領域の右端から5%の部分を、画像を取得するべきでない部分として指定してもよい。この場合、図2のステップ210において領域310−1を割り当てられたコンピュータ104−1は、実行ファイル118による上記の指定に従って、ステップ220において、領域310−1のデータのうち、上記指定された部分を除く領域のデータをレンダリングして画像を取得してもよい。他のコンピュータ104−2乃至104−21も同様に動作してもよい。上記の例は、ディスプレイのベゼルに対応する部分の画像を除外する方法の一例である。当業者であれば、本明細書に開示される技術に基づいて、様々な方法で、コンピュータ104−1乃至104−21の各々が、当該コンピュータに対応する領域310−1乃至310−21の各々のうち、当該コンピュータに接続されたディスプレイ102−1乃至102−21の各々のベゼルに対応する領域を除く領域の画像を取得する表示システムを実現することができる。   In one embodiment, each of the computers 104-1 to 104-21 may acquire an image of an area excluding an area corresponding to a bezel of a display connected to the computer, from an area corresponding to the computer. Good. In an embodiment, the execution files 112 and 118 may include information regarding the width of each bezel of the displays 102-1 through 102-21. For example, regarding the area 310-1 in the shooting area 310 shown in FIG. 4, the executable file is a part of 5% from the upper end of the area, a part of 5% from the lower end of the area, and 5% from the left end of the area. And 5% from the right end of the region may be designated as a portion from which an image should not be acquired. In this case, the computer 104-1 assigned the area 310-1 in step 210 of FIG. 2 follows the above-mentioned designation by the execution file 118, and in step 220, the specified portion of the data in the area 310-1 is designated. The image may be acquired by rendering the data of the area excluding. Other computers 104-2 to 104-21 may operate in the same manner. The above example is an example of a method for excluding an image of a portion corresponding to a display bezel. A person skilled in the art will recognize that each of the computers 104-1 to 104-21 may correspond to each of the areas 310-1 to 310-21 corresponding to the computer in various ways based on the technology disclosed herein. Among them, it is possible to realize a display system that acquires an image of an area excluding an area corresponding to each bezel of the displays 102-1 to 102-21 connected to the computer.

1つの実施例において、サーバ106が、コンピュータ104−1乃至104−21の各々に、仮想カメラ308の撮影領域310のうちの当該コンピュータに対応する領域に関する情報を、当該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知してもよい。実施例において、実行ファイル112及び118は、ディスプレイ102−1乃至102−21の各々のベゼルの幅に関する情報を含んでいてもよい。例えば、実行ファイルは、図4に示される撮影領域310のうちの領域310−1に関して、当該領域の上端から5%の部分、当該領域の下端から5%の部分、当該領域の左端から5%の部分及び当該領域の右端から5%の部分を、画像を取得するべきでない部分として指定してもよい。この場合、サーバ106は、例えば、図2のステップ210において領域310−1をコンピュータ104−1に割り当てる際に、実行ファイル112による上記の指定に従って、コンピュータ104−1に対して、領域310−1のうち上記指定された部分を除く領域を、コンピュータ104−1によってレンダリングされる領域として通知してもよい。上記の例は、ディスプレイのベゼルに対応する部分の画像を除外する方法の一例である。当業者であれば、本明細書に開示される技術に基づいて、様々な方法で、サーバ106が、コンピュータ104−1乃至104−21の各々に、仮想カメラ308の撮影領域310のうちの当該コンピュータに対応する領域に関する情報を、当該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知する、表示システムを実現することができる。   In one embodiment, the server 106 sends information about the area corresponding to the computer in the imaging area 310 of the virtual camera 308 to each of the computers 104-1 to 104-21 on a display connected to the computer. You may notify that the area | region corresponding to a bezel is excluded. In an embodiment, the execution files 112 and 118 may include information regarding the width of each bezel of the displays 102-1 through 102-21. For example, regarding the area 310-1 in the shooting area 310 shown in FIG. 4, the executable file is a part of 5% from the upper end of the area, a part of 5% from the lower end of the area, and 5% from the left end of the area. And 5% from the right end of the region may be designated as a portion from which an image should not be acquired. In this case, for example, when assigning the area 310-1 to the computer 104-1 in step 210 of FIG. 2, the server 106 sends the area 310-1 to the computer 104-1 according to the above-described designation by the execution file 112. Of these, an area excluding the designated portion may be notified as an area rendered by the computer 104-1. The above example is an example of a method for excluding an image of a portion corresponding to a display bezel. Those skilled in the art will recognize that the server 106 can transfer each of the computers 104-1 to 104-21 to each of the imaging areas 310 of the virtual camera 308 in various ways based on the technology disclosed herein. It is possible to realize a display system that notifies information related to a region corresponding to a computer so that a region corresponding to a bezel of a display connected to the computer is excluded.

上述のようなベゼルを考慮する実施例によれば、仮想カメラ308によって取得された領域310のデータのうち、ディスプレイ102−1乃至102−21のベゼルに対応する部分については、レンダリングが行われず、ディスプレイ102に表示されない。   According to the embodiment considering the bezel as described above, the portion corresponding to the bezel of the display 102-1 to 102-21 in the data of the area 310 acquired by the virtual camera 308 is not rendered, It is not displayed on the display 102.

図8は、上述の処理によってディスプレイ102に表示された画像を示す。図3における撮影領域310の各領域は、上述のように、それぞれの領域に対応するコンピュータ104−1乃至104−21によってレンダリングされて、ディスプレイ102を構成するディスプレイ102−1乃至102−21にそれぞれ表示される。しかし、既に述べたように、領域310のすべての部分がレンダリングされるのではなく、ベゼルに対応する部分は除外される。図8に示される画像は、図5の画像と類似しているが、ディスプレイ102−1乃至102−21のベゼルに対応する部分の画像はレンダリングされず、表示されない。結果として、レンダリングされない部分がベゼルによって隠されるように見え、画像を歪みを有することなく自然に表示することが可能となっている。このため、図8において、クマのマーク及び「コロプラ」という文字306、クマのオブジェクト304及び他のオブジェクト312は、ディスプレイ102を構成するディスプレイ102−1乃至102−21の各々がベゼルを有するにも関わらず、自然に表示することができている。図9は、図8とは別の時点において、クマのオブジェクト304が左方向に移動したときに、図3の仮想空間300に基づいてディスプレイ102に表示される別の画像を示す。表示内容は、クマのオブジェクトを除いて図8と同じである。   FIG. 8 shows an image displayed on the display 102 by the above-described processing. As described above, each area of the imaging area 310 in FIG. 3 is rendered by the computers 104-1 to 104-21 corresponding to the respective areas, and is displayed on the displays 102-1 to 102-21 constituting the display 102, respectively. Is displayed. However, as already mentioned, not all parts of region 310 are rendered, but the part corresponding to the bezel is excluded. The image shown in FIG. 8 is similar to the image of FIG. 5, but the image of the portion corresponding to the bezel of the displays 102-1 to 102-21 is not rendered and is not displayed. As a result, the non-rendered part appears to be hidden by the bezel, allowing the image to be displayed naturally without distortion. Therefore, in FIG. 8, the bear mark and the character 306 “Colopura”, the bear object 304, and the other object 312 are displayed even if each of the displays 102-1 to 102-21 constituting the display 102 has a bezel. Regardless, it can be displayed naturally. FIG. 9 shows another image displayed on the display 102 based on the virtual space 300 of FIG. 3 when the bear object 304 moves to the left at a different time point from FIG. The display contents are the same as in FIG. 8 except for the bear object.

図10は、一例として、コンピュータ104−1乃至104−21がゲームアプリケーションの3次元仮想空間300を含む実行ファイルを実行した場合に、ある時点で仮想カメラ308によって取得されたデータに対するレンダリング処理の結果として得られる画像を示す。図10(A)は、3次元仮想空間300中のある時点におけるシーンを示す。図10(B)は、図10(A)のシーンについて本発明の実施例によって得られる、ベゼルの幅が非常に狭い理想的なディスプレイ102−1乃至102−21によって構成されるディスプレイ102に表示される画像を示す。図10(C)は、図10(A)のシーンについて本発明の実施例によって得られる、現実的なベゼル幅を有するディスプレイ102−1乃至102−21によって構成されるディスプレイ102に表示される画像を示す。   FIG. 10 shows, as an example, a result of a rendering process for data acquired by the virtual camera 308 at a certain point in time when the computers 104-1 to 104-21 execute an execution file including the three-dimensional virtual space 300 of the game application. The obtained image is shown as follows. FIG. 10A shows a scene at a certain point in the three-dimensional virtual space 300. FIG. 10 (B) is displayed on the display 102 obtained by the embodiment of the present invention for the scene of FIG. 10 (A) and constituted by ideal displays 102-1 to 102-21 having a very narrow bezel. The image to be displayed is shown. FIG. 10C shows an image displayed on the display 102 constituted by the displays 102-1 to 102-21 having realistic bezel widths obtained by the embodiment of the present invention for the scene of FIG. 10A. Indicates.

本実施例の表示システム100は、映像を表示するものとして説明されたが、静止画、メッセージなどの表示にも使用できることは当業者にとって明らかであろう。
ここまで、本発明の実施例として表示システムの構成について説明したが、本発明は、表示システムにおいて映像を表示する方法として実施することもできる。図11は、本発明の実施例による、表示システム100において映像を表示する方法を示すフローチャートである。
Although the display system 100 of the present embodiment has been described as displaying video, it will be apparent to those skilled in the art that it can also be used to display still images, messages, and the like.
Up to this point, the configuration of the display system has been described as an embodiment of the present invention, but the present invention can also be implemented as a method of displaying an image in the display system. FIG. 11 is a flowchart illustrating a method of displaying an image on the display system 100 according to an embodiment of the present invention.

方法はステップ1102において開始する。ステップ1104において、仮想空間のデータと、1つの仮想カメラについての各時点における仮想空間内での位置及び角度に関する情報とを含む、実行ファイルが実行される。ステップ1106において、実行ファイルを格納する複数のコンピュータの各々に対して、実行ファイルを同期して実行するよう指示がなされる。ステップ1108において、仮想空間中のオブジェクトの座標情報が取得される。ステップ1110において、複数のコンピュータの各々に対して、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報が通知される。ステップ1112において、オブジェクトの座標情報が複数のコンピュータの各々に送られる。ステップ1114において、複数のコンピュータの各々に対して、仮想カメラが仮想空間内で取得した情報及び当該コンピュータに対応する領域に関する情報に基づいて、当該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、当該コンピュータに接続されたディスプレイに当該画像を他のコンピュータと同期して表示するよう指示がなされる。結果として、複数のディスプレイからなる大画面のディスプレイ上に映像が表示される。ステップ1116において方法は終了する。   The method starts at step 1102. In step 1104, an execution file including data of the virtual space and information regarding the position and angle in the virtual space at each time point for one virtual camera is executed. In step 1106, each of the plurality of computers storing the execution file is instructed to execute the execution file synchronously. In step 1108, coordinate information of the object in the virtual space is acquired. In step 1110, each of the plurality of computers is notified of information related to an area corresponding to the computer in the imaging area of the virtual camera. In step 1112, the coordinate information of the object is sent to each of the plurality of computers. In step 1114, for each of the plurality of computers, based on the information acquired by the virtual camera in the virtual space and the information related to the area corresponding to the computer, the image corresponding to the computer is synchronized with the other computer. An instruction is given to display the image in synchronism with another computer, obtained by rendering processing and displayed on a display connected to the computer. As a result, an image is displayed on a large-screen display composed of a plurality of displays. In step 1116, the method ends.

ステップ1110において、複数のコンピュータの各々に対して、仮想カメラの撮影領域のうちの当該コンピュータに対応する領域に関する情報が、当該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知されてもよい。また、ステップ1114において、複数のコンピュータの各々が、当該コンピュータに対応する領域のうち、当該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得してもよい。   In step 1110, for each of the plurality of computers, information regarding the area corresponding to the computer in the imaging area of the virtual camera is excluded from the area corresponding to the bezel of the display connected to the computer. You may be notified. Further, in step 1114, each of the plurality of computers may acquire an image of an area excluding an area corresponding to a bezel of a display connected to the computer among areas corresponding to the computer.

本発明はまた、プログラムとして実施することもできる。この場合、実施例は、表示システム100のサーバ106によって実行されると、サーバ106に、図11に示す各ステップを実行させるプログラムである。   The present invention can also be implemented as a program. In this case, the embodiment is a program that, when executed by the server 106 of the display system 100, causes the server 106 to execute each step shown in FIG.

本発明において、仮想空間は、既に実行されたアプリケーションにおいて描画されたコンテンツを利用して作成することもできる。例えば、仮想空間は、スマートフォンでゲームアプリケーションを実行した際にスマートフォンプラットフォームで使用した3次元映像を再利用することによって作成することができる。このような映像が表示システム100で表示される映像より低解像度のものであっても、これをアップサンプリングすることによって、表示システム100のための3次元仮想空間を作成することができる。   In the present invention, the virtual space can be created using content drawn in an already executed application. For example, the virtual space can be created by reusing a 3D image used on the smartphone platform when a game application is executed on the smartphone. Even if such video has a lower resolution than the video displayed on the display system 100, a three-dimensional virtual space for the display system 100 can be created by upsampling the video.

以上、本発明の実施の形態を図面を参照しつつ説明してきたが、当業者であれば、他の類似する実施形態を使用することができること、また、本発明から逸脱することなく適宜形態の変更又は追加を行うことができることに留意すべきである。なお、本発明は、上記の実施形態に限定されるべきではなく、特許請求の範囲の記載に基づいて解釈されるべきである。   The embodiments of the present invention have been described above with reference to the drawings. However, those skilled in the art can use other similar embodiments and can appropriately form the embodiments without departing from the present invention. It should be noted that changes or additions can be made. In addition, this invention should not be limited to said embodiment, and should be interpreted based on description of a claim.

図3は、実行ファイル112及び118に含まれる仮想空間300の一例を示す。ここで、仮想空間300は3次元仮想空間である。仮想空間300には、ステージ302、ステージ302上を移動するクマのオブジェクト304、ステージ302上で浮いているクマのマーク及び「コプラ」の文字306、並びに他のオブジェクト312が存在している。この例では、単一の仮想カメラ308が、オブジェクト304や文字306の前方に配置され、オブジェクト304や文字306の方向に向けられている。本発明の実施例においては、単一の仮想カメラ308が仮想空間300内をカバーする。すなわち、単一の仮想カメラ308のみを用いて、仮想空間300内の任意の場所を、任意の角度で撮影することができる。図3には、仮想カメラ308によって仮想空間が撮影されてデータ化される撮影領域310が示されている。図4は、このような仮想カメラの撮影領域310の分割の例を示す。ここでは、撮影領域310は、領域310−1乃至310−21の21個の領域に分割される。領域310−1乃至310−21の各々は、コンピュータ104−1乃至104−21のうちの異なる1つに対応付けられる。図2について上述したように、サーバ106は、コンピュータ104−1乃至104−21の各々に、仮想カメラの撮影領域310のうちの該コンピュータに対応する領域に関する情報を通知する。例えば、サーバ106は、コンピュータ104−1に、領域310−1に関する情報(撮影領域310内での領域310−1の位置など)を通知する。図2のシーケンスのステップ220において、コンピュータ104−1乃至104−21の各々は、撮影領域310のうち自身に対応付けられる領域について仮想カメラ308が取得したデータを、他のコンピュータと同期してレンダリングし、得られた画像をディスプレイ102−1乃至102−21にそれぞれ送り、同期して表示させる。図3は、撮影領域310のレンダリング処理結果のプレビューを右下に示す。 FIG. 3 shows an example of the virtual space 300 included in the execution files 112 and 118. Here, the virtual space 300 is a three-dimensional virtual space. The virtual space 300, the stage 302, there are stages 302 bears object 304 moving on the character 306 of the marks and bear that floats on the stage 302 "U Pla" as well as other objects 312, . In this example, a single virtual camera 308 is disposed in front of the object 304 or the character 306 and is directed toward the object 304 or the character 306. In the embodiment of the present invention, a single virtual camera 308 covers the inside of the virtual space 300. That is, an arbitrary place in the virtual space 300 can be photographed at an arbitrary angle using only the single virtual camera 308. FIG. 3 shows a shooting area 310 in which a virtual space is shot by the virtual camera 308 and converted into data. FIG. 4 shows an example of such a division of the imaging area 310 of the virtual camera. Here, the imaging region 310 is divided into 21 regions, regions 310-1 to 310-21. Each of the areas 310-1 to 310-21 is associated with a different one of the computers 104-1 to 104-21. As described above with reference to FIG. 2, the server 106 notifies each of the computers 104-1 to 104-21 of information related to the area corresponding to the computer in the imaging area 310 of the virtual camera. For example, the server 106 notifies the computer 104-1 of information related to the area 310-1 (such as the position of the area 310-1 within the imaging area 310). In step 220 of the sequence in FIG. 2, each of the computers 104-1 to 104-21 renders the data acquired by the virtual camera 308 in an area associated with itself among the imaging areas 310 in synchronization with other computers. Then, the obtained images are respectively sent to the displays 102-1 to 102-21 and displayed in synchronization. FIG. 3 shows a preview of the rendering processing result of the shooting area 310 at the lower right.

図5は、上述の処理によってディスプレイ102に表示された画像を示す。図3における撮影領域310の各領域のデータは、上述のように、それぞれの領域に対応するコンピュータ104−1乃至104−21によってレンダリングされて、ディスプレイ102を構成するディスプレイ102−1乃至102−21にそれぞれ表示される。クマのマーク及び「コプラ」という文字306は、ディスプレイ102−2乃至102−6、102−9乃至102−13及び102−16にわたって表示されている。また、クマのオブジェクト304が、ディスプレイ102−12、102−13及び102−20にわたって表示されている。図2に関連して説明したように、サーバ106が仮想空間300中のクマのオブジェクト304の座標情報を取得し、当該座標情報をコンピュータ104−1乃至104−21に送る。コンピュータ104−1乃至104−21は、当該座標情報に基づいて、図5に示すように、クマのオブジェクト304をディスプレイ102上の正確な
位置に表示することができる。
FIG. 5 shows an image displayed on the display 102 by the above-described processing. As described above, the data of each area of the imaging area 310 in FIG. 3 is rendered by the computers 104-1 to 104-21 corresponding to each area, and the displays 102-1 to 102-21 constituting the display 102 are rendered. Respectively. Character 306 that marks bears and "U Plastic" is displayed across the display 102-2 through 102-6,102-9 through 102-13 and 102-16. Also, a bear object 304 is displayed across the displays 102-12, 102-13, and 102-20. As described with reference to FIG. 2, the server 106 acquires coordinate information of the bear object 304 in the virtual space 300 and sends the coordinate information to the computers 104-1 to 104-21. Based on the coordinate information, the computers 104-1 to 104-21 can display the bear object 304 at an accurate position on the display 102 as shown in FIG.

図8は、上述の処理によってディスプレイ102に表示された画像を示す。図3における撮影領域310の各領域は、上述のように、それぞれの領域に対応するコンピュータ104−1乃至104−21によってレンダリングされて、ディスプレイ102を構成するディスプレイ102−1乃至102−21にそれぞれ表示される。しかし、既に述べたように、領域310のすべての部分がレンダリングされるのではなく、ベゼルに対応する部分は除外される。図8に示される画像は、図5の画像と類似しているが、ディスプレイ102−1乃至102−21のベゼルに対応する部分の画像はレンダリングされず、表示されない。結果として、レンダリングされない部分がベゼルによって隠されるように見え、画像を歪みを有することなく自然に表示することが可能となっている。このため、図8において、クマのマーク及び「コプラ」という文字306、クマのオブジェクト304及び他のオブジェクト312は、ディスプレイ102を構成するディスプレイ102−1乃至102−21の各々がベゼルを有するにも関わらず、自然に表示することができている。図9は、図8とは別の時点において、クマのオブジェクト304が左方向に移動したときに、図3の仮想空間300に基づいてディスプレイ102に表示される別の画像を示す。表示内容は、クマのオブジェクトを除いて図8と同じである。 FIG. 8 shows an image displayed on the display 102 by the above-described processing. As described above, each area of the imaging area 310 in FIG. 3 is rendered by the computers 104-1 to 104-21 corresponding to the respective areas, and is displayed on the displays 102-1 to 102-21 constituting the display 102, respectively. Is displayed. However, as already mentioned, not all parts of region 310 are rendered, but the part corresponding to the bezel is excluded. The image shown in FIG. 8 is similar to the image of FIG. 5, but the image of the portion corresponding to the bezel of the displays 102-1 to 102-21 is not rendered and is not displayed. As a result, the non-rendered part appears to be hidden by the bezel, allowing the image to be displayed naturally without distortion. For this reason, in FIG. 8, the bear mark and the character 306 “ko Δ plastic” 306, the bear object 304, and the other object 312, each of the displays 102-1 to 102-21 constituting the display 102 has a bezel. Nevertheless, it can be displayed naturally. FIG. 9 shows another image displayed on the display 102 based on the virtual space 300 of FIG. 3 when the bear object 304 moves to the left at a different time point from FIG. The display contents are the same as in FIG. 8 except for the bear object.

Claims (15)

並べて配置することにより1つのディスプレイとして使用される複数のディスプレイと、
前記複数のディスプレイの各々に各々が接続される複数のコンピュータと、
前記複数のコンピュータに接続されるサーバと
を具備し、
前記サーバは、
仮想空間のデータと、1つの仮想カメラについての各時点における前記仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行し、
前記実行ファイルを格納する前記複数のコンピュータの各々に、前記実行ファイルを同期して実行するよう指示し、
前記複数のコンピュータの各々に、前記仮想カメラの撮影領域のうちの該コンピュータに対応する領域に関する情報を通知し、
前記複数のコンピュータの各々に、前記仮想カメラが前記仮想空間内で取得した情報及び該コンピュータに対応する領域に関する前記情報に基づいて、該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、該コンピュータに接続されたディスプレイに前記画像を他のコンピュータと同期して表示するよう指示する
ように構成される表示システム。
A plurality of displays used as one display by arranging them side by side;
A plurality of computers each connected to each of the plurality of displays;
A server connected to the plurality of computers,
The server
Execute an execution file including data on the virtual space and information on the position and angle in the virtual space at each time point for one virtual camera;
Instructing each of the plurality of computers storing the executable file to execute the executable file synchronously,
Notifying each of the plurality of computers of information regarding the area corresponding to the computer in the imaging area of the virtual camera,
In each of the plurality of computers, based on the information acquired by the virtual camera in the virtual space and the information on the region corresponding to the computer, an image corresponding to the computer is rendered in synchronization with another computer. And a display system configured to instruct the display connected to the computer to display the image in synchronization with another computer.
前記仮想空間は、3次元仮想空間であり、その中で動くオブジェクトの3次元モデルを含み、
前記サーバは、前記実行ファイルを実行するとき、前記仮想空間における前記オブジェクトの座標情報を取得し、前記座標情報を前記複数のコンピュータに送り、
前記複数のコンピュータは、前記座標情報に基づいて、前記オブジェクトの3次元モデルを、前記1つのディスプレイに表示する請求項1に記載の表示システム。
The virtual space is a three-dimensional virtual space, and includes a three-dimensional model of an object moving in the virtual space,
When the server executes the executable file, the server acquires coordinate information of the object in the virtual space, and sends the coordinate information to the plurality of computers.
The display system according to claim 1, wherein the plurality of computers display a three-dimensional model of the object on the one display based on the coordinate information.
前記複数のコンピュータの各々は、該コンピュータに対応する領域のうち、該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得する請求項1又は2に記載の表示システム。   3. The display system according to claim 1, wherein each of the plurality of computers acquires an image of an area other than an area corresponding to a bezel of a display connected to the computer among areas corresponding to the computer. 前記サーバは、
前記複数のコンピュータの各々に、前記仮想カメラの撮影領域のうちの該コンピュータに対応する領域に関する情報を、該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知する
ように構成される請求項1又は2に記載の表示システム。
The server
Notifying each of the plurality of computers of information relating to the area corresponding to the computer among the imaging areas of the virtual camera so that the area corresponding to the bezel of the display connected to the computer is excluded. The display system according to claim 1 or 2, wherein the display system is configured.
前記複数のディスプレイの各々は4Kディスプレイである請求項1乃至4のいずれか1項に記載の表示システム。   The display system according to claim 1, wherein each of the plurality of displays is a 4K display. 表示システムにおいて映像を表示する方法であって、前記表示システムは、並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、前記複数のディスプレイの各々に各々が接続される複数のコンピュータと、前記複数のコンピュータに接続されるサーバとを含み、前記方法は、
前記サーバが、仮想空間のデータと、1つの仮想カメラについての各時点における前記仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行するステップと、
前記サーバが、前記実行ファイルを格納する前記複数のコンピュータの各々に、前記実行ファイルを同期して実行するよう指示するステップと、
前記サーバが、前記複数のコンピュータの各々に、前記仮想カメラの撮影領域のうちの該コンピュータに対応する領域に関する情報を通知するステップと、
前記サーバが、前記複数のコンピュータの各々に、前記仮想カメラが前記仮想空間内で取得した情報及び該コンピュータに対応する領域に関する前記情報に基づいて、該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、該コンピュータに接続されたディスプレイに前記画像を他のコンピュータと同期して表示するよう指示するステップと
を含む方法。
A method for displaying video in a display system, wherein the display system includes a plurality of displays used as one display by being arranged side by side, and a plurality of computers each connected to each of the plurality of displays. And a server connected to the plurality of computers, the method comprising:
The server executing an executable file including virtual space data and information about a position and angle in the virtual space at each time point for one virtual camera;
Instructing each of the plurality of computers storing the executable file to execute the executable file synchronously;
The server notifying each of the plurality of computers of information related to an area corresponding to the computer in the imaging area of the virtual camera;
The server synchronizes an image corresponding to the computer with each of the plurality of computers based on the information acquired by the virtual camera in the virtual space and the information regarding the area corresponding to the computer. And instructing a display connected to the computer to display the image in synchronism with another computer.
前記仮想空間は、3次元仮想空間であり、その中で動くオブジェクトの3次元モデルを含み、前記方法は、
前記サーバが、前記実行ファイルを実行するとき、前記仮想空間における前記オブジェクトの座標情報を取得し、前記座標情報を前記複数のコンピュータに送るステップ
をさらに含み、
前記複数のコンピュータは、前記座標情報に基づいて、前記オブジェクトの3次元モデルを、前記1つのディスプレイに表示する請求項6に記載の方法。
The virtual space is a three-dimensional virtual space and includes a three-dimensional model of an object moving in the method, the method comprising:
When the server executes the executable file, the server further includes obtaining coordinate information of the object in the virtual space and sending the coordinate information to the plurality of computers;
The method according to claim 6, wherein the plurality of computers display a three-dimensional model of the object on the one display based on the coordinate information.
前記複数のコンピュータの各々は、該コンピュータに対応する領域のうち、該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得する請求項6又は7に記載の方法。   8. The method according to claim 6, wherein each of the plurality of computers acquires an image of an area other than an area corresponding to a bezel of a display connected to the computer among areas corresponding to the computer. 前記通知するステップは、前記サーバが、前記複数のコンピュータの各々に、前記仮想カメラの撮影領域のうちの該コンピュータに対応する領域に関する情報を、該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知するステップを含む請求項6又は7に記載の方法。   In the notifying step, the server notifies each of the plurality of computers of information relating to an area corresponding to the computer in an imaging area of the virtual camera corresponding to a bezel of a display connected to the computer. The method according to claim 6, further comprising a step of notifying that the information is excluded. 前記複数のディスプレイの各々は4Kディスプレイである請求項6乃至9のいずれか1項に記載の方法。   The method according to claim 6, wherein each of the plurality of displays is a 4K display. 並べて配置することによって1つのディスプレイとして使用される複数のディスプレイと、前記複数のディスプレイの各々に各々が接続される複数のコンピュータと、前記複数のコンピュータに接続されるサーバとを含む表示システムのためのプログラムであって、前記サーバによって実行されると、前記サーバに、
仮想空間のデータと、1つの仮想カメラについての各時点における前記仮想空間内での位置及び角度に関する情報とを含む、実行ファイルを実行するステップと、
前記実行ファイルを格納する前記複数のコンピュータの各々に、前記実行ファイルを同期して実行するよう指示するステップと、
前記複数のコンピュータの各々に、前記仮想カメラの撮影領域のうちの該コンピュータに対応する領域に関する情報を通知するステップと、
前記複数のコンピュータの各々に、前記仮想カメラが前記仮想空間内で取得した情報及び該コンピュータに対応する領域に関する前記情報に基づいて、該コンピュータに対応する画像を他のコンピュータと同期してレンダリング処理により取得し、該コンピュータに接続されたディスプレイに前記画像を他のコンピュータと同期して表示するよう指示するステップと
を実行させるプログラム。
A display system including a plurality of displays used as one display by arranging them side by side, a plurality of computers each connected to each of the plurality of displays, and a server connected to the plurality of computers And when executed by the server,
Executing an executable file that includes data in virtual space and information about the position and angle in the virtual space at each point in time for one virtual camera;
Instructing each of the plurality of computers storing the executable file to execute the executable file synchronously;
Notifying each of the plurality of computers of information related to an area corresponding to the computer in the imaging area of the virtual camera;
In each of the plurality of computers, based on the information acquired by the virtual camera in the virtual space and the information on the region corresponding to the computer, an image corresponding to the computer is rendered in synchronization with another computer. And executing a step of instructing a display connected to the computer to display the image in synchronization with another computer.
前記仮想空間は、3次元仮想空間であり、その中で動くオブジェクトの3次元モデルを含み、前記プログラムは、前記サーバによって実行されると、前記サーバに、
前記実行ファイルを実行するとき、前記仮想空間における前記オブジェクトの座標情報を取得し、前記座標情報を前記複数のコンピュータに送るステップ
をさらに実行させ、
前記複数のコンピュータは、前記座標情報に基づいて、前記オブジェクトの3次元モデルを、前記1つのディスプレイに表示する請求項11に記載のプログラム。
The virtual space is a three-dimensional virtual space, and includes a three-dimensional model of an object moving in the virtual space, and when the program is executed by the server, the server
When executing the executable file, further obtaining the coordinate information of the object in the virtual space, sending the coordinate information to the plurality of computers,
The program according to claim 11, wherein the plurality of computers display a three-dimensional model of the object on the one display based on the coordinate information.
前記複数のコンピュータの各々は、該コンピュータに対応する領域のうち、該コンピュータに接続されたディスプレイのベゼルに対応する領域を除く領域の画像を取得する請求項11又は12に記載のプログラム。   The program according to claim 11 or 12, wherein each of the plurality of computers acquires an image of an area excluding an area corresponding to a bezel of a display connected to the computer among areas corresponding to the computer. 前記通知するステップは、前記サーバが、前記複数のコンピュータの各々に、前記仮想カメラの撮影領域のうちの該コンピュータに対応する領域に関する情報を、該コンピュータに接続されたディスプレイのベゼルに対応する領域が除外されるように通知するステップを含む請求項11又は12に記載のプログラム。   In the notifying step, the server notifies each of the plurality of computers of information relating to an area corresponding to the computer in an imaging area of the virtual camera corresponding to a bezel of a display connected to the computer. 13. The program according to claim 11 or 12, further comprising a step of notifying that an item is excluded. 前記複数のディスプレイの各々は4Kディスプレイである請求項11乃至14のいずれか1項に記載のプログラム。   The program according to any one of claims 11 to 14, wherein each of the plurality of displays is a 4K display.
JP2015018205A 2015-02-02 2015-02-02 Display system, display method and program Active JP5960855B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015018205A JP5960855B1 (en) 2015-02-02 2015-02-02 Display system, display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015018205A JP5960855B1 (en) 2015-02-02 2015-02-02 Display system, display method and program

Publications (2)

Publication Number Publication Date
JP5960855B1 JP5960855B1 (en) 2016-08-02
JP2016143215A true JP2016143215A (en) 2016-08-08

Family

ID=56550451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015018205A Active JP5960855B1 (en) 2015-02-02 2015-02-02 Display system, display method and program

Country Status (1)

Country Link
JP (1) JP5960855B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018205570A (en) * 2017-06-06 2018-12-27 富士通株式会社 Information processing device, information processing system and information processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI738439B (en) * 2020-07-29 2021-09-01 友達光電股份有限公司 Image display method and display system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338310A (en) * 2000-05-25 2001-12-07 Mitsubishi Electric Corp Multi-display three-dimensional graphics display device
JP2004078414A (en) * 2002-08-13 2004-03-11 Digital Zuu:Kk Multi-screen display method by multiple display devices, and program and recording medium for the method
JP2013171054A (en) * 2012-02-17 2013-09-02 Jvc Kenwood Corp Display control device and display control method
JP2013218002A (en) * 2012-04-05 2013-10-24 Sharp Corp Display device
WO2014174630A1 (en) * 2013-04-25 2014-10-30 Necディスプレイソリューションズ株式会社 Multi-monitor and display method for multi-monitor
JP2014232321A (en) * 2013-05-28 2014-12-11 群創光電股▲ふん▼有限公司Innolux Corporation Liquid crystal display device and display method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338310A (en) * 2000-05-25 2001-12-07 Mitsubishi Electric Corp Multi-display three-dimensional graphics display device
JP2004078414A (en) * 2002-08-13 2004-03-11 Digital Zuu:Kk Multi-screen display method by multiple display devices, and program and recording medium for the method
JP2013171054A (en) * 2012-02-17 2013-09-02 Jvc Kenwood Corp Display control device and display control method
JP2013218002A (en) * 2012-04-05 2013-10-24 Sharp Corp Display device
WO2014174630A1 (en) * 2013-04-25 2014-10-30 Necディスプレイソリューションズ株式会社 Multi-monitor and display method for multi-monitor
JP2014232321A (en) * 2013-05-28 2014-12-11 群創光電股▲ふん▼有限公司Innolux Corporation Liquid crystal display device and display method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018205570A (en) * 2017-06-06 2018-12-27 富士通株式会社 Information processing device, information processing system and information processing method
JP7052225B2 (en) 2017-06-06 2022-04-12 富士通株式会社 Information processing equipment, information processing system and information processing method

Also Published As

Publication number Publication date
JP5960855B1 (en) 2016-08-02

Similar Documents

Publication Publication Date Title
JP6027585B2 (en) Display system, display method and program
CN104216671B (en) Method for realizing synchronous cooperated display on multiple sets of spliced display screens
CN107193372B (en) Projection method from multiple rectangular planes at arbitrary positions to variable projection center
JP2019197224A (en) Video display system
JP2018049591A (en) Image processing apparatus, image generation method, and program
JP2018046448A5 (en)
JP2020533710A (en) Image stitching method and device, storage medium
JP2018142164A (en) Image processing apparatus, image generating method, and program
WO2018133692A1 (en) Method for achieving augmented reality, computer device and storage medium
CN104168315B (en) A kind of full visual angle smooth immersion display methods and system
WO2018051747A1 (en) Image processing device, image generating method, and program
JP5960855B1 (en) Display system, display method and program
JP2020500380A (en) Organized digital display system
TW389857B (en) Image drawing apparatus
JP2020036116A5 (en)
JP2015231114A (en) Video display device
KR101795522B1 (en) Method and apparatus for interaction of video contents in multi display system
JP2022058770A5 (en) Image processing system, image processing method and program
JP2017538140A (en) Real-time 3D video multiple screen synchronization system
JP2013135422A (en) Image synthesizing apparatus, terminal device, image synthesizing system, and program
JP2015170232A (en) Information processing device, method of controlling the same, and program
CN111913343A (en) Panoramic image display method and device
CN105338261B (en) A kind of method and device of transmission picture relevant information
CN105204277B (en) A kind of free space live fluoroscopic imaging device and system
KR102525186B1 (en) Method and System for synchronizing captions on the video wall

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160623

R150 Certificate of patent or registration of utility model

Ref document number: 5960855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250