JP6714625B2 - Computer system - Google Patents

Computer system Download PDF

Info

Publication number
JP6714625B2
JP6714625B2 JP2018026256A JP2018026256A JP6714625B2 JP 6714625 B2 JP6714625 B2 JP 6714625B2 JP 2018026256 A JP2018026256 A JP 2018026256A JP 2018026256 A JP2018026256 A JP 2018026256A JP 6714625 B2 JP6714625 B2 JP 6714625B2
Authority
JP
Japan
Prior art keywords
computer
character
sound
user
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018026256A
Other languages
Japanese (ja)
Other versions
JP2019141162A (en
Inventor
賢作 渡辺
賢作 渡辺
徳寧 鐘田
徳寧 鐘田
健 上保
健 上保
山田 健司
健司 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2018026256A priority Critical patent/JP6714625B2/en
Publication of JP2019141162A publication Critical patent/JP2019141162A/en
Application granted granted Critical
Publication of JP6714625B2 publication Critical patent/JP6714625B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、インターネットなどの通信ネットワークを介して、複数のユーザが仮想空間内の同じイベントを同時に体験することを可能にするコンピュータシステムに関する。 The present invention relates to a computer system that enables multiple users to simultaneously experience the same event in a virtual space via a communication network such as the Internet.

近年、インターネットなどの通信ネットワークを介して、複数のユーザが仮想空間内の同じイベントを同時に体験することを可能にするシステムが種々開発されている。例えば、特許文献1には、複数のユーザが仮想空間内でテレビゲームを行う体験を共有することが可能なコンピュータシステムが開示されている。このシステムでは、仮想空間中に複数のユーザがそれぞれ用いるキャラクタ(アバター)を配置し、仮想空間中のテレビ受像機にテレビゲーム機の出力を表示し、各キャラクタで、そのテレビゲームを実施する。 In recent years, various systems have been developed that allow a plurality of users to simultaneously experience the same event in a virtual space via a communication network such as the Internet. For example, Patent Document 1 discloses a computer system in which a plurality of users can share the experience of playing a video game in a virtual space. In this system, characters (avatars) used by a plurality of users are arranged in a virtual space, the output of the video game machine is displayed on a television receiver in the virtual space, and each character plays the video game.

特開2016−202686号公報JP, 2016-202686, A

複数のユーザが同じ仮想空間で共有する体験としては、他のユーザと協力したり互いに競争したりするものの他、仮想空間内で実施されるスポーツなどのイベントを他のユーザと共に観覧するものも考えられる。このような体験を可能にするシステムを構築する場合、イベントを観覧する臨場感を高めるために、例えば観覧するスポーツの選手に対する声援や拍手など、各ユーザの操作に応じた音をそのユーザに対応するキャラクタが出せるようにすることが望ましい。しかし、仮想空間内で体験を共有するユーザの数が多い場合、各ユーザの操作に応じて逐一音を出力させることとすると、コンピュータの処理負荷が大きくなるという問題がある。 As an experience shared by multiple users in the same virtual space, in addition to collaborating with other users or competing with each other, it is also possible to view events such as sports performed in the virtual space with other users. To be When building a system that enables such an experience, in order to enhance the sense of realism when viewing an event, for example, cheering or applauding the athletes of the sport to be viewed, and responding to that user with sounds that correspond to their operations It is desirable to be able to put out the character to do. However, when the number of users who share the experience in the virtual space is large, there is a problem that the processing load of the computer increases if the sound is output one by one according to the operation of each user.

そこで本発明は、仮想空間内で実施されるイベントを観覧する臨場感を高めつつ、コンピュータの処理負荷の増大を抑制することができるコンピュータシステムを提供することを目的とする。 Therefore, it is an object of the present invention to provide a computer system capable of suppressing an increase in processing load on a computer while enhancing the realism of viewing an event performed in a virtual space.

上記の課題を解決するために、本発明に係るコンピュータシステムは、仮想カメラで撮影した仮想空間を二次元画像として表示する表示装置および音を出力する音出力装置をそれぞれ有する複数のコンピュータと、サーバ装置と、を備えるコンピュータシステムであって、前記複数のコンピュータのそれぞれと前記サーバ装置との間で通信する通信手段と、前記各表示装置を介して前記複数のコンピュータに対応する複数のユーザが観覧するイベントが実施される仮想空間を生成する仮想空間生成手段と、前記コンピュータが前記ユーザによる所定の操作入力を受け付けたときに、前記操作入力に対応する操作信号を前記コンピュータから前記サーバ装置へ送信する操作信号送信手段と、前記サーバ装置が前記複数のコンピュータから一定の時間内に受信した前記操作信号の総数、または前記複数のコンピュータの数に対する前記操作信号の総数の割合が、閾値に達したか否かを判定する判定手段と、前記総数または前記割合が閾値に達した場合に、前記音出力装置から前記操作信号に対応した第1音を出力する第1音出力手段と、を備える。 In order to solve the above problems, a computer system according to the present invention includes a plurality of computers each having a display device for displaying a virtual space photographed by a virtual camera as a two-dimensional image and a sound output device for outputting a sound, and a server. And a communication unit for communicating between each of the plurality of computers and the server device, and a plurality of users corresponding to the plurality of computers viewing the respective display devices. Virtual space generation means for generating a virtual space in which an event is performed, and when the computer receives a predetermined operation input from the user, transmits an operation signal corresponding to the operation input from the computer to the server device. And a total number of the operation signals received by the server device from the plurality of computers within a fixed time, or a ratio of the total number of the operation signals to the number of the plurality of computers has reached a threshold value. And a first sound output unit that outputs a first sound corresponding to the operation signal from the sound output device when the total number or the ratio reaches a threshold value.

上記のコンピュータシステムによれば、ユーザによるコンピュータに対する所定の操作入力が、その操作入力に対応する第1音として反映されるため、イベントを観覧する臨場感を高めることができる。また、第1音の出力は、操作信号の総数またはそのイベント観覧者に対する割合が閾値に達した場合に制限されているため、コンピュータの処理負荷の増大を抑制することができる。 According to the computer system described above, the predetermined operation input to the computer by the user is reflected as the first sound corresponding to the operation input, so that it is possible to enhance the realism of viewing the event. Further, since the output of the first sound is limited when the total number of operation signals or the ratio of the operation signals to the event viewer reaches a threshold value, it is possible to suppress an increase in processing load on the computer.

また、上記のコンピュータシステムにおいて、前記音出力手段は、前記総数または前記割合が閾値に達した場合に、前記総数または前記割合に応じて、出力する前記第1音の音量を決定してもよい。このコンピュータシステムによれば、操作信号の総数またはそのイベント観覧者に対する割合に応じて第1音の音量が決定されるため、例えば前記総数または割合が大きくなるにつれて、出力する音の音量を段階的または連続的に大きくして、仮想空間での体験のリアリティをより高めることができる。 In the above computer system, the sound output means may determine the volume of the first sound to be output according to the total number or the ratio when the total number or the ratio reaches a threshold value. .. According to this computer system, the volume of the first sound is determined according to the total number of operation signals or the ratio of the operation signals to the viewer. Therefore, for example, as the total number or ratio increases, the volume of the output sound gradually changes. Or it can be increased continuously to increase the reality of the experience in the virtual space.

また、上記のコンピュータシステムにおいて、前記複数のコンピュータは、第1コンピュータおよび第2コンピュータを含み、上記のコンピュータシステムは、前記第1コンピュータを操作するユーザに対応する第1キャラクタ、および前記第2コンピュータを操作するユーザに対応する第2キャラクタの前記仮想空間内における位置を管理する位置管理手段と、前記第2キャラクタが前記第1キャラクタを基準とする所定の範囲内に位置し、前記第2コンピュータが受け付けた前記操作入力に対応する操作信号が前記操作信号送信手段により前記第2コンピュータから前記サーバ装置へ送信された場合には、前記判定手段による判定結果にかかわらず、前記操作信号に対応した第2音を前記第1コンピュータの前記音出力装置から出力する第2音出力手段と、を備えてもよい。このコンピュータシステムによれば、第1キャラクタに、その近くに位置する第2キャラクタからの音が聞こえてくるという事象を表現することができ、仮想空間での体験のリアリティをより高めることができる。 In the above computer system, the plurality of computers include a first computer and a second computer, and the computer system includes a first character corresponding to a user who operates the first computer, and the second computer. Position management means for managing the position in the virtual space of the second character corresponding to the user who operates the second character, and the second character positioned within a predetermined range with the first character as a reference, and the second computer When the operation signal corresponding to the operation input accepted by the operation signal is transmitted from the second computer to the server device by the operation signal transmitting means, the operation signal corresponding to the operation signal is obtained regardless of the determination result by the determining means. Second sound output means for outputting a second sound from the sound output device of the first computer. According to this computer system, it is possible to express the phenomenon that the first character hears the sound from the second character located near the first character, and it is possible to further enhance the reality of the experience in the virtual space.

また、上記のコンピュータシステムにおいて、前記複数のコンピュータは、第1コンピュータおよび第2コンピュータを含み、上記のコンピュータシステムは、前記第1コンピュータを操作するユーザに対応する第1キャラクタ、および前記第2コンピュータを操作するユーザに対応する第2キャラクタの前記仮想空間内における位置を管理する位置管理手段と、前記第2キャラクタが前記第1キャラクタを基準とする所定の範囲内に位置し、前記第2コンピュータが受け付けた前記操作入力に対応する操作信号が前記操作信号送信手段により前記第2コンピュータから前記サーバ装置へ送信された場合には、前記操作信号に対応した動作を行うよう第2キャラクタを制御する動作制御手段と、を備えてもよい。このコンピュータシステムによれば、第2ユーザの操作に応じて、第1キャラクタの近くに位置する第2キャラクタが動作するため、第1ユーザは、イベントを観覧する第2ユーザの反応を視覚的に知ることができる。このため、イベント観覧の臨場感をより高めることができる。 In the above computer system, the plurality of computers include a first computer and a second computer, and the computer system includes a first character corresponding to a user who operates the first computer, and the second computer. Position management means for managing the position in the virtual space of the second character corresponding to the user who operates the second character, and the second character positioned within a predetermined range with the first character as a reference, and the second computer When the operation signal corresponding to the operation input accepted by the operation signal is transmitted from the second computer to the server device by the operation signal transmitting means, the second character is controlled to perform an operation corresponding to the operation signal. And an operation control unit. According to this computer system, the second character located near the first character moves in response to the operation of the second user, so that the first user visually sees the reaction of the second user viewing the event. I can know. Therefore, it is possible to further enhance the realism of the event viewing.

また、前記仮想空間生成手段は、前記仮想空間内に、前記イベントとして実施される試合が表示される表示オブジェクトを配置してもよい。このコンピュータシステムによれば、仮想空間内のスクリーン等の表示オブジェクトを通じて試合を観戦することができるため、スポーツのテレビ観戦やEスポーツ会場での観戦を、仮想空間を通じてユーザに体験させることができる。 Further, the virtual space generation means may arrange a display object in the virtual space in which a game to be performed as the event is displayed. According to this computer system, since a game can be watched through a display object such as a screen in the virtual space, it is possible for the user to experience watching a sports TV or watching an E-sports venue through the virtual space.

また、前記仮想カメラは、前記キャラクタの左右方向に並んで配設された左側仮想カメラと右側仮想カメラを含み、前記表示装置は、前記仮想空間をユーザが立体視できるよう、前記左側仮想カメラと前記右側仮想カメラのそれぞれで撮影した前記仮想空間を、互いに視差を有する一対の仮想二次元画像として表示するヘッドマウントディスプレイであってもよい。 In addition, the virtual camera includes a left virtual camera and a right virtual camera arranged side by side in the left-right direction of the character, and the display device includes the left virtual camera and the left virtual camera so that a user can stereoscopically view the virtual space. It may be a head-mounted display that displays the virtual space captured by each of the right virtual cameras as a pair of virtual two-dimensional images having parallax with each other.

本発明によれば、仮想空間内で実施されるイベントを観覧する臨場感を高めつつ、コンピュータの処理負荷の増大を抑制することができるコンピュータシステムを提供することができる。 According to the present invention, it is possible to provide a computer system capable of suppressing an increase in the processing load of a computer while enhancing the realism of viewing an event performed in a virtual space.

本発明の実施の形態に係るコンピュータシステムの概要を説明するための模式図である。It is a schematic diagram for explaining an outline of a computer system according to an embodiment of the present invention. ユーザ側の表示装置に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display device of a user side. 一実施形態に係るコンピュータシステムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the computer system which concerns on one Embodiment. コンピュータ装置およびサーバ装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a computer apparatus and a server apparatus. サーバ装置が一定の時間内に受信した操作信号の総数の割合と出力される音の音量の関係の一例を示すグラフである。6 is a graph showing an example of the relationship between the ratio of the total number of operation signals received by the server device within a fixed time and the volume of output sound. 近傍領域を説明するための仮想空間の模式的平面図である。FIG. 3 is a schematic plan view of a virtual space for explaining a near area. 近傍情報に基づくキャラクタ動作の例を示す図である。It is a figure showing an example of a character action based on neighborhood information. イベントの観覧への参加からイベントの終了に至るコンピュータシステムの動作を示すフローチャートである。6 is a flowchart showing the operation of the computer system from participation in viewing an event to the end of the event.

(実施形態)
以下、本発明の実施の形態に係るコンピュータシステムについて、図面を参照しつつ説明する。
(Embodiment)
Hereinafter, a computer system according to an embodiment of the present invention will be described with reference to the drawings.

[システムの概要]
図1は、本発明の実施の形態に係るコンピュータシステム1の概要を説明するための模式図である。図1の下側に、本実施の形態に係るコンピュータシステム1の概略構成を示す。図1に示すように、コンピュータシステム1は、複数のユーザがそれぞれ操作入力する複数のコンピュータ装置2と、これら複数のコンピュータ装置2に通信ネットワークNWを介して接続されたサーバ装置3とを備えている。コンピュータシステム1は、複数のユーザが共有する仮想空間S内で実施される同じイベントを同時に観覧することを可能にする。
[System overview]
FIG. 1 is a schematic diagram for explaining the outline of a computer system 1 according to an embodiment of the present invention. The lower side of FIG. 1 shows a schematic configuration of a computer system 1 according to the present embodiment. As shown in FIG. 1, the computer system 1 includes a plurality of computer devices 2 that a plurality of users operate and inputs, and a server device 3 connected to the plurality of computer devices 2 via a communication network NW. There is. The computer system 1 enables a plurality of users to simultaneously view the same event performed in the virtual space S shared by them.

本実施形態では、仮想空間S内で実施される観覧対象となるイベントとして、コンピュータゲームが競技として催される大会、いわゆるEスポーツ(Electronic Sports)の大会を例示して説明する。仮想空間S内には、Eスポーツの会場が生成されている。図1の上側に、仮想空間S内の会場内の平面図が模式的に示されている。図1に示すように、仮想空間S内の会場内には、少なくとも1つの巨大スクリーンB1と、ステージB2と、観客席B3とが用意されており、ステージB2上には、大会に参加する選手を模したキャラクタQが配置される。 In this embodiment, as an event to be viewed in the virtual space S, a tournament in which a computer game is held as a competition, that is, a so-called E-sports tournament is described as an example. In the virtual space S, an E-Sports venue is created. A plan view of the inside of the venue in the virtual space S is schematically shown on the upper side of FIG. As shown in FIG. 1, at least one huge screen B1, a stage B2, and a spectator seat B3 are prepared in the venue in the virtual space S, and on the stage B2, players who participate in the competition. A character Q imitating is placed.

図2に、ユーザ側のコンピュータ装置2が有する表示部41(図3参照)に表示される画面の一例が示されている。図2に示した画面は、観客席B3に配置されたキャラクタPの視点で表示されている。図2に示すように、スクリーンB1には、大会に参加した選手がプレイするゲーム画面が映し出される。各ユーザがコンピュータ装置2からサーバ装置3にアクセスすることにより、その各ユーザに対応するキャラクタPが仮想空間S内の観客席B3に配置される。図2に示すように、表示部41には、観客席B3に配置された他のユーザに対応するキャラクタPも表示される。 FIG. 2 shows an example of a screen displayed on the display unit 41 (see FIG. 3) of the computer device 2 on the user side. The screen shown in FIG. 2 is displayed from the viewpoint of the character P placed in the spectator seat B3. As shown in FIG. 2, a game screen played by the players who participated in the tournament is displayed on the screen B1. When each user accesses the server device 3 from the computer device 2, the character P corresponding to each user is placed in the auditorium B3 in the virtual space S. As shown in FIG. 2, the display unit 41 also displays a character P corresponding to another user placed in the auditorium B3.

このように、本実施の形態に係るコンピュータシステム1では、ユーザが、対応するキャラクタPの視点で、他のユーザと共に仮想空間S内のスクリーンB1を通じて選手のゲームプレイを観戦することが可能である。また、本実施形態では、各ユーザによるコンピュータ装置2に対する操作入力に応じて、そのコンピュータ装置2が有するヘッドホン47(図3参照)から所定の音が出力される。これについて、詳細は後述する。 As described above, in the computer system 1 according to the present embodiment, the user can watch the gameplay of the player through the screen B1 in the virtual space S together with other users from the viewpoint of the corresponding character P. .. In addition, in the present embodiment, a predetermined sound is output from the headphones 47 (see FIG. 3) included in the computer device 2 in response to an operation input to the computer device 2 by each user. Details of this will be described later.

[ハードウェア構成]
図3は、コンピュータシステム1のハードウェア構成を示すブロック図である。コンピュータシステム1は、コンピュータであるコンピュータ装置2およびサーバ装置3を備えている。コンピュータ装置2は、他のコンピュータ装置2およびサーバ装置3との間で、インターネットまたはLANなどの通信ネットワークNWを介して互いに通信可能である。このコンピュータ装置2は、コンピュータ装置本体2a、HMD40(本発明の「表示装置」に相当)、光検出装置46、ヘッドホン47(本発明の「音出力装置」に相当)およびコントローラ48を有する。コンピュータ装置本体2aは、CPU10を備え、このCPU10にはバス11を介して、ディスクドライブ12、メモリカードスロット13、記憶部(プログラム記憶部)を成すHDD14およびROM15、並びにRAM16が接続されている。
[Hardware configuration]
FIG. 3 is a block diagram showing the hardware configuration of the computer system 1. The computer system 1 includes a computer device 2 and a server device 3, which are computers. The computer device 2 can communicate with another computer device 2 and the server device 3 via the communication network NW such as the Internet or LAN. The computer device 2 has a computer device main body 2a, an HMD 40 (corresponding to the "display device" of the present invention), a photodetecting device 46, headphones 47 (corresponding to the "sound output device" of the present invention), and a controller 48. The computer main body 2a includes a CPU 10, to which a disk drive 12, a memory card slot 13, a HDD 14 and a ROM 15 that form a storage unit (program storage unit), and a RAM 16 are connected to the CPU 10 via a bus 11.

ディスクドライブ12には、DVD−ROM等のディスク型記録媒体30が装填可能である。このディスク型記録媒体30には、プログラム30aおよびデータ30bが記録されている。このデータ30bには、仮想空間の形成に必要なデータ、および、再生されるサウンドデータなど、各種のデータが含まれる。また、メモリカードスロット13にはカード型記録媒体31が装填可能である。 A disk type recording medium 30 such as a DVD-ROM can be loaded in the disk drive 12. A program 30a and data 30b are recorded on the disc-type recording medium 30. The data 30b includes various data such as data necessary for forming a virtual space and sound data to be reproduced. A card type recording medium 31 can be loaded in the memory card slot 13.

HDD14はコンピュータ装置本体2aが内蔵する大容量記録媒体であって、ディスク型記録媒体30から読み込んだプログラム30aおよびデータ30b等を記録する。ROM15は、マスクROMまたはPROMなどの半導体メモリであり、コンピュータ装置2を起動する起動プログラムや、ディスク型記録媒体30が装填されたときの動作を制御するプログラムなどを記録している。RAM16は、DRAMまたはSRAMなどから成り、CPU10が実行すべきプログラム30aや、その実行の際に必要になるデータ30bなどを、ディスク型記録媒体30またはHDD14から読み込んで一時的に記録する。 The HDD 14 is a large-capacity recording medium built in the computer main body 2a, and records the program 30a and data 30b read from the disc-type recording medium 30. The ROM 15 is a semiconductor memory such as a mask ROM or PROM, and stores a boot program for booting the computer device 2, a program for controlling the operation when the disc-type recording medium 30 is loaded, and the like. The RAM 16 is composed of DRAM, SRAM, or the like, and reads the program 30a to be executed by the CPU 10 and the data 30b required at the time of execution from the disk-type recording medium 30 or the HDD 14 and temporarily records it.

また、CPU10には更に、バス11を介して、HMD用インタフェース17、光検出装置用インタフェース18、グラフィック処理部19、オーディオ合成部20、オーディオインタフェース21、無線通信制御部22、およびネットワークインタフェース23が接続されている。そして、HMD用インタフェース17、光検出装置用インタフェース18およびオーディオインタフェース21には、それぞれ、HMD40、光検出装置46およびヘッドホン47がそれぞれ接続されている。 Further, the CPU 10 is further provided with an HMD interface 17, a photodetector interface 18, a graphic processor 19, an audio synthesizer 20, an audio interface 21, a wireless communication controller 22, and a network interface 23 via the bus 11. It is connected. The HMD 40, the photodetecting device 46, and the headphones 47 are connected to the HMD interface 17, the photodetecting device interface 18, and the audio interface 21, respectively.

HMD40は、ユーザの頭部に装着可能である。HMD40は、一対の表示部41(41a,41b)、加速度センサ42、ジャイロセンサ43、光放出部44および制御部45を備える。HMD40がユーザの頭部に装着されることにより、ユーザの左目と右目の前方には、左目用の表示部41aと右目用の表示部41bとがそれぞれ配置される。 The HMD 40 can be mounted on the user's head. The HMD 40 includes a pair of display units 41 (41a, 41b), an acceleration sensor 42, a gyro sensor 43, a light emitting unit 44, and a control unit 45. By mounting the HMD 40 on the user's head, a left-eye display unit 41a and a right-eye display unit 41b are arranged in front of the user's left and right eyes, respectively.

加速度センサ42およびジャイロセンサ43は、ユーザの頭部のモーションを検出するモーション検出システムを構成する。加速度センサ42は、例えば重力方向に対するHMD40の向き、即ちユーザの頭部の傾きを検出する。ジャイロセンサ43は、例えばHMD40の角速度、即ちユーザが頭部を傾けたり回転したりする速さを検出する。加速度センサ42およびジャイロセンサ43から得られたモーション情報は、HMD用インタフェース17を介して、グラフィック処理部19およびオーディオ合成部20に送られる。 The acceleration sensor 42 and the gyro sensor 43 form a motion detection system that detects motion of the user's head. The acceleration sensor 42 detects, for example, the direction of the HMD 40 with respect to the direction of gravity, that is, the inclination of the user's head. The gyro sensor 43 detects, for example, the angular velocity of the HMD 40, that is, the speed at which the user tilts or rotates the head. The motion information obtained from the acceleration sensor 42 and the gyro sensor 43 is sent to the graphic processing unit 19 and the audio synthesis unit 20 via the HMD interface 17.

HMD40の光放出部44は、光検出装置46と共に、ユーザの頭部の位置を検出する位置検出システムを構成する。本実施形態では、光放出部44は、例えば互いに離間してHMD40に設けられた複数のLEDライトである。光検出装置46は、例えばユーザの前方に固定的に配置され、HMD40の光放出部44から放たれる光の位置を検出する。光検出装置46は、光放出部44から放たれる光の位置を検出することにより、光検出装置46に対するユーザの頭部の位置情報を取得する。この位置情報は、例えば上述のモーション情報を補正するために用いられる。光検出装置46から得られた位置情報は、光検出装置用インタフェース18を介して、グラフィック処理部19およびオーディオ合成部20に送られる。 The light emitting unit 44 of the HMD 40, together with the light detection device 46, constitutes a position detection system that detects the position of the user's head. In the present embodiment, the light emitting unit 44 is, for example, a plurality of LED lights provided on the HMD 40 so as to be separated from each other. The light detection device 46 is fixedly arranged in front of the user, for example, and detects the position of the light emitted from the light emission unit 44 of the HMD 40. The photodetector device 46 acquires the position information of the user's head with respect to the photodetector device 46 by detecting the position of the light emitted from the light emitting portion 44. This position information is used, for example, to correct the motion information described above. The position information obtained from the photodetector 46 is sent to the graphic processor 19 and the audio synthesizer 20 via the photodetector interface 18.

なお、ユーザの頭部の位置を検出する位置検出システムは、これに限定されない。例えば、HMD40側に光センサを設けて、ユーザの周りに配置された光放出装置から放たれた光を、この光センサで検出することにより、ユーザの頭部の位置を検出してもよい。 The position detection system that detects the position of the user's head is not limited to this. For example, an optical sensor may be provided on the HMD 40 side, and the light emitted from a light emitting device arranged around the user may be detected by this optical sensor to detect the position of the user's head.

制御部45は、加速度センサ42およびジャイロセンサ43からコンピュータ装置本体2aへのデータの送信や光放出部44への信号の送信など、HMD40が有する各種機器の制御を行う。 The control unit 45 controls various devices included in the HMD 40, such as data transmission from the acceleration sensor 42 and the gyro sensor 43 to the computer apparatus body 2a and signal transmission to the light emitting unit 44.

グラフィック処理部19は、CPU10の指示に従って三次元の仮想空間等を含む画像を描画する。例えば、グラフィック処理部19は、ユーザが三次元の仮想空間を立体視できるよう、互いに視差を有する一対の仮想二次元画像を生成する。即ち、グラフィック処理部19は、仮想三次元空間に配置された一対の仮想カメラのそれぞれで撮影した互いに視差を有する左目用および右目用の仮想二次元画像を生成する。そして、この一対の仮想二次元画像は、動画形式に変換されて、HMD用インタフェース17を介してHMD40に送られ、一対の表示部41a,41bにそれぞれ表示される。また、グラフィック処理部19は、ユーザに仮想空間内に入り込んだような臨場感を与えるよう、上述したモーション情報および位置情報に合わせて、仮想カメラの向き等を変化させる。 The graphic processing unit 19 draws an image including a three-dimensional virtual space according to an instruction from the CPU 10. For example, the graphic processing unit 19 generates a pair of virtual two-dimensional images having parallax with each other so that the user can stereoscopically view the three-dimensional virtual space. That is, the graphic processing unit 19 generates virtual two-dimensional images for the left eye and the right eye that have parallax with each other and are captured by each of a pair of virtual cameras arranged in the virtual three-dimensional space. Then, the pair of virtual two-dimensional images are converted into a moving image format, sent to the HMD 40 via the HMD interface 17, and displayed on the pair of display units 41a and 41b. Further, the graphic processing unit 19 changes the orientation of the virtual camera and the like in accordance with the above-described motion information and position information so as to give the user a sense of realism as if he or she entered the virtual space.

オーディオ合成部20は、CPU10の指示に従って、データ30bに含まれるデジタル形式のサウンドデータを再生および合成する。オーディオ合成部20にて再生および合成されたサウンドデータは、アナログ形式にデコードされたあと、オーディオインタフェース21を介してヘッドホン47に送られ出力される。その結果、ユーザは、再生されたサウンドを聴取することができる。ヘッドホン47は、HMD40と一体的に構成されてもよい。また、オーディオ合成部20は、ユーザに仮想空間内に入り込んだような臨場感を与えるよう、HMD40および光検出装置46から送られたモーション情報および位置情報に合わせて、リアルタイムでヘッドホン47から出力される音響を変化させてもよい。 The audio synthesizer 20 reproduces and synthesizes digital-format sound data included in the data 30b according to an instruction from the CPU 10. The sound data reproduced and synthesized by the audio synthesizing unit 20 is decoded into an analog format, and then sent to the headphones 47 via the audio interface 21 and output. As a result, the user can hear the reproduced sound. The headphones 47 may be configured integrally with the HMD 40. Further, the audio synthesis unit 20 outputs the sound from the headphones 47 in real time in accordance with the motion information and the position information sent from the HMD 40 and the photodetection device 46 so as to give the user a sense of presence as if he/she entered the virtual space. You may change the sound.

無線通信制御部22は、2.4GHz帯の無線通信モジュールを有し、コントローラ48との間で無線により接続され、データの送受信が可能となっている。ユーザは、このコントローラ48に設けられたボタン等の操作部を操作することにより、コンピュータ装置2へ信号を入力することができる。 The wireless communication control unit 22 has a 2.4 GHz band wireless communication module, is wirelessly connected to the controller 48, and is capable of transmitting and receiving data. The user can input a signal to the computer device 2 by operating an operation unit such as a button provided on the controller 48.

ネットワークインタフェース23は、インターネットまたはLANなどの通信ネットワークNWに対してコンピュータ装置2を接続するものであり、他のコンピュータ装置2またはサーバ装置3との間で通信可能である。 The network interface 23 connects the computer device 2 to a communication network NW such as the Internet or LAN, and can communicate with another computer device 2 or the server device 3.

一方、サーバ装置3は、その動作を制御する高性能のCPU50を備え、このCPU50には高速バス51を介してHDD52、ROM53、RAM54、およびネットワークインタフェース55が接続されている。 On the other hand, the server device 3 includes a high-performance CPU 50 that controls the operation of the server device 3, and the CPU 50 is connected to a HDD 52, a ROM 53, a RAM 54, and a network interface 55 via a high-speed bus 51.

HDD52は、サーバ装置3が内蔵する大容量記録媒体であって、上述したコンピュータ装置2が備えるものとは異なるプログラム52aおよびデータ52bなどを記録する。ROM53は、マスクROMまたはPROMなどの半導体メモリであり、サーバ装置3と他のコンピュータ装置2との間の通信を制御するプログラムなど、サーバ装置3の基本的な動作を実現するための基本プログラムが記録されている。また、RAM54は、DRAMまたはSRAMなどから成り、CPU50が実行するべきプログラム52aや、その実行の際に必要になるデータ52bなどをHDD52等から読み込んで一次的に記憶する。 The HDD 52 is a large-capacity recording medium built in the server device 3 and records programs 52a and data 52b different from those included in the computer device 2 described above. The ROM 53 is a semiconductor memory such as a mask ROM or a PROM, and has a basic program for realizing a basic operation of the server device 3 such as a program for controlling communication between the server device 3 and another computer device 2. It is recorded. The RAM 54 is composed of DRAM or SRAM, and reads the program 52a to be executed by the CPU 50 and the data 52b necessary for the execution from the HDD 52 or the like and temporarily stores it.

ネットワークインタフェース55は、インターネットやLANなどの通信ネットワークNWに対してサーバ装置3を接続するものであり、コンピュータ装置2との間でクライアント・サーバ方式による通信が可能である。 The network interface 55 connects the server device 3 to a communication network NW such as the Internet or a LAN, and can communicate with the computer device 2 in a client-server system.

[コンピュータ装置およびサーバ装置の機能的構成]
図4は、コンピュータシステム1が備えるコンピュータ装置2およびサーバ装置3の機能的な構成を示すブロック図である。
[Functional configuration of computer device and server device]
FIG. 4 is a block diagram showing the functional configurations of the computer device 2 and the server device 3 included in the computer system 1.

まずサーバ装置3の機能的な構成について説明する。サーバ装置3は、所定のプログラム52aを実行することにより、通信手段61、位置管理手段62、イベント情報送信手段63、カウント手段64、判定手段65、および近傍情報送信手段66として機能する。なお、このような各機能は、ハード的には図3に示すCPU50,HDD52,ROM53,RAM54等から構成されている。 First, the functional configuration of the server device 3 will be described. The server device 3 functions as the communication unit 61, the position management unit 62, the event information transmission unit 63, the counting unit 64, the determination unit 65, and the proximity information transmission unit 66 by executing the predetermined program 52a. It should be noted that each of these functions is configured by a CPU 50, an HDD 52, a ROM 53, a RAM 54, and the like shown in FIG.

通信手段61は、通信ネットワークNWを介して複数のコンピュータ装置2のそれぞれとの間で通信する。 The communication means 61 communicates with each of the plurality of computer devices 2 via the communication network NW.

位置管理手段62は、観客としてイベントに参加する複数のユーザのそれぞれに対応するキャラクタPの位置を管理する。本実施形態では、ユーザがコンピュータ装置2からサーバ装置3にアクセスして、仮想空間S内で実施されるイベントの観客として参加する際、ユーザは、コンピュータ装置2にて、観客席B3の空席の中から、そのユーザに対応するキャラクタPを配置する席を選択することが可能である。ユーザから席の選択があった場合に、位置管理手段62は、ユーザ情報とそのユーザに対応するキャラクタPの席情報とを関連付けて記憶する。これにより、選択した席は、その席を選択したユーザに割り当てられる。 The position management means 62 manages the position of the character P corresponding to each of the plurality of users who participate in the event as spectators. In the present embodiment, when the user accesses the server device 3 from the computer device 2 and participates as a spectator of an event performed in the virtual space S, the user uses the vacant seat of the spectator seat B3 on the computer device 2. From the inside, it is possible to select a seat in which the character P corresponding to the user is arranged. When the seat is selected by the user, the position management unit 62 stores the user information and the seat information of the character P corresponding to the user in association with each other. As a result, the selected seat is assigned to the user who has selected the seat.

イベント情報送信手段63は、仮想空間S内で実施されるイベントに関する各種情報(以下、「イベント情報」ともいう)をコンピュータ装置2に適時送信する。コンピュータ装置2に送られるイベント情報には、例えば、他のコンピュータ装置2に対し操作入力する他のユーザに対応するキャラクタPの席情報、イベントの進行に必要な情報、仮想空間Sに配置するオブジェクトや上述のキャラクタQなどのノンプレイヤキャラクタに関する情報、イベントの演出や仮想空間内の装飾に関する情報などが含まれる。 The event information transmitting means 63 transmits various kinds of information (hereinafter, also referred to as “event information”) regarding an event executed in the virtual space S to the computer device 2 in a timely manner. The event information sent to the computer device 2 includes, for example, seat information of the character P corresponding to another user who inputs an operation to the other computer device 2, information necessary for the progress of the event, and objects arranged in the virtual space S. And information on non-player characters such as the above-mentioned character Q, information on event production and decoration in the virtual space, and the like.

また、本実施形態では、イベント情報送信手段63は、イベント情報として、各ユーザのコンピュータ装置2に、仮想空間S内のスクリーンB1に映し出すための観覧用映像(即ち、Eスポーツに参加した選手がプレイするゲームプレイ画面の映像)の情報を送信する。なお、この観覧用映像の情報には、例えば、ゲームプレイ画面などの動画データが含まれてもよいし、あるいは、コンピュータ装置2側でゲームプレイ画面を生成するための、Eスポーツに参加した選手の操作情報が含まれてもよい。コンピュータ装置2に送られる観覧用映像は、複数あってもよい。この場合、観覧用映像には、選手がプレイするゲーム画面の映像の他、選手の顔を映し出す動画、選手の目線を映し出す動画、選手のコントローラ48に対する操作を映し出す動画などが含まれてもよい。 In addition, in the present embodiment, the event information transmission means 63 causes the computer device 2 of each user to display, as event information, a video for viewing (that is, a player who participates in E-sports) on the screen B1 in the virtual space S. Send the information of the video of the game play screen to play). It should be noted that the information of the viewing video may include, for example, moving image data such as a game play screen, or a player who has participated in E-sports to generate a game play screen on the computer device 2 side. Operation information may be included. There may be a plurality of viewing videos sent to the computer device 2. In this case, the viewing video may include, in addition to the video of the game screen played by the player, a video showing the player's face, a video showing the player's eyes, a video showing the player's operation on the controller 48, and the like. ..

カウント手段64は、サーバ装置3が複数のコンピュータ装置2から一定の時間(例えば1秒間)内に受信した後述の操作信号の総数をカウントする。なお、後述するように、本実施形態では、操作信号は、種類の異なる第1操作信号および第2操作信号を含み、カウント手段64は、操作信号の種類に応じて区別して総数をカウントする。 The counting means 64 counts the total number of operation signals, which will be described later, received by the server device 3 from the plurality of computer devices 2 within a fixed time (for example, one second). As will be described later, in the present embodiment, the operation signal includes the first operation signal and the second operation signal of different types, and the counting means 64 counts the total number by distinguishing according to the type of the operation signal.

判定手段65は、イベントの観客数に対するカウント手段64によりカウントされた操作信号の総数の割合Xが、閾値に達したか否かを判定する。カウント手段64により、受信した操作信号の総数が、一定の時間間隔で取得されるため、判定手段65は、割合Xが閾値に達したか否かを一定の時間間隔で判定する。イベントの観客数は、イベントを観覧するためにサーバ装置3と通信するコンピュータ装置2の数であり、言い換えれば、位置管理手段62により位置を管理されたキャラクタPに対応するユーザの数である。判定手段65による判定結果は、コンピュータ装置2側の後述する第1音出力手段75により用いられる。 The determination means 65 determines whether or not the ratio X of the total number of operation signals counted by the counting means 64 to the number of spectators at the event has reached the threshold value. Since the counting means 64 obtains the total number of received operation signals at a constant time interval, the determining means 65 determines at a constant time interval whether or not the ratio X has reached the threshold value. The number of spectators at the event is the number of computer devices 2 that communicate with the server device 3 to view the event, in other words, the number of users corresponding to the character P whose position is managed by the position management means 62. The determination result by the determination means 65 is used by the first sound output means 75, which will be described later, on the computer device 2 side.

近傍情報送信手段66は、各コンピュータ装置2に、そのコンピュータ装置2に対応するキャラクタPの近傍に位置するキャラクタPに対応する他のユーザから操作信号を受信したことを示す情報(以下、「近傍情報」ともいう)を送信する。近傍情報送信手段66については、後述する第2音出力手段76および動作制御手段77と共に説明する。 The proximity information transmitting means 66 indicates to each computer device 2 that information indicating that an operation signal has been received from another user corresponding to the character P located in the vicinity of the character P corresponding to the computer device 2 (hereinafter, "nearby"). (Also referred to as "information"). The proximity information transmission means 66 will be described together with the second sound output means 76 and the operation control means 77 described later.

次に、コンピュータ装置2の機能的な構成について説明する。コンピュータ装置2は、所定のプログラム30aを実行することにより、通信手段71、仮想空間生成手段72、画像生成部73、操作信号送信手段74、第1音出力手段75、第2音出力手段76、および動作制御手段77として機能する。なお、このような各機能は、ハード的には図3に示すCPU10,HDD14,ROM15,RAM16,グラフィック処理部19,オーディオ合成部20,無線通信制御部22等から構成されている。 Next, the functional configuration of the computer device 2 will be described. The computer device 2 executes the predetermined program 30a to thereby perform communication means 71, virtual space generation means 72, image generation unit 73, operation signal transmission means 74, first sound output means 75, second sound output means 76, And functions as the operation control unit 77. It should be noted that each of these functions is composed of a CPU 10, an HDD 14, a ROM 15, a RAM 16, a graphic processing unit 19, an audio synthesizing unit 20, a wireless communication control unit 22 and the like shown in FIG. 3 in terms of hardware.

通信手段71は、通信ネットワークNWを介してサーバ装置3との間で通信する。 The communication means 71 communicates with the server device 3 via the communication network NW.

仮想空間生成手段72は、観覧対象であるイベントが実施される三次元の仮想空間Sを生成する。本実施形態では、上述したように観覧対象であるイベントは、Eスポーツの大会であり、生成される仮想空間S内に、巨大スクリーンB1と、ステージB2と、観客席B3とが含まれる。仮想空間S内のスクリーンB1には、イベント情報送信手段63によりから送られた観覧用映像(即ち、Eスポーツに参加した選手がプレイするゲーム画面の映像)が映し出される。 The virtual space generation means 72 generates a three-dimensional virtual space S in which an event to be viewed is performed. In the present embodiment, as described above, the event to be viewed is an E-sports competition, and the generated virtual space S includes the huge screen B1, the stage B2, and the spectator seat B3. On the screen B1 in the virtual space S, the viewing video (that is, the video of the game screen played by the player who participated in the E-sports) sent from the event information sending means 63 is displayed.

ステージB2には、選手を模したキャラクタQが配置される。また、観客席B3には、ユーザに対応するキャラクタPが配置されると共に、他のユーザに対応するキャラクタPも配置される。なお、ユーザが操作入力するコンピュータ装置2に対応するキャラクタPは、そのユーザの操作入力に応じて動作するプレイヤキャラクタである。それ以外の仮想空間S内のキャラクタ(他のユーザに対応するキャラクタPやステージ上の選手キャラクタQ)は、CPU10によって動作が制御されるノンプレイヤキャラクタである。他のユーザに対応するキャラクタPは、上述したイベント情報送信手段63により送られる他のユーザに対応するキャラクタPの席情報に基づき配置される。 A character Q imitating a player is arranged on the stage B2. Further, in the spectator seat B3, a character P corresponding to the user is arranged and also a character P corresponding to another user is arranged. The character P corresponding to the computer device 2 operated and inputted by the user is a player character that operates in response to the operation input by the user. Other characters in the virtual space S (the character P corresponding to another user and the player character Q on the stage) are non-player characters whose movements are controlled by the CPU 10. The character P corresponding to the other user is arranged based on the seat information of the character P corresponding to the other user, which is sent by the event information transmitting means 63 described above.

画像生成部73は、HMD40に表示するための二次元画像を生成する。具体的には、ユーザに対応するキャラクタPが配置された位置(席)に、一対の仮想カメラがそのキャラクタPの左右方向に並んで配設されている。画像生成部73は、これら一対の仮想カメラで撮影した画像を、一対の表示部41a,41bにそれぞれ表示するための仮想二次元画像として生成する。なお、一対の仮想カメラの位置や向き等は、上述した加速度センサ42およびジャイロセンサ43から得られたモーション情報や光検出装置46から得られた位置情報に基づき変更される。 The image generator 73 generates a two-dimensional image to be displayed on the HMD 40. Specifically, at the position (seat) where the character P corresponding to the user is arranged, a pair of virtual cameras are arranged side by side in the left-right direction of the character P. The image generation unit 73 generates images captured by the pair of virtual cameras as virtual two-dimensional images to be displayed on the pair of display units 41a and 41b. The positions and orientations of the pair of virtual cameras are changed based on the motion information obtained from the acceleration sensor 42 and the gyro sensor 43 and the position information obtained from the photodetector 46.

操作信号送信手段74は、HMD40を介してイベントを観覧するユーザからコントローラ48が所定の操作を受け付けたときに、その操作に対応する操作信号をサーバ装置3へ送信する。具体的には、本実施形態では、ユーザが行うコントローラ48の操作として、イベントを観覧することで抱いた感情を表現するための2種類の操作(第1操作および第2操作)が用意されている。 When the controller 48 receives a predetermined operation from the user viewing the event via the HMD 40, the operation signal transmitting unit 74 transmits an operation signal corresponding to the operation to the server device 3. Specifically, in the present embodiment, as the operation of the controller 48 performed by the user, two kinds of operations (first operation and second operation) for expressing the emotion held by viewing the event are prepared. There is.

例えば観覧する対戦に素晴らしいプレイが出たときや、応援している選手が勝利したときなど、イベントを観覧することでユーザが嬉しさや喜びなど正の感情を抱いたときには、ユーザは、コントローラ48に対して第1操作を行う(例えばコントローラ48に設けられた第1ボタンを押す)。また、応援している選手が負けたときなど、イベントを観覧することでユーザが不満や悲しさなど負の感情を抱いたときには、ユーザは、コントローラ48に対して第2操作を行う(例えばコントローラ48に設けられた第2ボタンを押す)。 For example, when the user has a positive emotion such as joy or joy by watching the event, for example, when a great match is played in the viewing match, the player who is cheering wins, etc. On the other hand, the first operation is performed (for example, the first button provided on the controller 48 is pressed). In addition, when the user feels negative emotions such as dissatisfaction or sadness by viewing the event, such as when the supporting player loses, the user performs the second operation on the controller 48 (for example, the controller). Press the second button on the 48).

このように、操作信号送信手段74は、コントローラ48に対して第1操作が行われたときに、第1操作に対応した第1操作信号を、サーバ装置3に送信し、コントローラ48に対して第2操作が行われたときに、第2操作に対応した第2操作信号を、サーバ装置3に送信する。上述したように、各コンピュータ装置2からサーバ装置3に送信された第1操作信号および第2操作信号は、カウント手段64で区別してカウントされる。 As described above, the operation signal transmitting unit 74 transmits the first operation signal corresponding to the first operation to the server device 3 when the first operation is performed on the controller 48, and the controller 48 transmits the first operation signal to the controller 48. When the second operation is performed, the second operation signal corresponding to the second operation is transmitted to the server device 3. As described above, the counting means 64 distinguishably counts the first operation signal and the second operation signal transmitted from each computer device 2 to the server device 3.

第1音出力手段75は、イベントを観覧する一定以上の割合のユーザが同じ感情を抱いたことを示す音を出力するためのものである。第1音出力手段75は、上述した判定手段65により割合Xが閾値に達したと判定された場合に、ヘッドホン47から操作信号に対応した第1音を出力する。 The first sound output means 75 is for outputting a sound indicating that a certain percentage or more of users viewing an event have the same emotion. The first sound output means 75 outputs the first sound corresponding to the operation signal from the headphones 47 when the determination means 65 determines that the ratio X has reached the threshold value.

第1音を出力するためのサウンドデータは、例えばディスク型記録媒体30のデータ30bに含まれている。第1操作信号に対応した第1音は、ユーザが正の感情を抱いたときの第1操作に対応して、例えば会場に響く「ワァー」という多数の人による歓声または多数の拍手音などである。第2操作信号に対応した第1音は、ユーザが負の感情を抱いたときの第2操作に対応して、例えば落胆を表現して多数の人が「あぁ」と発する声または多数の人が行う「ブー」と発するブーイングなどである。各操作信号に対応する第1音は、会場全体から聞こえるように、例えばユーザに対応するキャラクタPの全方位から到来する音として出力される。 The sound data for outputting the first sound is included in the data 30b of the disc-type recording medium 30, for example. The first sound corresponding to the first operation signal corresponds to the first operation when the user has a positive emotion, and is, for example, a cheering sound by a large number of people called “Waah” or a large number of applause sounds that echo in the hall. is there. The first sound corresponding to the second operation signal corresponds to the second operation when the user has a negative emotion, for example, a voice or a large number of people who say "Aa" by expressing a disappointment. "Boo" performed by and boos emitted. The first sound corresponding to each operation signal is output, for example, as a sound coming from all directions of the character P corresponding to the user so as to be heard from the entire hall.

また、第1音出力手段75は、割合Xが閾値に達した場合に、割合Xが大きくなるにつれて第1音の音量が段階的に大きくなるように、割合Xに応じて出力する音の音量を決定する。図5は、サーバ装置3が一定の時間内に受信した操作信号の総数の割合Xとヘッドホン47から出力される音の音量Vの関係の一例を示す。図5に示す例では、判定手段65の判定に用いられる閾値が20%に設定されており、割合Xが20%より低い場合に音量Vがゼロであることを示す。図5に示すように、割合Xが閾値である20%以上である場合、割合Xが大きくなるにつれて、音量は段階的に大きくなる。なお、第1音出力手段75は、音量を段階的に増大しなくてもよく、例えば音量を連続的に徐々に増大してもよい。 Further, when the ratio X reaches the threshold value, the first sound output means 75 outputs the sound volume according to the ratio X such that the volume of the first sound gradually increases as the ratio X increases. To decide. FIG. 5 shows an example of the relationship between the ratio X of the total number of operation signals received by the server device 3 within a fixed time and the volume V of the sound output from the headphones 47. In the example shown in FIG. 5, the threshold value used for the determination by the determination means 65 is set to 20%, and when the ratio X is lower than 20%, the volume V is zero. As shown in FIG. 5, when the ratio X is 20% or more, which is the threshold value, the volume increases stepwise as the ratio X increases. The first sound output means 75 does not have to increase the volume stepwise, and may increase the volume continuously and gradually, for example.

第2音出力手段76は、そのコンピュータ装置2に対応するキャラクタの近傍にいる他のユーザのキャラクタから出される音を出力するためのものである。第2音出力手段76は、上述したサーバ装置3の近傍情報送信手段66から近傍情報を受信した場合に、近傍情報に対応した第2音をコンピュータ装置2のヘッドホン47から出力する。 The second sound output means 76 is for outputting a sound produced by a character of another user in the vicinity of the character corresponding to the computer device 2. The second sound output means 76 outputs the second sound corresponding to the proximity information from the headphones 47 of the computer device 2 when the proximity information is received from the proximity information transmission means 66 of the server device 3 described above.

第2音を出力するためのサウンドデータは、例えばディスク型記録媒体30のデータ30bに含まれている。第1操作信号に対応した第2音は、ユーザが正の感情を抱いたときの第1操作に対応して、他のユーザのキャラクタPが、例えば「ワァー」という歓喜する声または拍手する音などである。第2操作信号に対応した第2音は、ユーザが負の感情を抱いたときの第2操作に対応して、例えば落胆を表現して「あぁ」と発する声または「ブー」というブーイングなどである。各操作信号に対応する第2音は、操作信号を送った他のユーザに対応するキャラクタPから到来する音として出力される。 The sound data for outputting the second sound is included in the data 30b of the disc-type recording medium 30, for example. The second sound corresponding to the first operation signal corresponds to the first operation when the user has a positive emotion, and the character P of another user, for example, a joyous voice or a clapping sound such as "wa". And so on. The second sound corresponding to the second operation signal corresponds to the second operation when the user has a negative emotion, for example, a voice expressing "disappointment" and uttering "Aa" or a boo boo. is there. The second sound corresponding to each operation signal is output as a sound coming from the character P corresponding to another user who has sent the operation signal.

図6を参照しながら、あるユーザ(第1ユーザ)のコンピュータ装置(第1コンピュータ装置)2のヘッドホン47に第2音が出力される場合を説明する。図6は、仮想空間Sの模式的平面図であり、第1ユーザに対応するキャラクタP(第1キャラクタP1)と、第1キャラクタP1を基準とする所定の近傍領域Dが示されている。本実施形態では、近傍領域Dは、第1キャラクタP1が配置される観客席B3の各席に対して予め設定されている。例えば図例では、第1キャラクタP1が配置された席から前後方向と左右方向の双方に関して予め設定された列の数(例えば2列)以内に収まる範囲が、近傍領域Dとして設定されている。 A case in which the second sound is output to the headphones 47 of the computer device (first computer device) 2 of a certain user (first user) will be described with reference to FIG. FIG. 6 is a schematic plan view of the virtual space S, and shows a character P (first character P1) corresponding to the first user and a predetermined neighborhood area D based on the first character P1. In the present embodiment, the neighborhood area D is preset for each seat of the spectator seat B3 in which the first character P1 is arranged. For example, in the illustrated example, a range within the number of rows (for example, two rows) set in advance in both the front-rear direction and the left-right direction from the seat in which the first character P1 is arranged is set as the neighboring area D.

サーバ装置3の近傍情報送信手段66は、第1ユーザに対応する第1キャラクタP1が配置された席の近傍領域Dに位置するキャラクタP(第2キャラクタP2)と、それを操作するコンピュータ装置(第2コンピュータ装置)2を特定する。そして、近傍情報送信手段66は、第2コンピュータ装置2からサーバ装置3が操作信号を受信した場合に、そのことを示す近傍情報を第1コンピュータ装置2に送信する。 The proximity information transmitting means 66 of the server device 3 includes a character P (second character P2) located in the vicinity region D of the seat where the first character P1 corresponding to the first user is disposed, and a computer device (the second character P2) for operating the character P (second character P2). The second computer device) 2 is specified. Then, when the server device 3 receives the operation signal from the second computer device 2, the proximity information transmitting means 66 transmits the proximity information indicating this to the first computer device 2.

近傍情報には、第2ユーザの第2コンピュータ装置2から送られた操作信号の種類情報、および第2キャラクタP2の位置(例えば席)に関する情報が含まれる。第2音出力手段76は、近傍情報送信手段66から近傍情報を受信した場合に、近傍情報に対応した第2音をコンピュータ装置2のヘッドホン47から出力する。第2音は、第2キャラクタP2から第1キャラクタP1に到来する音として出力される。 The proximity information includes the type information of the operation signal sent from the second computer device 2 of the second user and the information on the position (for example, seat) of the second character P2. The second sound output means 76 outputs the second sound corresponding to the proximity information from the headphones 47 of the computer device 2 when the proximity information is received from the proximity information transmission means 66. The second sound is output as a sound coming from the second character P2 to the first character P1.

また、動作制御手段77は、近傍情報送信手段66から近傍情報を受信した場合に、近傍情報に対応した動作を行うよう第2キャラクタP2を制御する。より詳しくは、動作制御手段77は、近傍情報送信手段66から近傍情報を受信した場合に、近傍情報に含まれる操作信号の種類情報に対応した動作を行うよう第2キャラクタP2を制御する。 In addition, when the motion control means 77 receives the proximity information from the proximity information transmission means 66, it controls the second character P2 to perform a motion corresponding to the proximity information. More specifically, when the motion control means 77 receives the proximity information from the proximity information transmission means 66, the motion control means 77 controls the second character P2 to perform a motion corresponding to the type information of the operation signal included in the proximity information.

図7(A)は、第1操作信号に対応した第2キャラクタP2の動作である。第1操作信号に対応した第2キャラクタP2の動作は、第2キャラクタP2が歓喜する様子を示している。図7(B)は、第2操作信号に対応した第2キャラクタP2の動作である。第2操作信号に対応した第2キャラクタP2の動作は、第2キャラクタP2が落胆する様子を示している。このように、動作制御手段77は、視界に入りやすい他のユーザのキャラクタ(即ち、上述の第2キャラクタP2)の動作に、他のユーザからの操作信号を反映させる。 FIG. 7A shows the movement of the second character P2 corresponding to the first operation signal. The motion of the second character P2 corresponding to the first operation signal shows how the second character P2 rejoices. FIG. 7B shows the motion of the second character P2 corresponding to the second operation signal. The motion of the second character P2 corresponding to the second operation signal shows how the second character P2 is discouraged. In this way, the motion control means 77 reflects the operation signal from the other user in the motion of the character of the other user (that is, the above-mentioned second character P2) that easily enters the field of view.

[コンピュータシステムの処理フロー]
次に、上述したコンピュータシステム1において実行される各動作の流れについて説明する。図8は、コンピュータ装置2からサーバ装置3にアクセスしてイベントへの観覧に参加してから、そのイベントが終了するまでの、コンピュータシステムの動作を概略的に示すフローチャートである。
[Processing flow of computer system]
Next, a flow of each operation executed in the computer system 1 described above will be described. FIG. 8 is a flowchart schematically showing the operation of the computer system from the time when the computer apparatus 2 accesses the server apparatus 3 to participate in the viewing of the event until the event ends.

図8に示すように、ユーザが、コンピュータ装置2からサーバ装置3にアクセスして、イベントを観覧する席を選択することにより、席選択情報がコンピュータ装置2からサーバ装置3に送信される(ステップS101)。 As shown in FIG. 8, when the user accesses the server device 3 from the computer device 2 and selects a seat for viewing the event, seat selection information is transmitted from the computer device 2 to the server device 3 (step S101).

サーバ装置3が席選択情報を受信すると、位置管理手段62は、ユーザ情報と席情報とを関連付けて記憶し(ステップS201)、イベント情報送信手段63は、他のユーザの席情報などを含むイベント情報を、コンピュータ装置2に送信する(ステップS202)。 When the server device 3 receives the seat selection information, the position management unit 62 stores the user information and the seat information in association with each other (step S201), and the event information transmission unit 63 stores the event including the seat information of other users. The information is transmitted to the computer device 2 (step S202).

コンピュータ装置2がイベント情報を受信すると、仮想空間生成手段72は、イベント情報に含まれる席情報(他のユーザの席情報を含む)に基づき、観客席にキャラクタを配置し、画像生成部73は、仮想空間Sを撮影する画像を生成する(ステップS102)。こうして、コンピュータ装置2の表示部41には、選択した席から見た仮想空間Sを示す画像が表示される。 When the computer device 2 receives the event information, the virtual space generation means 72 arranges the character in the audience seat based on the seat information (including the seat information of another user) included in the event information, and the image generation unit 73 , Generate an image of the virtual space S (step S102). Thus, the image showing the virtual space S viewed from the selected seat is displayed on the display unit 41 of the computer device 2.

開始時間になり、イベントが開始されると(ステップS203)、イベント情報送信手段63は、各ユーザのコンピュータ装置2に、仮想空間S内のスクリーンB1に映し出すための観覧用映像の情報を送る。なお、イベント情報送信手段63は、イベント開始前から、スクリーンB1に映し出すための映像として、イベントを盛り上げるための映像(例えば選手を紹介する映像)などを各ユーザのコンピュータ装置2に送信してもよい。 When it is the start time and the event is started (step S203), the event information transmission means 63 sends the information of the viewing video to be displayed on the screen B1 in the virtual space S to the computer device 2 of each user. Even before the event starts, the event information transmitting unit 63 may transmit, to the computer device 2 of each user, a video for exciting the event (for example, a video introducing a player) as a video to be displayed on the screen B1. Good.

また、イベントが開始すると、ユーザがイベントを観覧することで抱いた感情を表現するために、コントローラ48に対し所定の操作を行うと、その操作に対応する操作信号がサーバ装置3に送信される(ステップS103)。なお、図8に示したフローにおけるステップS103の位置は一例であり、イベント中、操作信号を送るためのコントローラ48に対する操作は、ユーザにより適時行われる。 Further, when the event starts, when the user performs a predetermined operation on the controller 48 in order to express the emotion held by viewing the event, an operation signal corresponding to the operation is transmitted to the server device 3. (Step S103). Note that the position of step S103 in the flow shown in FIG. 8 is an example, and during the event, the operation of the controller 48 for sending the operation signal is appropriately performed by the user.

イベント中、カウント手段64、判定手段65および第1音出力手段75による第1音出力処理(ステップS204, S205, S206, S104)が行われる。第1音出力処理では、カウント手段64により、一定の時間間隔で、複数のコンピュータ装置2から受信した操作信号の総数をカウントする(ステップS204)。そして、判定手段65は、一定の時間間隔で、イベントの観客数に対するカウント総数の割合Xが、閾値に達したか否か判定する(ステップS205)。 During the event, the first sound output processing (steps S204, S205, S206, S104) is performed by the counting means 64, the judging means 65, and the first sound outputting means 75. In the first sound output process, the counting unit 64 counts the total number of operation signals received from the plurality of computer devices 2 at regular time intervals (step S204). Then, the determination means 65 determines whether or not the ratio X of the total number of counts to the number of spectators of the event has reached a threshold value at regular time intervals (step S205).

割合Xが閾値に達していない場合(ステップS205:NO)は、サーバ装置3から各コンピュータ装置2に第1音出力指示は送られず、割合Xが閾値に達した場合(ステップS205:YES)、サーバ装置3から各コンピュータ装置2に第1音出力指示が送られる(ステップS206)。コンピュータ装置2が第1音出力指示を受信すると、第1音出力手段75は、ヘッドホン47から操作信号に対応した第1音を出力する(ステップS104)。 If the ratio X has not reached the threshold value (step S205: NO), the first sound output instruction is not sent from the server device 3 to each computer device 2, and the ratio X has reached the threshold value (step S205: YES). A first sound output instruction is sent from the server device 3 to each computer device 2 (step S206). When the computer device 2 receives the first sound output instruction, the first sound output means 75 outputs the first sound corresponding to the operation signal from the headphones 47 (step S104).

また、イベント中、近傍情報送信手段66および第2音出力手段76による第2音出力処理(ステップS207, S208, S105)が行われる。第2音出力処理では、近傍情報送信手段66は、近傍領域Dに位置するキャラクタを操作する他のユーザのコンピュータ装置2から操作信号を受信したか否かを判定し(ステップS207)、操作信号を受信しない間は(ステップS207:NO)、特に動作しない。近傍情報送信手段66は、各コンピュータ装置2に、近傍領域Dに位置するキャラクタを操作する他のユーザのコンピュータ装置2から操作信号を受信した場合に(ステップS207:YES)、近傍情報を送る(ステップS208)。 Further, during the event, the second sound output process (steps S207, S208, S105) is performed by the proximity information transmitting means 66 and the second sound output means 76. In the second sound output process, the proximity information transmitting means 66 determines whether or not an operation signal has been received from the computer device 2 of another user who operates the character located in the proximity area D (step S207), and the operation signal While not receiving (step S207: NO), no particular operation is performed. The proximity information transmitting means 66 sends the proximity information to each computer device 2 when receiving an operation signal from the computer device 2 of another user who operates the character located in the proximity area D (step S207: YES). Step S208).

コンピュータ装置2が近傍情報を受信すると、第2音出力手段76は、近傍情報に対応した第2音をコンピュータ装置2のヘッドホン47から出力する(ステップS105)。また、コンピュータ装置2が受信した近傍情報に基づき、動作制御手段77は、近傍情報に対応した動作を行うよう第2キャラクタを制御する(ステップS106)。 When the computer device 2 receives the proximity information, the second sound output means 76 outputs the second sound corresponding to the proximity information from the headphones 47 of the computer device 2 (step S105). Further, based on the proximity information received by the computer device 2, the motion control means 77 controls the second character to perform a motion corresponding to the proximity information (step S106).

イベントが終了するまでの間、第1音出力処理および第2音出力処理は繰り返され(ステップS209:NO)、イベントの終了により(ステップS209:YES)、第1音出力処理および第2音出力処理も終了する。 The first sound output processing and the second sound output processing are repeated until the event ends (step S209: NO), and the first sound output processing and the second sound output due to the end of the event (step S209: YES). The process also ends.

以上に示したように、本実施形態に係るコンピュータシステム1によれば、ユーザによるコントローラ48に対する操作が、その操作に対応する第1音として反映されるため、イベントを観覧する臨場感を高めることができる。また、第1音の出力は、そのイベントの観客数に対する操作信号の総数の割合Xが閾値に達した場合に制限されているため、コンピュータ装置2の処理負荷の増大を抑制することができる。 As described above, according to the computer system 1 according to the present embodiment, since the user's operation on the controller 48 is reflected as the first sound corresponding to the operation, it is possible to enhance the realism of viewing the event. You can Further, since the output of the first sound is limited when the ratio X of the total number of operation signals to the number of spectators of the event reaches the threshold value, it is possible to suppress an increase in the processing load of the computer device 2.

また、本実施形態のコンピュータシステム1によれば、割合Xが閾値に達した場合に、割合Xが大きくなるにつれて第1音の音量が段階的に大きくなるため、仮想空間での体験のリアリティをより高めることができる。 Further, according to the computer system 1 of the present embodiment, when the ratio X reaches the threshold value, the volume of the first sound gradually increases as the ratio X increases, so that the reality of the experience in the virtual space is increased. It can be increased.

また、本実施形態のコンピュータシステム1によれば、第2音出力手段76が、近傍情報送信手段66から近傍情報を受信した場合に、近傍情報に対応した第2音をコンピュータ装置2のヘッドホン47から出力するため、近くに位置する他のユーザのキャラクタからの音が聞こえてくるという事象を表現することができる。これにより、仮想空間での体験のリアリティをより高めることができる。 Further, according to the computer system 1 of the present embodiment, when the second sound output means 76 receives the proximity information from the proximity information transmission means 66, the second sound corresponding to the proximity information is output to the headphones 47 of the computer device 2. Since it is output from, it is possible to express the phenomenon that the sound from the character of another user located nearby is heard. As a result, the reality of the experience in the virtual space can be further enhanced.

また、本実施形態のコンピュータシステム1によれば、動作制御手段77が、キャラクタの近くに位置する他のユーザのキャラクタを、他のユーザの操作に応じて動作するため、ユーザは、イベントを観覧する他のユーザの反応を視覚的に知ることができる。このため、イベント観覧の臨場感をより高めることができる。 Further, according to the computer system 1 of the present embodiment, the motion control means 77 moves the character of another user located near the character according to the operation of the other user, so that the user views the event. It is possible to visually know the reaction of other users who do. Therefore, it is possible to further enhance the realism of the event viewing.

以上をまとめると、本件発明は、仮想カメラで撮影した仮想空間を二次元画像として表示するHMD40(表示装置)および音を出力するヘッドホン47(音出力装置)をそれぞれ有する複数のコンピュータ装置2と、サーバ装置3と、を備えるコンピュータシステム1であって、前記複数のコンピュータ装置2のそれぞれと前記サーバ装置3との間で通信する通信手段71と、前記各HMD40を介して前記複数のコンピュータ装置2に対応する複数のユーザが観覧するイベントが実施される仮想空間Sを生成する仮想空間生成手段72と、前記コンピュータ装置2が前記ユーザによる所定の操作入力を受け付けたときに、前記操作入力に対応する操作信号を前記コンピュータ装置2から前記サーバ装置3へ送信する操作信号送信手段74と、前記サーバ装置3が前記複数のコンピュータ装置2から一定の時間内に受信した操作信号の総数の前記複数のコンピュータ装置2の数に対する割合Xが、閾値に達したか否かを判定する判定手段65と、前記割合Xが閾値に達した場合に、前記ヘッドホン47から前記操作信号に対応した第1音を出力する第1音出力手段75と、を備える、コンピュータシステム1である。 To summarize the above, the present invention includes a plurality of computer devices 2 each having an HMD 40 (display device) for displaying a virtual space photographed by a virtual camera as a two-dimensional image and a headphone 47 (sound output device) for outputting a sound, A computer system (1) comprising a server device (3), the communication means (71) for communicating between each of the plurality of computer devices (2) and the server device (3), and the plurality of computer devices (2) via each of the HMDs (40). A virtual space generating means 72 for generating a virtual space S in which an event to be viewed by a plurality of users is performed; and when the computer device 2 receives a predetermined operation input by the user, the operation input is supported. An operation signal transmitting means 74 for transmitting an operation signal from the computer device 2 to the server device 3, and the plurality of operation signals transmitted by the server device 3 from the plurality of computer devices 2 within a predetermined time. When the ratio X to the number of computer devices 2 has reached a threshold value, a determination means 65 is provided, and when the ratio X reaches the threshold value, the headphone 47 outputs a first sound corresponding to the operation signal. And a first sound output means 75 for outputting.

(その他の実施形態)
本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

例えば、上記実施形態では、仮想空間Sを二次元画像として表示する表示装置、および音を出力する音出力装置として、それぞれ、HMD40およびヘッドホン47が示されたが、コンピュータ装置が備える表示装置および音出力装置は、これに限定されるものではない。例えば、音出力装置はスピーカであってもよい。また、例えば、表示装置は1つの表示部を有するテレビモニタ等のディスプレイであってもよい。また、例えば、コンピュータ装置2に操作入力するための操作装置は、コントローラ48でなくてもよく、マウスやキーボードなどであってもよい。 For example, in the above-described embodiment, the HMD 40 and the headphones 47 are shown as the display device that displays the virtual space S as a two-dimensional image and the sound output device that outputs the sound, respectively. The output device is not limited to this. For example, the sound output device may be a speaker. Further, for example, the display device may be a display such as a television monitor having one display unit. Further, for example, the operation device for inputting operation to the computer device 2 may not be the controller 48, but may be a mouse or a keyboard.

サーバ装置3およびコンピュータ装置2の各機能は、上記実施形態に記載された例に限られない。例えばコンピュータ装置2が、イベントの観客数、およびサーバ装置3が一定の時間内に受信した操作信号の総数に関する情報をサーバ装置3から随時受信することにより、コンピュータ装置2が、判定手段65として機能してもよい。 The respective functions of the server device 3 and the computer device 2 are not limited to the examples described in the above embodiment. For example, the computer device 2 receives information about the number of spectators at the event and the total number of operation signals received by the server device 3 within a certain time from the server device 3 at any time, so that the computer device 2 functions as the determination unit 65. You may.

また、コンピュータ装置2の代わりに、サーバ装置3が、仮想空間生成手段72および画像生成部73として機能してもよい。この場合、各コンピュータ装置2は、加速度センサ42およびジャイロセンサ43から得られたモーション情報や光検出装置46から得られた位置情報をサーバ装置3に送信する。サーバ装置3は、受信した情報に基づき、各コンピュータ装置2に対応する仮想カメラの位置や向きを変更し、仮想カメラで撮影した画像であって、スクリーンB1に観覧用画像を合成した画像を各コンピュータ装置2に送ってもよい。 Further, instead of the computer device 2, the server device 3 may function as the virtual space generating means 72 and the image generating unit 73. In this case, each computer device 2 transmits the motion information obtained from the acceleration sensor 42 and the gyro sensor 43 and the position information obtained from the light detection device 46 to the server device 3. The server device 3 changes the position and orientation of the virtual camera corresponding to each computer device 2 on the basis of the received information, and the images taken by the virtual camera, which are the images obtained by synthesizing the viewing image on the screen B1, are displayed. It may be sent to the computer device 2.

また、上記実施形態では、判定手段65は、割合Xが閾値に達したか否かを判定したが、判定手段65の態様はこれに限られない。例えば、判定手段65は、割合Xの代わりに、カウント手段64によりカウントされた操作信号の総数(即ち、サーバ装置3が一定時間内に受信した操作信号の総数)が、閾値に達したか否かを判定してもよい。 Further, in the above embodiment, the determination means 65 determines whether or not the ratio X has reached the threshold value, but the mode of the determination means 65 is not limited to this. For example, the determining unit 65 determines whether or not the total number of operation signals counted by the counting unit 64 (that is, the total number of operation signals received by the server device 3 within a certain period of time) has reached the threshold value instead of the ratio X. You may judge whether.

また、上記実施形態では、近傍領域Dは、観客席B3に対して設定されていたが、これに限定されない。近傍領域Dは、ユーザが操作するキャラクタPを基準とする所定の範囲に設定されればよく、例えば、ユーザが操作するキャラクタPから所定の距離以内の範囲を近傍領域Dとしてもよい。また、ユーザに対応するキャラクタPは、仮想空間S内で移動可能であってもよい。 Further, in the above embodiment, the neighborhood area D is set for the spectator seat B3, but the present invention is not limited to this. The proximity area D may be set in a predetermined range based on the character P operated by the user, and for example, a range within a predetermined distance from the character P operated by the user may be set as the proximity area D. Further, the character P corresponding to the user may be movable in the virtual space S.

また、近傍領域Dの範囲も、図6に示した例に限定されず、適宜変更可能である。また、上記実施形態では、第2音出力手段76と動作制御手段77とは、同じ近傍領域Dに位置するキャラクタに関係する他のユーザからの操作信号に基づき、それぞれ第2音の出力と他のユーザのキャラクタの動作制御を行なったが、本発明はこれに限定されない。即ち、第2音出力手段76と動作制御手段77とは、対象とする他のユーザが異なってもよい。例えば、動作制御手段77は、ユーザに対応するキャラクタPからその前方に広がる所定の範囲に位置する他のユーザのキャラクタ(例えば操作するキャラクタの視界に入る他のユーザのキャラクタ)に対応するコンピュータ装置2から操作信号がサーバ装置3に送信された場合に、操作信号に対応した動作を行うよう他のユーザのキャラクタを制御してもよい。これにより、より視界に入りやすい他のユーザのキャラクタについて、他のユーザからの操作信号をキャラクタの動作に反映させることができる。 Further, the range of the neighboring area D is not limited to the example shown in FIG. 6 and can be changed as appropriate. Further, in the above-described embodiment, the second sound output means 76 and the motion control means 77 respectively output the second sound and the other sounds based on the operation signal from another user related to the character located in the same neighborhood area D. However, the present invention is not limited to this. In other words, the second sound output means 76 and the operation control means 77 may be different in other target users. For example, the motion control means 77 is a computer device corresponding to a character of another user (for example, a character of another user who is in the field of view of the operated character) located in a predetermined range extending in front of the character P corresponding to the user. When an operation signal is transmitted from 2 to the server device 3, another user's character may be controlled to perform an action corresponding to the operation signal. This makes it possible to reflect the operation signal from the other user in the character's motion for the character of the other user who is more likely to come into the field of view.

また、上記実施形態では、仮想空間S内で実施されるイベントとして、Eスポーツの大会が例示したが、観覧対象となるイベントはこれに限定されない。例えば、イベントは、実世界で行われるスポーツの観戦であってもよく、この場合、仮想空間S内のスクリーンB1に実世界で行われているスポーツの映像が映し出されてもよい。例えば、イベントは、スポーツ観戦に限らず、演奏会などの観覧であってもよく、この場合、スクリーンB1に映し出す観覧用映像はなくてもよい。例えば仮想空間S内のステージB2上で動作する、演奏者やアイドルを模したキャラクタを観覧するものであってもよい。 Further, in the above-described embodiment, the event of the E-sports is illustrated as the event performed in the virtual space S, but the event to be viewed is not limited to this. For example, the event may be watching sports performed in the real world, and in this case, an image of sports being performed in the real world may be displayed on the screen B1 in the virtual space S. For example, the event is not limited to watching sports, and may be viewing such as a concert. In this case, the viewing video projected on the screen B1 may not be necessary. For example, a character that imitates a performer or an idol operating on the stage B2 in the virtual space S may be viewed.

また、各操作信号に対応する第1音と第2音とは、同じ音であってもよいし、互いに異なる音であってもよい。 Further, the first sound and the second sound corresponding to each operation signal may be the same sound or may be different sounds.

上記実施形態では、2種類の操作信号が示されたが、操作信号の種類の数は1つでもよいし、3種類以上であってもよい。また、第1音は、各種類の操作信号ごとに複数個用意されていてもよい。この場合、第1音出力手段75は、ある操作信号(例えば第1操作信号)に対応する複数の第1音の中から、1つの第1音をランダムで選択してもよい。また、同様に、各操作信号に対応する第2音、およびキャラクタの動作も、複数個用意されていてもよい。この場合、第2音出力手段76は、ある操作信号に対応する複数の第2音の中から、1つの第2音をランダムで選択してもよいし、動作制御手段77は、ある操作信号に対応する複数のキャラクタ動作の中から、1つの動作をランダムで選択してもよい。 Although two types of operation signals are shown in the above embodiment, the number of types of operation signals may be one, or may be three or more. Also, a plurality of first sounds may be prepared for each type of operation signal. In this case, the first sound output means 75 may randomly select one first sound from a plurality of first sounds corresponding to a certain operation signal (for example, the first operation signal). In addition, similarly, a plurality of second sounds and motions of the character corresponding to each operation signal may be prepared. In this case, the second sound output means 76 may randomly select one second sound from a plurality of second sounds corresponding to a certain operation signal, and the motion control means 77 may cause a certain operation signal to be selected. One motion may be randomly selected from the plurality of character motions corresponding to.

これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。 Even when these other embodiments are adopted, the effects of the present invention are exhibited. It is also possible to appropriately combine this embodiment with other embodiments, and other embodiments.

1 :コンピュータシステム
2 :コンピュータ装置(コンピュータ)
3 :サーバ装置
40 :HMD(表示装置)
48 :コントローラ(操作装置)
61 :通信手段
62 :位置管理手段
65 :判定手段
71 :通信手段
72 :仮想空間生成手段
74 :操作信号送信手段
75 :第1音出力手段
76 :第2音出力手段
77 :動作制御手段
NW :通信ネットワーク
P :キャラクタ
S :仮想空間
B1 :スクリーン(表示オブジェクト)
1: Computer system
2: Computer equipment (computer)
3: Server device
40: HMD (display device)
48: Controller (operating device)
61: Communication means
62: Position management means
65: Judgment means
71: Communication method
72: means for generating virtual space
74: Operation signal transmission means
75: First sound output means
76: Second sound output means
77: Motion control means
NW: Communication network
P: Character
S: Virtual space
B1: Screen (display object)

Claims (3)

仮想カメラで撮影した仮想空間を二次元画像として表示する表示装置および音を出力する音出力装置をそれぞれ有する複数のコンピュータと、サーバ装置と、を備えるコンピュータシステムであって、
前記複数のコンピュータのそれぞれと前記サーバ装置との間で通信する通信手段と、
前記各表示装置を介して前記複数のコンピュータに対応する複数のユーザが観覧するイベントが実施される仮想空間を生成する仮想空間生成手段と、
前記コンピュータが前記ユーザによる所定の操作入力を受け付けたときに、前記操作入力に対応する操作信号を前記コンピュータから前記サーバ装置へ送信する操作信号送信手段と、
前記サーバ装置が前記複数のコンピュータから一定の時間内に受信した前記操作信号の総数、または前記複数のコンピュータの数に対する前記操作信号の総数の割合が、閾値に達したか否かを判定する判定手段と、
前記総数または前記割合が閾値に達した場合に、前記音出力装置から前記操作信号に対応した第1音を出力する第1音出力手段と、を備え、
前記仮想空間内には、前記イベントとして実施される試合が観覧用映像として表示される表示オブジェクトと、前記各ユーザに対応するキャラクタが配置され、
前記複数のコンピュータは、第1コンピュータおよび第2コンピュータを含み、
前記第1コンピュータを操作するユーザに対応する第1キャラクタ、および前記第2コンピュータを操作するユーザに対応する第2キャラクタの前記仮想空間内における位置を管理する位置管理手段と、
前記第2キャラクタが前記第1キャラクタを基準とする所定の範囲内に位置し、前記第2コンピュータが受け付けた前記操作入力に対応する操作信号が前記操作信号送信手段により前記第2コンピュータから前記サーバ装置へ送信された場合には、前記判定手段による判定結果にかかわらず、前記操作信号に対応した第2音を前記第1コンピュータの前記音出力装置から出力する第2音出力手段と、を備え、
前記第1音は、前記第1キャラクタの全方位から到来する音として出力され、
前記第2音は、前記第2キャラクタから到来する音として出力される、コンピュータシステム。
A computer system comprising a plurality of computers each having a display device for displaying a virtual space photographed by a virtual camera as a two-dimensional image and a sound output device for outputting a sound, and a server device,
Communication means for communicating between each of the plurality of computers and the server device;
Virtual space generation means for generating a virtual space in which an event viewed by a plurality of users corresponding to the plurality of computers is performed via each of the display devices;
When the computer receives a predetermined operation input by the user, an operation signal transmitting unit that transmits an operation signal corresponding to the operation input from the computer to the server device,
Determination of whether or not the total number of the operation signals received by the server device from the plurality of computers within a certain period of time, or the ratio of the total number of the operation signals to the number of the plurality of computers has reached a threshold value Means and
First sound output means for outputting a first sound corresponding to the operation signal from the sound output device when the total number or the ratio reaches a threshold value,
In the virtual space, a display object in which a game performed as the event is displayed as a viewing video and a character corresponding to each user are arranged.
The plurality of computers includes a first computer and a second computer,
Position managing means for managing the positions in the virtual space of the first character corresponding to the user operating the first computer and the second character corresponding to the user operating the second computer,
The second character is located within a predetermined range based on the first character, and an operation signal corresponding to the operation input received by the second computer is transmitted from the second computer to the server by the operation signal transmitting means. Second sound output means for outputting a second sound corresponding to the operation signal from the sound output device of the first computer when the sound is transmitted to the device, regardless of the determination result by the determination means. ,
The first sound is output as a sound coming from all directions of the first character,
It said second sound is output as sound coming from the second character, computer system.
前記複数のコンピュータは、第1コンピュータおよび第2コンピュータを含み、
前記第1コンピュータを操作するユーザに対応する第1キャラクタ、および前記第2コンピュータを操作するユーザに対応する第2キャラクタの前記仮想空間内における位置を管理する位置管理手段と、
前記第2キャラクタが前記第1キャラクタを基準とする所定の範囲内に位置し、前記第2コンピュータが受け付けた前記操作入力に対応する操作信号が前記操作信号送信手段により前記第2コンピュータから前記サーバ装置へ送信された場合には、前記操作信号に対応した動作を行うよう第2キャラクタを制御する動作制御手段と、を備える、請求項1に記載のコンピュータシステム。
The plurality of computers includes a first computer and a second computer,
Position managing means for managing the positions in the virtual space of the first character corresponding to the user operating the first computer and the second character corresponding to the user operating the second computer,
The second character is located within a predetermined range based on the first character, and an operation signal corresponding to the operation input received by the second computer is transmitted from the second computer to the server by the operation signal transmitting means. The computer system according to claim 1, further comprising a motion control unit that controls the second character to perform a motion corresponding to the operation signal when the motion signal is transmitted to the device.
前記仮想カメラは、前記キャラクタの左右方向に並んで配設された左側仮想カメラと右側仮想カメラを含み、
前記表示装置は、前記仮想空間をユーザが立体視できるよう、前記左側仮想カメラと前記右側仮想カメラのそれぞれで撮影した前記仮想空間を、互いに視差を有する一対の仮想二次元画像として表示するヘッドマウントディスプレイである、請求項1または2に記載のコンピュータシステム。
The virtual camera includes a left virtual camera and a right virtual camera arranged side by side in the left-right direction of the character,
The display device is a head mount that displays the virtual space captured by each of the left virtual camera and the right virtual camera as a pair of virtual two-dimensional images having a parallax with each other so that a user can stereoscopically view the virtual space. a display, according to claim 1 or 2 computer system.
JP2018026256A 2018-02-16 2018-02-16 Computer system Active JP6714625B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018026256A JP6714625B2 (en) 2018-02-16 2018-02-16 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018026256A JP6714625B2 (en) 2018-02-16 2018-02-16 Computer system

Publications (2)

Publication Number Publication Date
JP2019141162A JP2019141162A (en) 2019-08-29
JP6714625B2 true JP6714625B2 (en) 2020-06-24

Family

ID=67771454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018026256A Active JP6714625B2 (en) 2018-02-16 2018-02-16 Computer system

Country Status (1)

Country Link
JP (1) JP6714625B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7527430B1 (en) 2023-03-29 2024-08-02 株式会社バンダイ PROGRAM AND INFORMATION PROCESSING APPARATUS

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7154609B2 (en) * 2019-12-27 2022-10-18 株式会社コナミデジタルエンタテインメント GAME VIEWING SYSTEM, COMPUTER PROGRAM FOR GAME VIEWING SYSTEM, AND GAME VIEWING SYSTEM CONTROL METHOD
JP6868921B1 (en) * 2019-12-27 2021-05-12 株式会社コナミデジタルエンタテインメント Production control system, computer program used for it, and control method
JP6982282B2 (en) * 2020-03-16 2021-12-17 有限会社トピックメーカー Event participation system, event management device, and event participation program
CN114745653A (en) * 2022-02-21 2022-07-12 上海卓越睿新数码科技股份有限公司 Method for realizing panoramic real-world teaching based on multi-channel surround sound effect
JP2023148674A (en) * 2022-03-30 2023-10-13 株式会社バンダイナムコエンターテインメント Computer system, virtual space control system and virtual space control method
JP7535551B2 (en) 2022-06-21 2024-08-16 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP7476372B1 (en) * 2023-02-07 2024-04-30 株式会社バンダイ PROGRAM, INFORMATION PROCESSING DEVICE AND MATCHING SYSTEM
JP7418629B1 (en) * 2023-02-07 2024-01-19 株式会社バンダイ Program, server and matching system
JP7418630B1 (en) 2023-02-07 2024-01-19 株式会社バンダイ Programs, information processing devices and matching systems
JP7418628B1 (en) * 2023-02-07 2024-01-19 株式会社バンダイ Programs, information processing devices and matching systems

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659691A (en) * 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
NL1004648C2 (en) * 1996-11-11 1998-05-14 Johan Michiel Schaaij Computer game system.
US8628424B1 (en) * 2012-06-28 2014-01-14 Red 5 Studios, Inc. Interactive spectator features for gaming environments
WO2016009865A1 (en) * 2014-07-18 2016-01-21 ソニー株式会社 Information processing device and method, display control device and method, reproduction device and method, programs, and information processing system
JP6217682B2 (en) * 2015-03-27 2017-10-25 ブラザー工業株式会社 Information processing apparatus and program
US20170221174A1 (en) * 2016-01-29 2017-08-03 Dzung Dinh Khac Gpu data sniffing and 3d streaming system and method
JP6276882B1 (en) * 2017-05-19 2018-02-07 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7527430B1 (en) 2023-03-29 2024-08-02 株式会社バンダイ PROGRAM AND INFORMATION PROCESSING APPARATUS
WO2024203182A1 (en) * 2023-03-29 2024-10-03 株式会社バンダイ Program and information processing device

Also Published As

Publication number Publication date
JP2019141162A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
JP6714625B2 (en) Computer system
US11179635B2 (en) Sound localization in an augmented reality view of a live event held in a real-world venue
US11722629B2 (en) Spectator view into a live event held in a real-world venue
US11436803B2 (en) Insertion of VR spectator in live video of a live event
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
JP6663505B2 (en) Audience view perspective in VR environment
JP7057756B2 (en) Audience view tracking for VR users in a virtual reality (VR) environment
EP3519065B1 (en) Systems and methods for reducing an effect of occlusion of a tracker by people
US20190224564A1 (en) Spectator management at view locations in virtual reality environments
JP2020518321A (en) Second screen virtual window to VR environment
JP6499728B2 (en) Game program and game system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200605

R150 Certificate of patent or registration of utility model

Ref document number: 6714625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250