JP2022073925A - Program, information processing method, information processing device and system - Google Patents

Program, information processing method, information processing device and system Download PDF

Info

Publication number
JP2022073925A
JP2022073925A JP2021100027A JP2021100027A JP2022073925A JP 2022073925 A JP2022073925 A JP 2022073925A JP 2021100027 A JP2021100027 A JP 2021100027A JP 2021100027 A JP2021100027 A JP 2021100027A JP 2022073925 A JP2022073925 A JP 2022073925A
Authority
JP
Japan
Prior art keywords
information
race
user
voice
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021100027A
Other languages
Japanese (ja)
Other versions
JP7303846B2 (en
JP2022073925A5 (en
Inventor
功淳 馬場
Naruatsu Baba
聡志 松山
Satoshi Matsuyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020182772A external-priority patent/JP6934552B1/en
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2021100027A priority Critical patent/JP7303846B2/en
Publication of JP2022073925A publication Critical patent/JP2022073925A/en
Publication of JP2022073925A5 publication Critical patent/JP2022073925A5/ja
Application granted granted Critical
Publication of JP7303846B2 publication Critical patent/JP7303846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enliven watching of a virtual race by voice relating to the race.
SOLUTION: A program causes a processor to execute the steps of: receiving first information relating to a prescribed race in an actual world from a second computer; generating virtual objects including a racecourse object and moving objects based on the first information; superimposedly displaying the virtual objects on the actual image; and receiving voice information relating to the prescribed race from the second computer to output the voice based on the voice information. The first information includes information on positions of participants and the like during execution of the prescribed race and time information corresponding to the position information. The display step includes virtually displaying the prescribed race based on the first information, and the output step includes outputting the voice along with the virtual display of the prescribed race in the display step.
SELECTED DRAWING: Figure 9
COPYRIGHT: (C)2022,JPO&INPIT

Description

本開示は、プログラム、情報処理方法、情報処理装置、及びシステムに関する。 The present disclosure relates to programs, information processing methods, information processing devices, and systems.

特許文献1には、HMD(Head Mounted Display)を用いてユーザに仮想現実を提供する際に、HMDから音声を出力すること、及び、マイクによる音声入力を可能にすることが開示されている。特許文献2には、仮想現実空間において、ユーザ同士が音声コミュニケーションを行うための技術が開示されている。 Patent Document 1 discloses that when providing a virtual reality to a user by using an HMD (Head Mounted Display), it is possible to output voice from the HMD and to enable voice input by a microphone. Patent Document 2 discloses a technique for performing voice communication between users in a virtual reality space.

特許文献3には、AR(Augmented Reality)グラス等を用いてユーザに拡張現実コンテンツを提供する際に、拡張現実コンテンツに含まれる音声のパラメータを調整して出力することが開示されている。特許文献4には、HMDを用いてユーザに拡張現実空間又は複合現実空間を提供する際に、仮想現実空間等の音声とユーザの周辺の実空間の音声とを合成した合成音声を出力することが開示されている。 Patent Document 3 discloses that when an augmented reality content is provided to a user using an AR (Augmented Reality) glass or the like, an audio parameter included in the augmented reality content is adjusted and output. In Patent Document 4, when the extended real space or the composite real space is provided to the user by using the HMD, a synthetic voice obtained by synthesizing the voice of the virtual reality space and the voice of the real space around the user is output. Is disclosed.

特開平11-184584号公報Japanese Unexamined Patent Publication No. 11-184584 特開2017-28390号公報Japanese Unexamined Patent Publication No. 2017-28390 国際公開第2019/142659号International Publication No. 2019/142695 国際公開第2018/128161号International Publication No. 2018/128161

ところで、現実世界においては、ボートレースや競馬などの様々なレースが実施されている。これらのレースを観戦するために実際にレース場へ足を運ぶ人々もいるが、実際にレース場へ足を運ぶことは、時間的又は地理的な制約により不可能な場合もある。 By the way, in the real world, various races such as boat races and horse races are carried out. Some people actually go to the race track to watch these races, but it may not be possible due to time or geographical constraints.

上記のような状況から、現実世界のレースに連動した仮想オブジェクトを用いて、現実世界のレースを仮想的なレースとして表示することができれば、実際にレース場へ行かずともレースを擬似的に観戦することができ、有益である。 From the above situation, if the real world race can be displayed as a virtual race using a virtual object linked to the real world race, you can watch the race in a simulated manner without actually going to the race track. Can be beneficial.

また、仮想的なレースを表示する際、レースに関連する音声によって仮想レースの観戦を盛り上げることができれば、ユーザに更なる楽しみを提供することができる。しかし、特許文献1~4に開示された技術は、現実世界のレースを仮想的なレースとして表示するものではなく、当然に、レースに関連する音声によって仮想レースの観戦を盛り上げるものでもなかった。 In addition, when displaying a virtual race, if the voice related to the race can excite the watching of the virtual race, it is possible to provide the user with further enjoyment. However, the techniques disclosed in Patent Documents 1 to 4 do not display the race in the real world as a virtual race, and naturally, the voice related to the race does not excite the watching of the virtual race.

本開示の一態様は、レースに関連する音声によって仮想レースの観戦を盛り上げることを目的とする。 One aspect of the present disclosure is intended to enliven the spectator of a virtual race with audio related to the race.

本開示に示す一実施形態によれば、
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラムが提供される。
According to one embodiment presented in the present disclosure.
A program executed in a first computer equipped with a processor and an image pickup unit.
The program is attached to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
A step of receiving voice information related to the predetermined race from the second computer and outputting voice based on the voice information is executed.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
The program is offered.

本開示に示す一実施形態よれば、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。 According to one embodiment shown in the present disclosure, the watching of a virtual race can be enlivened by the voice related to the race.

ある実施の形態に従うシステムの構成例を示す図である。It is a figure which shows the configuration example of the system which follows a certain embodiment. ある実施の形態に従うユーザ端末の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional configuration of the user terminal according to a certain embodiment. ある実施の形態に従うサーバの機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional configuration of the server according to a certain embodiment. ある実施の形態に従う現実世界のレース場の一例を示す模式図である。It is a schematic diagram which shows an example of the race field of the real world according to a certain embodiment. ある実施の形態に従うユーザ端末に表示される仮想オブジェクトの一例を示す模式図である。It is a schematic diagram which shows an example of the virtual object displayed on the user terminal according to a certain embodiment. ある実施の形態に従う表示制御に関する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which concerns on display control according to a certain embodiment. ある実施の形態に従う撮像部により撮像された現実画像の一例を示す模式図である。It is a schematic diagram which shows an example of the real image which was taken by the image pickup part according to a certain embodiment. ある実施の形態に従う現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。It is a schematic diagram which shows an example of the screen which superposed virtual object on the real image which follows a certain embodiment. ある実施の形態に従う音声制御に関する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which concerns on voice control according to a certain embodiment. ある実施の形態に従うデータテーブルの一例である。It is an example of a data table according to an embodiment. ある実施の形態に従う表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen according to a certain embodiment. ある実施の形態に従う表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen according to a certain embodiment.

以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の要素には同一の符号を付し、重複する説明を適宜省略する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same elements are designated by the same reference numerals, and duplicate description will be omitted as appropriate. In one or more embodiments shown in the present disclosure, the elements included in each embodiment may be combined with each other, and the combined result shall also form part of the embodiments shown in the present disclosure.

(システムの構成)
図1は、本実施の形態に従うシステム1の構成を示す図である。システム1は、例えば、現実世界で実施される所定のレースを、ユーザが使用する情報処理装置上において仮想オブジェクトを用いた仮想レースとして表示することが可能なものである。本明細書において、「所定のレース」とは、現実世界で実施されるレースであれば特に制限はされず、例えば、ボートレース(本番のレースや、展示レース)、競馬、競輪、オートレース、F1等のカーレース、ドローンレース、ドッグレース、マラソン、駅伝などが挙げられる。
(System configuration)
FIG. 1 is a diagram showing a configuration of a system 1 according to the present embodiment. The system 1 can display, for example, a predetermined race performed in the real world as a virtual race using a virtual object on an information processing device used by a user. In the present specification, the "predetermined race" is not particularly limited as long as it is a race carried out in the real world, and for example, a boat race (actual race or exhibition race), a horse race, a bicycle race, an auto race, etc. Car races such as F1, drone races, dog races, marathons, ekiden, etc. can be mentioned.

図1に示すように、システム1は、各ユーザが使用する情報処理装置(第1コンピュータ)であるユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」とも称する)など複数のユーザ端末10と、第1サーバ装置(第2コンピュータ)20と、第2サーバ装置40と、ネットワーク30と、を含む。 As shown in FIG. 1, the system 1 is a user such as a user terminal 10A, a user terminal 10B, and a user terminal 10C (hereinafter, user terminals 10A, 10B, 10C) which are information processing devices (first computers) used by each user. It includes a plurality of user terminals 10 such as (generally referred to as "user terminal 10"), a first server device (second computer) 20, a second server device 40, and a network 30.

ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、例えば、タッチスクリーンを備える携帯型端末であり、スマートフォン、ファブレット、タブレットなどでありうる。 The user terminal 10A and the user terminal 10B are connected to the network 30 by communicating with the radio base station 31. The user terminal 10C connects to the network 30 by communicating with a wireless router 32 installed in a facility such as a house. The user terminal 10 is, for example, a portable terminal provided with a touch screen, and may be a smartphone, a phablet, a tablet, or the like.

ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウエアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、第1サーバ装置20と通信し、所定のレースに関連するデータやユーザに関連するデータ等を第1サーバ装置20との間で送受信することにより、ユーザ端末10上で仮想レースを表示することを可能とする。 The user terminal 10 executes, for example, a program installed via a platform for distributing an application or the like, or a program including pre-installed website browsing software. The user terminal 10 communicates with the first server device 20 by executing the above program, and transmits / receives data related to a predetermined race, data related to the user, and the like to / from the first server device 20. It is possible to display a virtual race on the terminal 10.

第1サーバ装置20は、所定のレースに関連するデータを、第2サーバ装置40から受信する。第1サーバ装置20は、所定のレースに関連するデータを、適宜、ユーザ端末10へ送信する。第1サーバ装置20は、所定のレースに関連するデータや、各ユーザに関連するデータを記憶して管理する。 The first server device 20 receives data related to a predetermined race from the second server device 40. The first server device 20 appropriately transmits data related to a predetermined race to the user terminal 10. The first server device 20 stores and manages data related to a predetermined race and data related to each user.

第1サーバ装置20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ(第2プロセッサ)29と、を備え、これらが通信バスを介して互いに接続されている。 The first server device 20 includes a communication IF (Interface) 22, an input / output IF 23, a memory 25, a storage 26, and a processor (second processor) 29 as a hardware configuration, and these provide a communication bus. They are connected to each other via.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10や第2サーバ装置40などとの間でデータを送受信するためのインタフェースとして機能する。 The communication IF 22 supports various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from a user terminal 10 and a second server device 40.

入出力IF23は、第1サーバ装置20への情報の入力を受け付けるとともに、第1サーバ装置20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含みうる。 The input / output IF 23 functions as an interface for accepting input of information to the first server device 20 and outputting information to the outside of the first server device 20. The input / output IF 23 may include an input receiving unit that accepts the connection of an information input device such as a mouse and a keyboard, and an output unit that accepts the connection of an information output device such as a display for displaying an image or the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random
Access Memory)等の記憶装置を含んで構成されている。
The memory 25 is a storage device for storing data or the like used for processing. The memory 25 provides the processor 29 with a work area for temporary use, for example, when the processor 29 performs processing. The memory 25 includes a ROM (Read Only Memory) and a RAM (Random).
It is configured to include a storage device such as Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報には、所定のレースに関連するデータ(音声情報を含む)や、各ユーザに関連するデータ等が含まれる。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されうる。なお、ストレージは、サーバ装置に含まれる形態に限られず、クラウドサービスを利用することもできる 。 The storage 26 is a storage device for storing various programs and data for the processor 29 to read and execute. The information stored in the storage 26 includes data related to a predetermined race (including voice information), data related to each user, and the like. The storage 26 may be configured to include a storage device such as an HDD (Hard Disk Drive) or a flash memory. The storage is not limited to the form included in the server device, and cloud services can also be used.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、第1サーバ装置20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics
Processing Unit)等を含んで構成されうる。
The processor 29 controls the operation of the first server device 20 by reading and executing a program or the like stored in the storage 26. The processor 29 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics).
Processing Unit) etc. may be included.

第2サーバ装置40は、所定のレースに関連するデータを記憶して管理している。第2サーバ装置40は、例えば、所定のレースの開催者が管理するサーバ装置や、所定のレースに関する情報を外部へ発信する団体(レース専門誌の発行者、レースの映像配信者又はラジオ配信者など)が管理するサーバ装置等である。第2サーバ装置40は、所定のレースに関連するデータを、適宜、第1サーバ装置20へ送信する。ある局面においては、第2サーバ装置40は、所定のレースに関連するデータをユーザ端末10へ送信してもよい。第2サーバ装置40のハードウェア構成は、矛盾の生じない範囲で、第1サーバ装置20と同様であってもよい。第2サーバ装置40は、複数あってもよい。 The second server device 40 stores and manages data related to a predetermined race. The second server device 40 is, for example, a server device managed by a predetermined race organizer or an organization (publisher of a race magazine, race video distributor, or radio distributor) that transmits information about a predetermined race to the outside. Etc.) is a server device managed by. The second server device 40 appropriately transmits data related to a predetermined race to the first server device 20. In certain aspects, the second server device 40 may transmit data related to a predetermined race to the user terminal 10. The hardware configuration of the second server device 40 may be the same as that of the first server device 20 as long as there is no contradiction. There may be a plurality of second server devices 40.

(ユーザ端末)
図2は、ユーザ端末10の機能的な構成の一例を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク161と、スピーカ162と、撮像部170と、制御部(第1プロセッサ)190と、を含む。
(User terminal)
FIG. 2 is a block diagram showing an example of the functional configuration of the user terminal 10. As shown in FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input / output IF 140, a storage unit 150, a voice processing unit 160, a microphone 161 and a speaker 162. It includes an image pickup unit 170 and a control unit (first processor) 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。 The antenna 110 radiates a signal emitted by the user terminal 10 into space as a radio wave. Further, the antenna 110 receives radio waves from the space and gives a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。 Since the user terminal 10 communicates with other communication devices, the wireless communication IF 120 performs modulation / demodulation processing for transmitting / receiving signals via the antenna 110 or the like. The wireless communication IF 120 is a communication module for wireless communication including a tuner, a high frequency circuit, etc., performs modulation / demodulation and frequency conversion of the wireless signal transmitted / received by the user terminal 10, and supplies the received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの操作入力を受け付けるためのタッチパネル131と、ディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。 The touch screen 130 receives input from the user and outputs information to the user on the display 132. The touch screen 130 includes a touch panel 131 for receiving user operation input and a display 132. The touch panel 131 detects that a user's finger or the like has approached by using, for example, a capacitance type touch panel. The display 132 is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or other display device.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。 The input / output IF 140 functions as an interface for accepting input of information to the user terminal 10 and outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、HDD等により構成され、ユーザ端末10が使用するプログラム、及び、ユーザ端末10が第1サーバ装置20等から受信する各種データ等を記憶する。 The storage unit 150 is composed of a flash memory, an HDD, or the like, and stores a program used by the user terminal 10 and various data received by the user terminal 10 from the first server device 20 or the like.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク161から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ162へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク161は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ162は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。 The voice processing unit 160 performs modulation / demodulation of the voice signal. The voice processing unit 160 modulates the signal given from the microphone 161 and gives the modulated signal to the control unit 190. Further, the voice processing unit 160 gives a voice signal to the speaker 162. The voice processing unit 160 is realized by, for example, a processor for voice processing. The microphone 161 functions as an audio input unit for receiving an input of an audio signal and outputting it to the control unit 190. The speaker 162 functions as an audio output unit for outputting an audio signal to the outside of the user terminal 10.

撮像部170は、ユーザ端末10の周囲の現実画像を撮像するカメラである。撮像部170によって撮像された画像は、制御部190によって画像処理がなされ、ディスプレイ132へ出力される。 The image pickup unit 170 is a camera that captures a real image around the user terminal 10. The image captured by the image pickup unit 170 is image-processed by the control unit 190 and output to the display 132.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。 The control unit 190 controls the operation of the user terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by, for example, an application processor.

制御部190がアプリケーションプログラム151を実行する処理について、より詳細に説明する。記憶部150は、アプリケーションプログラム151と、アプリケーション情報152と、ユーザ情報153と、音声情報154と、を記憶する。 The process of executing the application program 151 by the control unit 190 will be described in more detail. The storage unit 150 stores the application program 151, the application information 152, the user information 153, and the voice information 154.

ユーザ端末10は、例えば、第1サーバ装置20からアプリケーションプログラム151をダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、第1サーバ装置20と通信することで、アプリケーション情報152及びユーザ情報153等の各種のデータを第1サーバ装置20と送受信する。 For example, the user terminal 10 downloads the application program 151 from the first server device 20 and stores it in the storage unit 150. Further, the user terminal 10 communicates with the first server device 20 to send and receive various data such as application information 152 and user information 153 to and from the first server device 20.

アプリケーションプログラム151は、ユーザ端末10において仮想レースを表示するためのプログラムである。アプリケーション情報152は、アプリケーションプログラム151が参照する各種のデータを含む。アプリケーション情報152は、第1情報152Aを含む。 The application program 151 is a program for displaying a virtual race on the user terminal 10. The application information 152 includes various data referred to by the application program 151. The application information 152 includes the first information 152A.

第1情報152Aは、第1サーバ装置20や第2サーバ装置40から送信された所定のレースに関する情報である。第1情報152Aとしては、例えば、所定のレースの出場者又は移動体(以下、「出場者等」とも称する)のレースタイムを示すレースタイム情報、所定のレースの実施中における出場者等の位置情報、当該位置情報に対応する時間情報と、が含まれる。 The first information 152A is information regarding a predetermined race transmitted from the first server device 20 and the second server device 40. The first information 152A includes, for example, race time information indicating the race time of a participant or a moving body (hereinafter, also referred to as “participant”) of a predetermined race, position information of the participant or the like during the execution of the predetermined race, and the like. The time information corresponding to the position information and the time information are included.

本明細書において、「出場者」とは、人間だけでなく、馬や犬などの動物も含む概念である。また、「移動体」とは、所定のレースにおいて移動の主体となるものであり、出場者が乗る動物や機体、出場者が遠隔操縦する機体などである。マラソンやドッグレース等では、「出場者」と「移動体」は同一となる。 As used herein, the term "participant" is a concept that includes not only humans but also animals such as horses and dogs. Further, the "moving body" is a main body of movement in a predetermined race, and is an animal or an aircraft on which a participant rides, an aircraft remotely controlled by a contestant, or the like. In marathons, dog races, etc., "participants" and "moving bodies" are the same.

第1情報152Aとしては、上記の他にも、例えば、所定のレースの名称、開催日時、レース場データ、出場者データ、移動体データ、オッズ情報、レース予想、レース出走表、レース直前情報、ピットレポート、レース結果、レース動画、レース静止画、過去のレース情報、その他の所定のレースに関する情報誌や情報サイトに掲載されうるような情報などを含んでもよい。 In addition to the above, the first information 152A includes, for example, a predetermined race name, date and time, race field data, contestant data, moving object data, odds information, race prediction, race start table, and information immediately before the race. It may include pit reports, race results, race videos, race stills, past race information, and other information that may be published in information magazines or information sites about a given race.

ユーザ情報153は、ユーザ端末10のユーザについての情報を含む。ユーザ情報153は、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率(例えば、ボートレースであれば購入した舟券の履歴と、購入した舟券の的中率)などを含んでもよい。 The user information 153 includes information about the user of the user terminal 10. The user information 153 includes, for example, information for identifying the user, position information of the user terminal 10, a race purchase history and a hit rate of the user (for example, in the case of a boat race, the history of the purchased boat ticket and the purchased boat ticket. Hit rate) and the like may be included.

音声情報154は、第1サーバ装置20から送信される所定のレースに関連する音声情報(以下、「レース関連音声情報」とも称する)を含む。音声情報154は、後述の音声取得部196によって取得されるユーザの音声情報(以下、「ユーザ音声情報」とも称する)を含んでもよい。 The voice information 154 includes voice information related to a predetermined race (hereinafter, also referred to as “race-related voice information”) transmitted from the first server device 20. The voice information 154 may include user voice information (hereinafter, also referred to as "user voice information") acquired by the voice acquisition unit 196 described later.

制御部190は、アプリケーションプログラム151を読み込んで実行することにより、操作入力受付部191と、送受信部192と、オブジェクト生成部193と、表示制御部194と、検出部195と、音声取得部196と、音声制御部197と、の各機能を発揮する。 By reading and executing the application program 151, the control unit 190 includes an operation input reception unit 191, a transmission / reception unit 192, an object generation unit 193, a display control unit 194, a detection unit 195, and a voice acquisition unit 196. , Voice control unit 197, and each function.

操作入力受付部191は、タッチスクリーン130の出力に基づいて、ユーザの操作入力を受け付ける。具体的には、操作入力受付部191は、ユーザの指などがタッチパネル131に接触又は接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。 The operation input receiving unit 191 accepts the user's operation input based on the output of the touch screen 130. Specifically, the operation input receiving unit 191 detects that the user's finger or the like touches or approaches the touch panel 131 as the coordinates of the coordinate system consisting of the horizontal axis and the vertical axis of the surface constituting the touch screen 130.

操作入力受付部191は、タッチスクリーン130に対するユーザの操作を判別する。操作入力受付部191は、例えば、「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「長押し操作(ロングタッチ操作)」、「ドラッグ操作(スワイプ操作)」、「ムーブ操作」、「フリック操作」、「ピンチイン操作」、「ピンチアウト操作」などのユーザの操作を判別する。 The operation input receiving unit 191 determines the user's operation on the touch screen 130. The operation input reception unit 191 is, for example, "approach operation", "release operation", "tap operation", "double tap operation", "long press operation (long touch operation)", "drag operation (swipe operation)", Determine the user's operation such as "move operation", "flick operation", "pinch-in operation", and "pinch-out operation".

操作入力受付部191は、ユーザ端末10に搭載された加速度センサ等によって検出されるユーザ端末10の動きを、操作入力として受け付けてもよい。 The operation input receiving unit 191 may accept the movement of the user terminal 10 detected by the acceleration sensor or the like mounted on the user terminal 10 as an operation input.

送受信部192は、無線通信IF120及びネットワーク30を介して、第1サーバ装置20や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部192は、例えば、第1サーバ装置20又は第2サーバ装置40から第1情報152A及びレース関連音声情報を受信する。また、送受信部192は、例えば、操作入力受付部191が受け付けた操作入力に応じた情報や、ユーザ情報153に記憶された情報、音声取得部196が取得したユーザ音声情報等を第1サーバ装置20又は第2サーバ装置40へと送信する。 The transmission / reception unit 192 transmits and receives various information to and from external communication devices such as the first server device 20 and the second server device 40 via the wireless communication IF 120 and the network 30. The transmission / reception unit 192 receives, for example, the first information 152A and the race-related voice information from the first server device 20 or the second server device 40. Further, the transmission / reception unit 192 uses, for example, the information corresponding to the operation input received by the operation input reception unit 191, the information stored in the user information 153, the user voice information acquired by the voice acquisition unit 196, and the like as the first server device. It is transmitted to 20 or the second server device 40.

オブジェクト生成部193は、所定のレースに関する第2情報をユーザに提示するための仮想オブジェクトを、第1情報に基づいて生成する。本明細書において、「第2情報」とは、例えば、第1情報152Aの少なくとも一部、又は、第1情報152Aから算出される情報である。ある局面において、「第2情報」は、テキストとして提示可能な情報でありうる。ある局面において、「第2情報」は、所定のレース中の出場者等の順位又はレース結果として出場者等の順位を示す順位情報でありうる。 The object generation unit 193 generates a virtual object for presenting the second information regarding a predetermined race to the user based on the first information. In the present specification, the "second information" is, for example, at least a part of the first information 152A or information calculated from the first information 152A. In a certain aspect, the "second information" can be information that can be presented as text. In a certain aspect, the "second information" may be ranking information indicating the ranking of the contestants or the like during a predetermined race or the ranking of the contestants or the like as a result of the race.

オブジェクト生成部193は、仮想オブジェクトとして、レース場を表すレース場オブジェクトと、出場者等を表す移動オブジェクトと、を生成する。オブジェクト生成部193は、第2情報をテキスト表示するための仮想表示板を生成してもよい。オブジェクト生成部193は、上記の各オブジェクトの他にも、第2情報を画像表示するための仮想スクリーン、各種の建物オブジェクト、木などの景観を構成する景観オブジェクト、ユーザのアバターとなるオブジェクト等を生成してもよい。 The object generation unit 193 generates, as virtual objects, a race field object representing a race field and a moving object representing a contestant or the like. The object generation unit 193 may generate a virtual display board for displaying the second information as text. In addition to the above objects, the object generation unit 193 also creates a virtual screen for displaying the second information as an image, various building objects, landscape objects such as trees, objects that serve as user avatars, and the like. May be generated.

表示制御部194は、撮像部70により撮像されたユーザ端末10の周囲の現実画像に、オブジェクト生成部193により生成された仮想オブジェクトを重畳させた画像(以下、「重畳画像」とも称する)を、ディスプレイ132上に表示させる。表示制御部194は、第1情報152Aに含まれるレースタイム情報に基づいて、レース場オブジェクト上において移動オブジェクトを移動させ、所定のレースを仮想的に再現した仮想レースをディスプレイ132上に表示させる。表示制御部194は、レースタイム情報に加えて、第1情報152Aに含まれる出場者等の位置情報、及び当該位置情報に対応する時間情報に基づいて、仮想レースを再現するものであることが好ましい。 The display control unit 194 superimposes an image (hereinafter, also referred to as “superimposed image”) on which a virtual object generated by the object generation unit 193 is superimposed on a real image around the user terminal 10 imaged by the image pickup unit 70. It is displayed on the display 132. The display control unit 194 moves the moving object on the race field object based on the race time information included in the first information 152A, and displays a virtual race that virtually reproduces a predetermined race on the display 132. It is preferable that the display control unit 194 reproduces the virtual race based on the position information of the contestants and the like included in the first information 152A and the time information corresponding to the position information in addition to the race time information. ..

表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、重畳画像における視点を変更可能であることが好ましい。表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、ディスプレイ132に各種のメニュー画面やGUI(Graphical User Interface)を表示させたり、ディスプレイ132の表示内容を変更したりする。 It is preferable that the display control unit 194 can change the viewpoint in the superimposed image according to the operation input received by the operation input reception unit 191. The display control unit 194 displays various menu screens and GUIs (Graphical User Interfaces) on the display 132, and changes the display contents of the display 132, in response to the operation input received by the operation input reception unit 191.

検出部195は、撮像部170により撮像された現実画像内における平坦面を検出する。平坦面の検出は、従来公知の画像認識技術によって実現される。例えば、検出部195が検出した平坦面を選択する操作をユーザが行った場合、当該平坦面にレース場オブジェクトが配置された重畳画像がディスプレイ132に表示される。 The detection unit 195 detects a flat surface in the real image captured by the image pickup unit 170. The detection of a flat surface is realized by a conventionally known image recognition technique. For example, when the user performs an operation of selecting a flat surface detected by the detection unit 195, a superimposed image in which the race field object is arranged on the flat surface is displayed on the display 132.

平坦面は、水平面であることが好ましい。また、平坦面とレース場オブジェクトを構成する底面とのなす角度は0度であってもよいが、鋭角であることが好ましく、例えば、15度~45度の範囲にすることができる。上記角度は、ユーザの操作を受け付けて調節する態様とすることもできる。また、現実世界の平坦面の一部に凸部がある場合や、当該平坦面に載置物がある場合であっても、当該凸部や当該載置物がレース場オブジェクトによって隠れる程度のサイズならば、レース場オブジェクトを配置可能は平坦面として検出してもよい。 The flat surface is preferably a horizontal surface. Further, the angle formed by the flat surface and the bottom surface constituting the race field object may be 0 degrees, but is preferably an acute angle, and can be, for example, in the range of 15 degrees to 45 degrees. The above angle may be adjusted by accepting a user's operation. Also, even if there is a convex part on a part of the flat surface in the real world, or if there is an object on the flat surface, if the convex part or the object is of a size that can be hidden by the racetrack object. , The place where the race field object can be placed may be detected as a flat surface.

音声取得部196は、表示制御部194によって重畳画像が表示されている状態において、マイク161等を介してユーザが発した音声を取得し、ユーザ音声情報を生成する。音声取得部196は、ユーザの操作入力に応じて音声の取得を開始してもよいし、ユーザが発声したことを検知して音声の取得を開始してもよい。また、音声取得部196によって生成される音声情報には、音声が取得された時間を示す取得時間情報が含まれてもよい。また、音声取得部196によって生成される音声情報には、音声内容に対応するテキスト情報が含まれてもよい。音声取得部196が取得した音声情報は、送受信部192を介して、第1サーバ装置20に送信される。 The voice acquisition unit 196 acquires the voice emitted by the user via the microphone 161 or the like in a state where the superimposed image is displayed by the display control unit 194, and generates the user voice information. The voice acquisition unit 196 may start acquiring voice in response to a user's operation input, or may detect that the user has spoken and start acquiring voice. Further, the voice information generated by the voice acquisition unit 196 may include acquisition time information indicating the time when the voice is acquired. Further, the voice information generated by the voice acquisition unit 196 may include text information corresponding to the voice content. The voice information acquired by the voice acquisition unit 196 is transmitted to the first server device 20 via the transmission / reception unit 192.

音声制御部197は、送受信部192が受信したレース関連音声情報に基づいて、スピーカ162から音声を出力するように制御する。音声制御部197は、例えば、レース関連音声情報に基づいて音声信号を生成し、該音声信号を必要に応じて音声処理部160において復調し、スピーカ162から音声を出力させる。 The voice control unit 197 controls to output the voice from the speaker 162 based on the race-related voice information received by the transmission / reception unit 192. For example, the voice control unit 197 generates a voice signal based on the race-related voice information, demodulates the voice signal in the voice processing unit 160 as necessary, and outputs the voice from the speaker 162.

音声制御部197による音声の出力は、表示制御部194による重畳画像の表示とともに行われる。ここで、表示制御部194は、音声制御部197による音声の出力とともに、該音声に対応するテキスト情報を表示してもよい。 The voice output by the voice control unit 197 is performed together with the display of the superimposed image by the display control unit 194. Here, the display control unit 194 may display the text information corresponding to the voice together with the output of the voice by the voice control unit 197.

また、表示制御部194は、ユーザに対応するユーザ画像、及び/又は、他のユーザに対応する他ユーザ画像を表示してもよい。表示制御部194は、さらに、ユーザ画像の近傍にユーザ音声情報に基づいて作成されるテキスト情報を表示してもよく、他ユーザ画像の近傍に他ユーザ音声情報に基づいて作成されるテキスト情報を表示してもよい。 Further, the display control unit 194 may display a user image corresponding to the user and / or another user image corresponding to another user. The display control unit 194 may further display text information created based on the user voice information in the vicinity of the user image, and may display text information created based on the other user voice information in the vicinity of the other user image. It may be displayed.

(第1サーバ装置)
図3は、第1サーバ装置20の機能的な構成を示すブロック図である。図3を参照して、第1サーバ装置20の詳細な構成を説明する。第1サーバ装置20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。
(1st server device)
FIG. 3 is a block diagram showing a functional configuration of the first server device 20. A detailed configuration of the first server device 20 will be described with reference to FIG. The first server device 20 exerts functions as a communication unit 220, a storage unit 250, and a control unit 290 by operating according to a program.

通信部220は、第1サーバ装置20がユーザ端末10や第2サーバ装置40などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。 The communication unit 220 functions as an interface for the first server device 20 to communicate with an external communication device such as the user terminal 10 or the second server device 40 via the network 30.

記憶部250は、システム1を実現するための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、レース情報252と、ユーザ情報253と、音声情報254と、を記憶する。 The storage unit 250 stores various programs and data for realizing the system 1. In a certain aspect, the storage unit 250 stores the program 251 and the race information 252, the user information 253, and the voice information 254.

プログラム251は、第1サーバ装置20がユーザ端末10や第2サーバ装置40と通信して、システム1を実現するためのプログラムである。プログラム251は、制御部290に実行されることにより、ユーザ端末10や第2サーバ装置40とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じた処理、レース情報252やユーザ情報253を更新する処理などを第1サーバ装置20に行わせる。 The program 251 is a program for the first server device 20 to communicate with the user terminal 10 and the second server device 40 to realize the system 1. The program 251 is executed by the control unit 290 to send and receive data to and from the user terminal 10 and the second server device 40, a process according to the operation content performed by the user of the user terminal 10, race information 252, and the user. The first server device 20 is made to perform a process of updating the information 253 and the like.

レース情報252は、所定のレースに関連する各種のデータを含む。レース情報252は、例えば、第1情報252Aを含む。第1情報252Aは、第1情報152Aの元となる情報であり、第1情報152Aは、第1情報252Aの一部でありうる。第1情報252Aは、例えば、第2サーバ装置40から取得された情報である。 Race information 252 contains various data related to a given race. The race information 252 includes, for example, the first information 252A. The first information 252A is the source information of the first information 152A, and the first information 152A can be a part of the first information 252A. The first information 252A is, for example, information acquired from the second server device 40.

ユーザ情報253は、ユーザ端末10のユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率などをユーザ毎に記憶している。 The user information 253 is information about the user of the user terminal 10. The user information 253 includes a user management table 253A. The user management table 253A stores, for example, information for identifying a user, position information of a user terminal 10, a race purchase history of the user, a hit rate, and the like for each user.

音声情報254は、レース関連音声情報を含む。レース関連音声情報には、例えば、ユーザ端末10Aから送信されたユーザAのユーザ音声情報、ユーザAとは異なるユーザBのユーザ端末10Bから送信されたユーザBのユーザ音声情報(ユーザAにとっての他ユーザ音声情報)、所定のレースの実況音声から生成される実況音声情報、及び所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報のうちの1以上が含まれうる。 The audio information 254 includes race-related audio information. The race-related voice information includes, for example, the user voice information of the user A transmitted from the user terminal 10A, and the user voice information of the user B transmitted from the user terminal 10B of the user B different from the user A (other for the user A). (User voice information), one of the live voice information generated from the live voice of the predetermined race, and the field sound information generated from the field sound collected at the real-world race track where the predetermined race is performed. The above may be included.

また、レース関連音声情報には、その音声情報の元となった音声が取得された時間を示す取得時間情報や音声内容に対応するテキスト情報が含まれうる。テキスト情報は、各音声情報の送信元であるユーザ端末10、第2サーバ装置40又はその他のコンピュータ装置において生成されてもよいし、第1サーバ装置20において生成されてもよい。 Further, the race-related voice information may include acquisition time information indicating the time when the voice that is the source of the voice information was acquired and text information corresponding to the voice content. The text information may be generated in the user terminal 10, the second server device 40, or other computer device that is the source of each voice information, or may be generated in the first server device 20.

制御部290は、プロセッサ29によって実現され、プログラム251を実行することにより、送受信部291、第1情報取得部292、音声情報取得部293、選出部294、データ管理部295、計時部296としての機能を発揮する。 The control unit 290 is realized by the processor 29, and by executing the program 251 as a transmission / reception unit 291, a first information acquisition unit 292, a voice information acquisition unit 293, a selection unit 294, a data management unit 295, and a timekeeping unit 296. Demonstrate function.

送受信部291は、通信部220及びネットワーク30を介して、ユーザ端末10や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部291は、例えば、第1情報252Aや音声情報254の少なくとも一部をユーザ端末10へ送信する。また、送受信部291は、例えば、第1情報252Aを第2サーバ装置40から受信する。 The transmission / reception unit 291 transmits and receives various information to and from an external communication device such as a user terminal 10 and a second server device 40 via the communication unit 220 and the network 30. The transmission / reception unit 291 transmits, for example, at least a part of the first information 252A and the voice information 254 to the user terminal 10. Further, the transmission / reception unit 291 receives, for example, the first information 252A from the second server device 40.

また、送受信部291は、例えば、ユーザ音声情報をユーザ端末10から受信する。また、送受信部291は、例えば、実況音声情報や現場音情報を第2サーバ装置40又は他のコンピュータ装置(図示せず)から受信する。 Further, the transmission / reception unit 291 receives, for example, user voice information from the user terminal 10. Further, the transmission / reception unit 291 receives, for example, live voice information and on-site sound information from the second server device 40 or another computer device (not shown).

第1情報取得部292は、送受信部291を介して、第1情報252Aを第2サーバ装置40から取得する。 The first information acquisition unit 292 acquires the first information 252A from the second server device 40 via the transmission / reception unit 291.

音声情報取得部293は、送受信部291を介して、1以上のユーザのユーザ音声情報、実況音声情報、及び現場音情報のうちの1以上をレース関連音声情報として取得する。 The voice information acquisition unit 293 acquires one or more of the user voice information, the live voice information, and the on-site sound information of one or more users as race-related voice information via the transmission / reception unit 291.

選出部294は、音声情報254に含まれるレース関連音声情報のうちから、ユーザ端末10に送信する情報を選出する。選出部294は、例えば、ユーザ端末10からの要求にしたがって、ユーザ音声情報、実況音声情報、及び現場音情報のうちのいずれか1以上をユーザ端末10に送信する情報として選出しうる。また、選出部294は、レース関連音声情報に含まれる取得時間情報に基づいて、ユーザ端末10に送信する情報を選出しうる。 The selection unit 294 selects information to be transmitted to the user terminal 10 from the race-related voice information included in the voice information 254. For example, the selection unit 294 can select one or more of the user voice information, the live voice information, and the on-site sound information as information to be transmitted to the user terminal 10 in accordance with a request from the user terminal 10. Further, the selection unit 294 can select information to be transmitted to the user terminal 10 based on the acquisition time information included in the race-related voice information.

ユーザ端末10Aに送信する情報としてユーザAにとっての他ユーザ音声情報が選出される場合、選出部294は、さらに、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて1以上の他ユーザ音声情報を選出することが好ましい。所定の選出基準は、特に制限されないが、例えば、ユーザと他ユーザとの関係性、及び他ユーザの所定期間における予想の的中率又は回収率、のうちの1以上に基づくものであることが好ましい。上記関係性は、特に制限されないが、例えば、ユーザ間のフォロー関係が挙げられる。また、上記所定期間は、特に制限されないが、例えば、直近の1年間、その年の春シーズンや秋シーズン等の期間などが挙げられる。なお、上記所定期間に代えて、ユーザが購入した直近の所定数のレース(例えば、直近100レース)を基準にして的中率や回収率を算出してもよい。 When other user voice information for user A is selected as information to be transmitted to the user terminal 10A, the selection unit 294 further determines one or more other users from among a plurality of other user voice information based on a predetermined selection criterion. It is preferable to select voice information. The predetermined selection criteria are not particularly limited, but may be based on, for example, one or more of the relationship between the user and another user, and the expected hit rate or recovery rate of the other user in a predetermined period. preferable. The above relationship is not particularly limited, and examples thereof include follow-up relationships between users. The predetermined period is not particularly limited, and examples thereof include a period of the latest one year, a period such as a spring season or an autumn season of the year, and the like. Instead of the predetermined period, the hit rate and the recovery rate may be calculated based on the latest predetermined number of races (for example, the latest 100 races) purchased by the user.

フォロー関係とは、例えば、アプリ上における相手ユーザのコメント又は行動等が閲覧できる関係である。フォロー関係は、ユーザが特定のユーザを選択して一方的に設定可能なものでもよいし、ユーザが特定のユーザへ申請をした後に該特定のユーザからの承認を経て設定される双方向的なものでもよい。フォロー関係にあるユーザ同士は、例えば、メッセージの送受信等のコミュニケーションが可能であってもよい。フォロー関係には、いわゆるフレンド関係が含まれる。 The follow relationship is, for example, a relationship in which comments or actions of the other user on the application can be viewed. The follow relationship may be one that can be unilaterally set by the user by selecting a specific user, or is bidirectional, which is set after the user applies to the specific user and is approved by the specific user. It may be a thing. Users in a follow-up relationship may be able to communicate with each other, for example, by sending and receiving messages. Follow relationships include so-called friend relationships.

ある局面において、選出部294は、ユーザAがフォロー関係を結んでいる他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。また、ある局面において、選出部294は、レースにおける予想の的中率又は回収率の高い他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。また、ある局面において、選出部294は、ユーザAがフォロー関係を結んでいる他ユーザのうちでレースにおける予想の的中率又は回収率の高い他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。 In a certain aspect, the selection unit 294 selects other user voice information of another user with whom the user A has a follow-up relationship as information to be transmitted to the user terminal 10A. Further, in a certain aspect, the selection unit 294 selects other user voice information of another user having a high expected hit rate or recovery rate in the race as information to be transmitted to the user terminal 10A. Further, in a certain aspect, the selection unit 294 transfers the voice information of another user, who has a high expected hit rate or recovery rate in the race, to the user terminal 10A among the other users with whom the user A has a follow-up relationship. Select as information to send.

データ管理部295は、第1情報取得部292、音声情報取得部293等における処理結果に従って、記憶部250に記憶される各種データを更新する処理を行う。計時部296は、時間を計測する処理を行う。計時部296によって計測される時間に基づいて、ユーザ端末10に表示される各種時間(例えば、レース開始までの時間など)が制御されうる。 The data management unit 295 performs a process of updating various data stored in the storage unit 250 according to the processing results of the first information acquisition unit 292, the voice information acquisition unit 293, and the like. The timekeeping unit 296 performs a process of measuring the time. Various times displayed on the user terminal 10 (for example, the time until the start of the race) can be controlled based on the time measured by the time measuring unit 296.

(動作例)
次に、図4から図12を参照して、システム1における動作例について説明する。以下では、所定のレースがボートレースである場合を例示して説明をするが、以下の説明は、所定のレースが他のレースであっても適用可能である。また、以下では、ユーザ端末10と第1サーバ装置20の間、及び第1サーバ装置20と第2サーバ装置40の間でデータの送受信を行うものとして説明をするが、ある局面においては、ユーザ端末10と第2サーバ装置40とで直接的にデータの送受信をするように構成してもよい。
(Operation example)
Next, an operation example in the system 1 will be described with reference to FIGS. 4 to 12. In the following, a case where a predetermined race is a boat race will be described as an example, but the following description can be applied even if the predetermined race is another race. Further, in the following description, it is assumed that data is transmitted / received between the user terminal 10 and the first server device 20 and between the first server device 20 and the second server device 40, but in a certain aspect, the user The terminal 10 and the second server device 40 may be configured to directly transmit and receive data.

図4は、現実世界のボートレース場の一例を示す模式図である。ボートレース場401には、2つのターンマーク403が設置されており、各ボートレーサーが乗るボート402a~402fによるレースが実施されている。レースが終了した場合、ボート402a~402fそれぞれのレースタイムを示すレースタイム情報が、第2サーバ装置40から第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。 FIG. 4 is a schematic diagram showing an example of a boat race field in the real world. Two turn marks 403 are installed in the boat race field 401, and races are carried out by boats 402a to 402f on which each boat racer rides. When the race is completed, the race time information indicating the race times of the boats 402a to 402f is transmitted from the second server device 40 to the first server device 20, and is transmitted from the first server device 20 to the user terminal 10.

ボートレース場401には、撮像装置(カメラ)404a~404bが設けられている。撮像装置404aは、ボートレース場401の上方からボート402a~402fを視界に収める。撮像装置404bは、ボートレース場401の側方からボート402a~402fを視界に収める。撮像装置404a~404bによって撮像されたボート402a~402fの画像は、第2サーバ装置40へ送信される。第2サーバ装置40では、例えば、各画像の画像解析を行い、各画像の撮影時間におけるボート402a~402fそれぞれの位置を示す位置情報を算出する。算出された位置情報と、当該位置情報に対応する撮影時間に関する時間情報は、第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。なお、位置情報の算出は、第1サーバ装置20において実施してもよい。 The boat race field 401 is provided with image pickup devices (cameras) 404a to 404b. The image pickup apparatus 404a captures the boats 402a to 402f in the field of view from above the boat race field 401. The image pickup apparatus 404b keeps the boats 402a to 402f in the field of view from the side of the boat race field 401. The images of the boats 402a to 402f captured by the image pickup devices 404a to 404b are transmitted to the second server device 40. In the second server device 40, for example, image analysis of each image is performed, and position information indicating the position of each of the boats 402a to 402f in the shooting time of each image is calculated. The calculated position information and the time information related to the shooting time corresponding to the position information are transmitted to the first server device 20, and are transmitted from the first server device 20 to the user terminal 10. The location information may be calculated by the first server device 20.

また、撮像装置404a~404bに代えて、又は加えて、ボート402a~402fに、GPSセンサ等の位置センサを設置してもよい。位置センサによって取得されたボート402a~402fの位置情報と、当該位置情報が取得された時間を示す時間情報とは、最終的にユーザ端末10へと送信される。 Further, a position sensor such as a GPS sensor may be installed on the boats 402a to 402f instead of or in addition to the image pickup devices 404a to 404b. The position information of the boats 402a to 402f acquired by the position sensor and the time information indicating the time when the position information was acquired are finally transmitted to the user terminal 10.

図5は、ユーザ端末10に表示される仮想オブジェクトの一例を示す模式図である。図5の例では、仮想オブジェクトとして、レース場オブジェクト501と、移動オブジェクト502a~502fと、2つのターンマークオブジェクト503と、仮想表示板505と、が示されている。 FIG. 5 is a schematic diagram showing an example of a virtual object displayed on the user terminal 10. In the example of FIG. 5, as virtual objects, a race field object 501, moving objects 502a to 502f, two turnmark objects 503, and a virtual display board 505 are shown.

レース場オブジェクト501は、ボートレース場401を仮想的に表示したオブジェクトである。レース場オブジェクト501やターンマークオブジェクト503は、例えば、ボートレース場401のコース情報等のレース場データに基づいて作製されることが好ましく、ボートレース場401と対応する形状であることが好ましい。 The race field object 501 is an object that virtually displays the boat race field 401. The race field object 501 and the turn mark object 503 are preferably created based on race field data such as course information of the boat race field 401, and preferably have a shape corresponding to the boat race field 401.

移動オブジェクト502a~502fは、ボート402a~402fをそれぞれ仮想的に表示したオブジェクトであり、ボートを模した形状である。移動オブジェクト502a~502fは、レースタイム情報や、ボート402a~402fの位置情報及び当該位置情報に対応する時間情報に基づいて、レース場オブジェクト501を移動する。すなわち、レース場オブジェクト501及び移動オブジェクト502a~502fによって、現実世界のレースが仮想的なレースとしてユーザ端末10上で表示される。 The moving objects 502a to 502f are objects that virtually display the boats 402a to 402f, respectively, and have a shape imitating a boat. The moving objects 502a to 502f move the race field object 501 based on the race time information, the position information of the boats 402a to 402f, and the time information corresponding to the position information. That is, the race field object 501 and the moving objects 502a to 502f display the race in the real world as a virtual race on the user terminal 10.

なお、ボート402a~402fの位置情報及び時間情報がなくとも、レースタイム情報のみによって仮想レースを表示することも可能である。ただ、この場合、最終的な着順は現実世界のレースと同じものになるが、レース中の順位などのレース経過を再現することが困難である。 Even if there is no position information and time information of the boats 402a to 402f, it is possible to display the virtual race only by the race time information. However, in this case, the final order of arrival will be the same as in the real world race, but it is difficult to reproduce the race progress such as the ranking during the race.

仮想表示板505は、テキスト情報を表示するオブジェクトである。仮想表示板505は、例えば、ボートレース場401において対応する存在のないオブジェクトである。仮想表示板505に表示するテキスト情報は、特に制限はされず、例えば、順位情報やオッズ情報等であってもよい。また、仮想表示板505に表示するテキスト情報は、ユーザの操作入力に基づいて変更可能であってもよい。 The virtual display board 505 is an object that displays text information. The virtual display board 505 is, for example, a corresponding nonexistent object in the boat race field 401. The text information displayed on the virtual display board 505 is not particularly limited, and may be, for example, ranking information, odds information, or the like. Further, the text information displayed on the virtual display board 505 may be changeable based on the operation input of the user.

図6は、表示制御に関する処理の一例を示すフローチャートである。なお、以下で説明するフローチャート(図9を含む)を構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。また、各フローチャートにおいて各装置が実行する処理は、矛盾の生じない範囲で、他の装置によって実行されてもよい。 FIG. 6 is a flowchart showing an example of processing related to display control. The order of the processes constituting the flowchart (including FIG. 9) described below is random as long as the processing contents do not have any contradiction or inconsistency, and may be executed in parallel. Further, the process executed by each device in each flowchart may be executed by another device within a range that does not cause a contradiction.

図6及び図9に示される処理は、制御部190がアプリケーションプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現される。まず、ステップS610において、制御部190は、カメラである撮像部170を起動する。撮像部170によって、ユーザ端末10の周囲の現実画像が撮像される。 The processes shown in FIGS. 6 and 9 are realized by the control unit 190 executing the application program 151 and the control unit 290 executing the program 251. First, in step S610, the control unit 190 activates the image pickup unit 170, which is a camera. The image pickup unit 170 captures a real image around the user terminal 10.

ステップS620において、制御部190は、撮像部170によって撮像された画像内における平坦面を検出する。ステップS630において、制御部190は、検出した平坦面に仮想オブジェクトを配置する。 In step S620, the control unit 190 detects a flat surface in the image captured by the image pickup unit 170. In step S630, the control unit 190 arranges the virtual object on the detected flat surface.

ここで、図7~図8を用いて、ステップS61
0、S620、及びS630の処理について具体的に説明する。図7は、撮像部170により撮像された現実画像の一例を示す模式図である。図7の例では、平坦なデスク701上に、キーボード702と、モニタ装置703と、が置かれている。
Here, using FIGS. 7 to 8, step S61
The processing of 0, S620, and S630 will be specifically described. FIG. 7 is a schematic diagram showing an example of a real image captured by the imaging unit 170. In the example of FIG. 7, a keyboard 702 and a monitoring device 703 are placed on a flat desk 701.

ステップS610において撮像部170が起動されると、ディスプレイ132上に、撮像部170によって撮像されている現実画像が表示される。次に、ステップS620において、制御部190は、撮像部170によって撮像された画像内、すなわちディスプレイ132に表示された画像内における平坦面を検出する。 When the image pickup unit 170 is activated in step S610, the real image captured by the image pickup unit 170 is displayed on the display 132. Next, in step S620, the control unit 190 detects a flat surface in the image captured by the image pickup unit 170, that is, in the image displayed on the display 132.

図7では、領域704が平坦面として検出されている。領域704内にはキーボード702があるが、キーボード702はレース場オブジェクト501によって隠れる程度のサイズなので、制御部190は、領域704を平坦面として検出する。 In FIG. 7, the region 704 is detected as a flat surface. There is a keyboard 702 in the area 704, but since the keyboard 702 is small enough to be hidden by the race field object 501, the control unit 190 detects the area 704 as a flat surface.

図7に示す状態で、撮像部170によって撮像される位置を変更すれば、領域704の位置も変更されうる。領域704は、ディスプレイ132上において、例えば、所定の色を付加されて、他の部分とは区別可能に表示される。ユーザが領域704に対してタップ操作等を実行した場合、ステップS630において、制御部190は、領域704上にレース場オブジェクト501等の仮想オブジェクトを配置する。 If the position imaged by the image pickup unit 170 is changed in the state shown in FIG. 7, the position of the region 704 can also be changed. The area 704 is displayed on the display 132 so as to be distinguishable from other parts, for example, by adding a predetermined color. When the user executes a tap operation or the like on the area 704, in step S630, the control unit 190 arranges a virtual object such as a race field object 501 on the area 704.

図8は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。図8において、モニタ装置703を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。仮想オブジェクトが表示されていない領域には、例えば、広告画像を表示してもよい。 FIG. 8 is a schematic diagram showing an example of a screen in which a virtual object is superimposed on a real image and displayed. In FIG. 8, the area with the dot pattern including the monitor device 703 is the real image, and the other area is the area where the virtual object is displayed. For example, an advertisement image may be displayed in an area where the virtual object is not displayed.

図8では、仮想オブジェクトとして、レース場オブジェクト501と、複数の移動オブジェクト502と、2つのターンマークオブジェクト503と、505と、大型モニタオブジェクト506と、建物オブジェクト507a~507bと、その他の符号を付していない多数のオブジェクト(木オブジェクト、時計オブジェクト等)と、が表示されている。これらのオブジェクトは、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。 In FIG. 8, as virtual objects, a race field object 501, a plurality of moving objects 502, two turnmark objects 503, 505, a large monitor object 506, building objects 507a to 507b, and other reference numerals are added. Many objects (tree objects, clock objects, etc.) that have not been displayed are displayed. These objects are created, for example, based on the first information 152A received from the first server device 20.

図8は、領域704に含まれる平坦面と、レース場オブジェクト501を構成する底面とのなす角度が0度になるようにして、領域704上にレース場オブジェクト501を配置している。この場合、例えば、領域X1のような奥行方向にある領域や、移動オブジェクト502同士が重複して見づらくなることがある。また、大型モニタオブジェクト506の奥行方向側の領域などには、移動オブジェクト502が見えなくなる死角が生じうる。 In FIG. 8, the racefield object 501 is arranged on the region 704 so that the angle formed by the flat surface included in the region 704 and the bottom surface constituting the racefield object 501 is 0 degrees. In this case, for example, an area in the depth direction such as the area X1 or moving objects 502 may overlap each other and become difficult to see. Further, in the area on the depth direction side of the large monitor object 506 or the like, a blind spot may occur in which the moving object 502 cannot be seen.

しかし、図8に示す状態において、ユーザは、ディスプレイ132に表示される重畳画像の視点を変更可能である。例えば、ユーザがピンチイン操作やピンチアウト操作等の操作入力をした場合、撮像部170の視点位置がレース場オブジェクト501へ近づいたり遠ざかったりしうる。また、ユーザがユーザ端末10を持ったままディスプレイ132の奥行方向へ移動した場合や、手前方向に移動した場合も、撮像部170の視点位置がレース場オブジェクト501へ近づいたり遠ざかったりしうる。また、ユーザがディスプレイ132上の所定の位置を指定するような操作をした場合、視点位置が指定された位置へと移動しうる。このような視点変更によって、上述の視認性の問題は解消しうる。 However, in the state shown in FIG. 8, the user can change the viewpoint of the superimposed image displayed on the display 132. For example, when the user inputs an operation such as a pinch-in operation or a pinch-out operation, the viewpoint position of the image pickup unit 170 may move toward or away from the race field object 501. Further, even when the user moves in the depth direction of the display 132 while holding the user terminal 10 or moves in the front direction, the viewpoint position of the image pickup unit 170 may move toward or away from the race field object 501. Further, when the user performs an operation such as designating a predetermined position on the display 132, the viewpoint position can be moved to the designated position. By such a viewpoint change, the above-mentioned visibility problem can be solved.

また、平坦面とレース場オブジェクト501を構成する底面とのなす角度θが鋭角になるようにレース場オブジェクト501を配置することによっても、視認性に関する上述の問題を軽減しうる。 Further, by arranging the race field object 501 so that the angle θ formed by the flat surface and the bottom surface constituting the race field object 501 is an acute angle, the above-mentioned problem regarding visibility can be alleviated.

図6のフローチャートの説明に戻る。ステップS640において、制御部190は、現実世界のボートレース場401におけるボート402a~402fの位置情報を取得する。すなわち、現実世界においてボート402a~402fによるレースが開始された場合、制御部190は、第1サーバ装置20から、ボート402a~402fの位置情報及び時間情報を取得する。位置情報及び時間情報の取得方法は、図4を用いて説明したとおりである。 Returning to the description of the flowchart of FIG. In step S640, the control unit 190 acquires the position information of the boats 402a to 402f in the boat race field 401 in the real world. That is, when the race by the boats 402a to 402f is started in the real world, the control unit 190 acquires the position information and the time information of the boats 402a to 402f from the first server device 20. The method of acquiring the position information and the time information is as described with reference to FIG.

ステップS650において、制御部190は、ステップS640において取得した位置情報と移動オブジェクトとが連動するよう制御する。具体的には、時間情報と位置情報とを用いて、レース場オブジェクト501上におけるボート402a~402fそれぞれの動きが、ボートレース場401上における移動オブジェクト502a~502fと同様になるように制御する。 In step S650, the control unit 190 controls so that the position information acquired in step S640 and the moving object are interlocked with each other. Specifically, using the time information and the position information, the movements of the boats 402a to 402f on the race field object 501 are controlled to be the same as the movement objects 502a to 502f on the boat race field 401.

ステップS640及びS650の処理は、少なくとも現実世界におけるレースの開始時点から終了時点まで繰り返されるが、現実世界におけるレースの開始前及び終了後においても繰り返されてもよい。 The process of steps S640 and S650 is repeated at least from the start to the end of the race in the real world, but may be repeated before and after the start and end of the race in the real world.

なお、仮想レースとして表示するレースが過去のレースである場合、仮想レースの開始前に、レースの開始から終了までのボート402a~402fの位置情報等をまとめて取得してもよい。また、位置情報等は取得せずに、レースタイム情報のみを取得して、仮想レースを表示してもよい。仮想レースとして表示するレースは、展示レースであってもよい。 If the race displayed as a virtual race is a past race, the position information of the boats 402a to 402f from the start to the end of the race may be collectively acquired before the start of the virtual race. Further, the virtual race may be displayed by acquiring only the race time information without acquiring the position information and the like. The race displayed as a virtual race may be an exhibition race.

現実世界におけるレースの終了後、アプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の表示制御処理を終了する。 After the end of the race in the real world, a series of display control processes are terminated in response to the acceptance of the operation input for terminating the application program 151.

図9は、音声制御に関する処理の一例を示すフローチャートである。図9に示す各処理は、図6に示す各処理のいずれかの前後に実行又は図6に示す各処理のいずれかと並列的に実行されうる。 FIG. 9 is a flowchart showing an example of processing related to voice control. Each process shown in FIG. 9 may be executed before or after any of the processes shown in FIG. 6 or may be executed in parallel with any of the processes shown in FIG.

まず、ステップS901Aにおいて、ユーザ端末10Aの制御部190は、ユーザの操作入力に基づいて、アプリケーションプログラム151を起動する。 First, in step S901A, the control unit 190 of the user terminal 10A activates the application program 151 based on the user's operation input.

次に、ステップS902Aにおいて、ユーザ端末10Aの制御部190は、音声ライブモードの選択を受け付ける。ステップS902Aは、例えば、ユーザが音声ライブモードを開始するための仮想ボタンをタップする等の操作入力をしたことに応じて実行されうる。なお、「音声ライブモード」とは、レース関連音声情報のうちの1以上をユーザ端末10Aにおいて出力可能とするモードである。 Next, in step S902A, the control unit 190 of the user terminal 10A accepts the selection of the audio live mode. Step S902A may be executed in response to, for example, an operation input such as tapping a virtual button for starting the voice live mode by the user. The "voice live mode" is a mode in which one or more of the race-related voice information can be output from the user terminal 10A.

次に、ステップS903Aにおいて、ユーザ端末10Aの制御部190は、ディスプレイ132上にユーザAのアバターを表示する。なお、アバターとは、ユーザに対応するユーザ画像である。アバターの容姿や服装等は、例えば、予めユーザによって選択可能でありうる。アバターは、2次元モデルでも3次元モデルでもよい。アバターは、所定のキャラクタの一部(例えば、顔部)を表す画像であってもよい。 Next, in step S903A, the control unit 190 of the user terminal 10A displays the avatar of the user A on the display 132. The avatar is a user image corresponding to the user. The appearance, clothes, and the like of the avatar can be selected in advance by the user, for example. The avatar may be a two-dimensional model or a three-dimensional model. The avatar may be an image representing a part of a predetermined character (for example, a face part).

次に、ステップS904Aにおいて、ユーザ端末10Aの制御部190は、ユーザAが発した音声をマイク161ユーザ音声情報として取得する。次に、ステップS905Aにおいて、ユーザ端末10Aの制御部190は、ユーザAのユーザ音声情報を第1サーバ装置20へ送信する。ステップS905Aが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、ユーザAのユーザ音声情報を受信し、取得する。 Next, in step S904A, the control unit 190 of the user terminal 10A acquires the voice emitted by the user A as the microphone 161 user voice information. Next, in step S905A, the control unit 190 of the user terminal 10A transmits the user voice information of the user A to the first server device 20. In response to the execution of step S905A, in step S906, the control unit 290 of the first server device 20 receives and acquires the user voice information of the user A.

ユーザBのユーザ端末10Bにおいても、ステップS901B~ステップS905Bの各処理が実行される。ステップS901B~ステップS905Bは、それぞれ、ステップS901A~ステップS905Aと同様の処理である。ステップS905Bが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、ユーザBのユーザ音声情報を受信し、取得する。なお、その他のユーザ端末10においても、ユーザ端末10A,10Bと同様の処理がされうる。 Each process of step S901B to step S905B is also executed in the user terminal 10B of the user B. Steps S901B to S905B are the same processes as steps S901A to S905A, respectively. In response to the execution of step S905B, in step S906, the control unit 290 of the first server device 20 receives and acquires the user voice information of the user B. The other user terminals 10 can also perform the same processing as the user terminals 10A and 10B.

また、ステップS904Cにおいて、コンピュータ装置Cの制御部は、レースを実況する実況者の音声情報である実況音声情報を取得する。次に、ステップS905Cにおいて、コンピュータ装置Cの制御部は、実況音声情報を第1サーバ装置20へ送信する。ステップS905Cが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、実況音声情報を受信し、取得する。 Further, in step S904C, the control unit of the computer device C acquires the live voice information which is the voice information of the live person who is playing the race. Next, in step S905C, the control unit of the computer device C transmits the live voice information to the first server device 20. In response to the execution of step S905C, in step S906, the control unit 290 of the first server device 20 receives and acquires the live voice information.

コンピュータ装置Cとしては、集音機能を備えているものであれば、特に制限はされない。コンピュータ装置Cは、第2サーバ装置40であってもよい。コンピュータ装置Cは、第1情報を第1サーバ装置20へ送信するサーバ装置と同一であってもよいし、異なるサーバ装置であってもよい。 The computer device C is not particularly limited as long as it has a sound collecting function. The computer device C may be the second server device 40. The computer device C may be the same as the server device that transmits the first information to the first server device 20, or may be a different server device.

また、ステップS904Dにおいて、コンピュータ装置Dの制御部は、現実世界のレース場で集音された現場音の音声から現場音情報を取得する。次に、ステップS905Dにおいて、コンピュータ装置Dの制御部は、現場音情報を第1サーバ装置20へ送信する。ステップS905Dが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、現場音情報を受信し、取得する。 Further, in step S904D, the control unit of the computer device D acquires the site sound information from the sound of the site sound collected in the race field in the real world. Next, in step S905D, the control unit of the computer device D transmits the on-site sound information to the first server device 20. In response to the execution of step S905D, in step S906, the control unit 290 of the first server device 20 receives and acquires the on-site sound information.

コンピュータ装置Dとしては、集音機能を備えているものであれば、特に制限はされない。コンピュータ装置Dは、第2サーバ装置40であってもよい。コンピュータ装置Dは、第1情報を第1サーバ装置20へ送信するサーバ装置と同一であってもよいし、異なるサーバ装置であってもよい。 The computer device D is not particularly limited as long as it has a sound collecting function. The computer device D may be the second server device 40. The computer device D may be the same as the server device that transmits the first information to the first server device 20, or may be a different server device.

ステップS906にて取得された各音声情報は、レース関連音声情報として記憶される。なお、本実施形態では、ユーザ音声情報、実況音声情報、及び現場音情報の3種が取得される例を挙げているが、ステップS906で取得されるものは上記3種のうちのいずれか1以上であればよい。 Each voice information acquired in step S906 is stored as race-related voice information. In this embodiment, an example in which three types of user voice information, live voice information, and on-site sound information are acquired is given, but the one acquired in step S906 is any one of the above three types. Anything above that is fine.

次に、ステップS907において、制御部290は、各ユーザ端末10に送信するレース関連音声情報を選出する。ステップS907では、例えば、各ユーザ端末10からの要求に応じて、ユーザ音声情報(他ユーザ音声情報を含む)、実況音声情報、及び現場音情報のうちから1以上の音声情報を選出する。 Next, in step S907, the control unit 290 selects race-related voice information to be transmitted to each user terminal 10. In step S907, for example, one or more voice information is selected from the user voice information (including other user voice information), the live voice information, and the on-site sound information in response to a request from each user terminal 10.

具体的には、ユーザ端末10Aにおいて、仮想レースの表示とともにユーザ音声情報を出力するように設定されている場合、ステップS907では、ユーザ端末10Aに送信するレース関連音声情報として、上記仮想レースを表示しているユーザ端末10から取得したユーザ音声情報が選出される。また、ユーザ端末10Bにおいて、仮想レースの表示とともに実況音声情報及び現場音情報を出力するように設定されている場合、ステップS907では、ユーザ端末10Bに送信するレース関連音声情報として、上記仮想レースに対応する実況音声情報及び現場音情報が選出される。なお、各ユーザ端末10においてどのレース関連音声情報を出力するかは、各ユーザが設定可能であることが好ましい。 Specifically, when the user terminal 10A is set to output the user voice information together with the display of the virtual race, in step S907, the virtual race is displayed as the race-related voice information to be transmitted to the user terminal 10A. The user voice information acquired from the user terminal 10 is selected. Further, when the user terminal 10B is set to output the live voice information and the site sound information together with the display of the virtual race, in step S907, the race-related voice information to be transmitted to the user terminal 10B is set to the above virtual race. Corresponding live audio information and on-site sound information are selected. It is preferable that each user can set which race-related voice information is output in each user terminal 10.

また、ステップS907において、ユーザ音声情報が選出される場合、制御部290は、さらに、所定の選出基準に基づいて、複数の他ユーザ音声情報のうちから1以上の他ユーザ音声情報を選出してもよい。選出基準は、例えば、図10に示すようなデータテーブルから取得される的中率、回収率、及びフォロー関係のうちの1以上である。 Further, when the user voice information is selected in step S907, the control unit 290 further selects one or more other user voice information from the plurality of other user voice information based on a predetermined selection criterion. May be good. The selection criterion is, for example, one or more of the hit rate, the recovery rate, and the follow-up relationship obtained from the data table as shown in FIG.

図10は、本実施形態に係るデータテーブルの一例である。図10の(a)に示すデータテーブル1001は、各ユーザの的中率や回収率を示すものである。データテーブル1001において、的中率(%)は、「(的中レース数/購入レース数)×100」で算出される値であり、回収率(%)は、「(回収金額/購入金額)×100」で算出される値である。 FIG. 10 is an example of a data table according to this embodiment. The data table 1001 shown in FIG. 10A shows the hit rate and the recovery rate of each user. In the data table 1001, the hit rate (%) is a value calculated by "(number of hit races / number of purchased races) x 100", and the recovery rate (%) is "(collection amount / purchase amount)". It is a value calculated by "x100".

選出基準が的中率及び/又は回収率である場合、例えば、所定期間における的中率及び/又は回収率が上位のユーザのユーザ音声情報が優先的に他ユーザ音声情報として選出される。図10の(a)の例において、的中率が選出基準である場合の優先順位は、ユーザ001、ユーザ003、ユーザ002の順である。また、回収率が選出基準である場合の優先順位は、ユーザ002、ユーザ001、ユーザ003の順である。 When the selection criterion is the hit rate and / or the recovery rate, for example, the user voice information of the user having the higher hit rate and / or the recovery rate in a predetermined period is preferentially selected as the other user voice information. In the example of FIG. 10A, when the hit rate is the selection criterion, the order of priority is user 001, user 003, and user 002. When the collection rate is the selection criterion, the order of priority is user 002, user 001, and user 003.

また、ステップS907では、例えば、的中率及び/又は回収率が所定の閾値以上であるユーザのユーザ音声情報のみを選出してもよい。例えば、的中率の閾値を80%とした場合、ステップS907において選出される他ユーザ音声情報は、ユーザ001の音声情報のみである。 Further, in step S907, for example, only the user voice information of the user whose hit rate and / or recovery rate is equal to or higher than a predetermined threshold value may be selected. For example, when the threshold value of the hit rate is 80%, the voice information of other users selected in step S907 is only the voice information of user 001.

図10の(b)に示すデータテーブル1002は、各ユーザのフォロー相手を示すものである。データテーブル1002の例では、ユーザ001は、少なくともユーザ002~004をフォロー相手として設定している。選出基準がユーザ間のフォロー関係である場合、ステップS907において、ユーザ001のユーザ端末10では、ユーザ002~004のユーザ音声情報が他ユーザ音声情報として選出される。 The data table 1002 shown in FIG. 10B shows the followers of each user. In the example of the data table 1002, the user 001 sets at least the users 002 to 004 as followers. When the selection criterion is a follow-up relationship between users, in step S907, the user voice information of the users 002 to 004 is selected as the other user voice information on the user terminal 10 of the user 001.

なお、ユーザ001とユーザ002とは、双方向的にフォローし合っている関係性である。一方で、ユーザ001とユーザ003とは、ユーザ001がユーザ003を一方的にフォローしている関係性である。ステップS907では、さらに、このようなフォロー関係の種類に基づいて、選出の際の優先順位をつけてもよい。 It should be noted that user 001 and user 002 are bidirectionally following each other. On the other hand, the user 001 and the user 003 are in a relationship in which the user 001 unilaterally follows the user 003. In step S907, the selection may be prioritized based on the type of follow-up relationship.

また、ステップS907では、ユーザ間のフォロー関係に代えて又は加えて、アプリケーションプログラム151を介したユーザ間の交流に応じて上昇する親密度に基づいて、選出の際の優先順位をつけてもよい。 Further, in step S907, in place of or in addition to the follow-up relationship between users, the selection may be prioritized based on the intimacy that increases in response to the interaction between users via the application program 151. ..

また、ステップS907では、各レース関連音声情報に含まれる取得時間情報を選出基準の1つとしてもよい。具体的には、ステップS907では、取得時間情報が示す時間が、現在の時間から所定の時間以内のものを優先的に選出してもよい。 Further, in step S907, the acquisition time information included in each race-related voice information may be used as one of the selection criteria. Specifically, in step S907, the time indicated by the acquisition time information may be preferentially selected within a predetermined time from the current time.

図9のフローチャートの説明に戻る。ステップS908において、制御部290は、各ユーザ端末10に対して、各ユーザ端末10への送信内容として選出されたレース関連音声情報を送信する。ステップS908における送信内容は、ユーザ端末10毎に異なりうる。 Returning to the description of the flowchart of FIG. In step S908, the control unit 290 transmits the race-related voice information selected as the transmission content to each user terminal 10 to each user terminal 10. The transmission content in step S908 may differ for each user terminal 10.

ユーザ端末10Aに対してステップS908が実行されたことに応じて、ステップS909Aにおいて、ユーザ端末10Aの制御部290は、第1サーバ装置20から送信されたレース関連音声情報を受信し、取得する。 In response to the execution of step S908 for the user terminal 10A, in step S909A, the control unit 290 of the user terminal 10A receives and acquires the race-related voice information transmitted from the first server device 20.

次に、ステップS910Aにおいて、ユーザ端末10Aの制御部290は、ステップS909Aにおいて取得したレース関連音声情報をアプリケーションプログラム151上に反映させる。具体的には、ステップS910Aにおいて、ユーザ端末10Aの制御部290は、レース関連音声情報に基づいて音声を出力する。また、ステップS910Aでは、出力される音声に対応するテキスト情報をディスプレイ132上に表示してもよい。 Next, in step S910A, the control unit 290 of the user terminal 10A reflects the race-related voice information acquired in step S909A on the application program 151. Specifically, in step S910A, the control unit 290 of the user terminal 10A outputs voice based on race-related voice information. Further, in step S910A, the text information corresponding to the output voice may be displayed on the display 132.

ステップS903A~ステップS910Aの各処理は、仮想レースの表示中において繰り返される。ユーザ端末10Aの制御部290は、音声ライブモード又はアプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の音声制御処理を終了する。 Each process of steps S903A to S910A is repeated during the display of the virtual race. The control unit 290 of the user terminal 10A ends a series of voice control processes in response to receiving an operation input for terminating the voice live mode or the application program 151.

また、ユーザ端末10Bに対してステップS908が実行されたことに応じて、ユーザBのユーザ端末10Bにおいても、ステップS909B及びS910Bの各処理が実行される。ステップS909B及びS910Bは、それぞれ、ステップS909A~ステップS910Aと同様の処理である。ただし、ステップS909Bにおいて取得されるレース関連音声情報は、ステップS909Aにおいて取得されるものとは異なりうる。 Further, in response to the execution of step S908 for the user terminal 10B, the processes of steps S909B and S910B are also executed for the user terminal 10B of the user B. Steps S909B and S910B are the same processes as in steps S909A to S910A, respectively. However, the race-related audio information acquired in step S909B may be different from that acquired in step S909A.

図11は、本実施形態に係る表示画面の一例を示す模式図である。図11は、例えば、ステップS910Aにおいてユーザ端末10Aのディスプレイ132に表示される表示画面である。なお、図11は、ステップS909Aにおいて、ユーザAの音声に基づくユーザ音声情報と、ユーザAとは異なる他ユーザの他ユーザ音声情報を受信した場合の例である。 FIG. 11 is a schematic diagram showing an example of a display screen according to the present embodiment. FIG. 11 is, for example, a display screen displayed on the display 132 of the user terminal 10A in step S910A. Note that FIG. 11 is an example in which the user voice information based on the voice of the user A and the voice information of another user of another user different from the user A are received in step S909A.

図11の例において、ディスプレイ132上では、移動オブジェクト502a~502eを用いた仮想レースが表示されている。移動オブジェクト502cは、例えば、ユーザAが賭けている移動体であり、その上部に枠番号を表示されている。 In the example of FIG. 11, the virtual race using the moving objects 502a to 502e is displayed on the display 132. The moving object 502c is, for example, a moving object bet by the user A, and a frame number is displayed above the moving object 502c.

また、ディスプレイ132には、仮想レースの表示とともに、モード表示欄1101、テキスト表示ボタン1102、音声出力ボタン1103、及びテキスト欄1110が表示されている。 Further, on the display 132, the mode display field 1101, the text display button 1102, the voice output button 1103, and the text field 1110 are displayed together with the display of the virtual race.

モード表示欄1101は、音声ライブモードが選択されていることを表示する欄である。ユーザが音声ライブモードを解除する操作入力をした場合、モード表示欄1101にその旨が表示される、又は、モード表示欄1101は非表示になる。 The mode display field 1101 is a field for displaying that the audio live mode is selected. When the user inputs an operation to cancel the voice live mode, that fact is displayed in the mode display field 1101 or the mode display field 1101 is hidden.

また、モード表示欄1101には、その仮想レースを同時に観戦しているユーザの人数が表示される。これにより、ユーザは、その仮想レースを観戦している人数を把握できるため、例えば、多数のユーザが観戦していて大きな盛り上がりが生じる可能性の高いレースを選択して観戦することが可能になる。なお、仮想レースの観戦者数に代えて又は加えて、その仮想レースにおいて音声ライブモードを選択しているユーザ数を表示してもよい。 Further, in the mode display field 1101, the number of users who are watching the virtual race at the same time is displayed. As a result, the user can grasp the number of people watching the virtual race, and for example, it becomes possible to select and watch a race in which a large number of users are watching and a large excitement is likely to occur. .. In addition to or in addition to the number of spectators in the virtual race, the number of users who have selected the voice live mode in the virtual race may be displayed.

テキスト表示ボタン1102は、テキスト欄1110の表示/非表示を切り替えるためのボタンである。音声出力ボタン1103は、レース関連音声情報に基づく音声出力のオン/オフを切り替えるボタンである。テキスト表示ボタン1102が表示状態で、音声出力ボタンがオフ状態である場合、レース関連音声情報に基づく音声は出力されずに、レース関連音声情報に基づくテキスト情報のみが表示されることになる。 The text display button 1102 is a button for switching display / non-display of the text field 1110. The voice output button 1103 is a button for switching on / off of voice output based on race-related voice information. When the text display button 1102 is in the display state and the voice output button is in the off state, the voice based on the race-related voice information is not output, and only the text information based on the race-related voice information is displayed.

テキスト欄1110には、ユーザAのアバター1111、ユーザAのユーザ音声情報に基づいて作成されたユーザテキスト欄1112、他ユーザの他ユーザ音声情報に基づいて作成された他ユーザテキスト欄1113a~1113d(以下、まとめて「他ユーザテキスト欄1113」とも称する)が表示されている。 In the text field 1110, the avatar 1111 of the user A, the user text field 1112 created based on the user voice information of the user A, and the other user text fields 1113a to 1113d created based on the other user voice information of the other user ( Hereinafter, (also collectively referred to as "other user text field 1113") is displayed.

アバター1111は、ユーザAが自己の画像として設定しているユーザ画像である。ステップS904AにてユーザAが「3 差してきた!!」と発声していた場合、ステップS910Aでは、「3 差してきた!!」という音声が出力される。また、その音声出力とあわせて、アバター1111の近傍のユーザテキスト欄1112には、上記音声内容に対応するテキスト情報に基づくテキストが表示される。 The avatar 1111 is a user image set by the user A as his / her own image. If the user A has uttered "3 has been inserted !!" in step S904A, the voice "3 has been inserted !!" is output in step S910A. Further, together with the voice output, a text based on the text information corresponding to the voice content is displayed in the user text field 1112 in the vicinity of the avatar 1111.

他ユーザテキスト欄1113には、ステップS907において選出された他ユーザ音声情報に対応するテキスト情報に基づくテキストが表示される。図11の例では、ユーザ名「USER109」のユーザ音声情報に基づいて「がんばれ!!」という音声出力がされ、その音声出力に対応するテキストが他ユーザテキスト欄1113aに表示される。 In the other user text field 1113, a text based on the text information corresponding to the other user voice information selected in step S907 is displayed. In the example of FIG. 11, the voice output of "Do your best !!" is output based on the user voice information of the user name "USER109", and the text corresponding to the voice output is displayed in the other user text field 1113a.

他ユーザテキスト欄1113には、例えば、音声出力がされた順に時系列に沿ってテキストが表示される。すなわち、他ユーザテキスト欄1113には、それぞれの他ユーザ音声情報に含まれる取得時間情報が示す取得時間が新しいものが表示され、古いものから順に消去されうる。なお、ユーザテキスト欄1112についても同様である。 In the other user text field 1113, for example, texts are displayed in chronological order in the order in which voice output is performed. That is, in the other user text field 1113, new acquisition times indicated by acquisition time information included in each other user voice information are displayed, and the oldest ones can be deleted in order. The same applies to the user text field 1112.

他ユーザテキスト欄1113には、他ユーザがその他ユーザの画像として設定している他ユーザ画像を表示し、その近傍に該他ユーザのテキスト情報に基づくテキストを表示してもよい。その他、テキスト欄1110には、従来のチャットやメッセージアプリ等で採用されている構成を適用してもよい。 In the other user text field 1113, another user image set by another user as another user's image may be displayed, and text based on the text information of the other user may be displayed in the vicinity thereof. In addition, the configuration adopted in the conventional chat, message application, or the like may be applied to the text field 1110.

図12は、本実施形態に係る表示画面の一例を示す模式図である。図12は、例えば、ステップS910Bにおいてユーザ端末10Bのディスプレイ132に表示される表示画面である。なお、図12は、ステップS909Bにおいて、実況音声情報及び現場音情報を受信した場合の例である。 FIG. 12 is a schematic diagram showing an example of a display screen according to the present embodiment. FIG. 12 is, for example, a display screen displayed on the display 132 of the user terminal 10B in step S910B. Note that FIG. 12 is an example in which the live voice information and the on-site sound information are received in step S909B.

図12の例において、ディスプレイ132上では、図11の例と同様の仮想レースが表示されている。ただし、図12の例は、仮想レースの視点が図11の例とは異なる。 In the example of FIG. 12, a virtual race similar to that of the example of FIG. 11 is displayed on the display 132. However, in the example of FIG. 12, the viewpoint of the virtual race is different from the example of FIG.

図12の例において、ディスプレイ132には、モード表示欄1101、実況者画像1201、実況テキスト欄1202、及び現場音テキスト欄1203が表示されている。 In the example of FIG. 12, the mode display field 1101, the live person image 1201, the live text field 1202, and the on-site sound text field 1203 are displayed on the display 132.

実況者画像1201は、仮想レースに対応する現実のレースを実況している実況者の画像である。実況者画像1201に表示されるものは、静止画であっても動画であってもよい。なお、ステップS904Cでは、実況者画像1201に示される実況者の実況音声から実況音声情報が生成される。また、ステップS910Bでは、ユーザ端末10Bから、実況音声情報に基づく実況音声が出力される。 The commentator image 1201 is an image of a commentator who is commenting on a real race corresponding to a virtual race. What is displayed in the commentary image 1201 may be a still image or a moving image. In step S904C, the live voice information is generated from the live voice of the live person shown in the live person image 1201. Further, in step S910B, the live voice based on the live voice information is output from the user terminal 10B.

実況テキスト欄1202は、実況音声情報に対応するテキスト情報に基づくテキストが表示される。実況テキスト欄1202におけるテキスト表示は、実況音声の出力にあわせて実行される。 In the live text field 1202, a text based on the text information corresponding to the live voice information is displayed. The text display in the live text field 1202 is executed in accordance with the output of the live voice.

現場音テキスト欄1203は、現場音情報に対応するテキスト情報に基づくテキストが表示される。現場音テキスト欄1203におけるテキスト表示は、現場音の出力にあわせて実行される。 In the field sound text field 1203, a text based on the text information corresponding to the field sound information is displayed. The text display in the field sound text field 1203 is executed in accordance with the output of the field sound.

実況テキスト欄1202及び現場音テキスト欄1203は、例えば、音声出力がされた順に時系列に沿ってテキストが表示され、古いものから順に消去されていく。また、実況テキスト欄1202及び現場音テキスト欄1203は、ユーザの操作入力に応じて、表示/非表示を切り替え可能であることが好ましい。また、図12の例において、さらに、図11で示したようなテキスト欄1110を表示してもよい。 In the live text field 1202 and the field sound text field 1203, for example, the texts are displayed in chronological order in the order in which the voice is output, and the oldest ones are deleted in order. Further, it is preferable that the live text field 1202 and the on-site sound text field 1203 can be switched between display and non-display according to the operation input of the user. Further, in the example of FIG. 12, the text field 1110 as shown in FIG. 11 may be further displayed.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above embodiments are merely examples for facilitating the understanding of the present invention, and are not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes its equivalents.

仮想レースとして表示するレースが過去のレースである場合であっても、仮想レースにおける各移動オブジェクトの位置情報に対応する時間情報と、各レース関連音声情報に含まれる取得時間情報とに基づいて、過去のレースを仮想的に表示しつつ、適切なレース関連音声情報に基づく音声出力が可能である。 Even if the race displayed as a virtual race is a past race, based on the time information corresponding to the position information of each moving object in the virtual race and the acquisition time information included in each race-related audio information, It is possible to output audio based on appropriate race-related audio information while virtually displaying past races.

また、本開示における音声出力は、レース開始の前後において実行してもよい。例えば、レース開始前後であっても、そのレースのレース場を仮想的に表示しているユーザのユーザ端末に対して、ユーザ音声情報(他ユーザ音声情報を含む)、実況(実況者による各種の解説)音声情報、及び現場音情報のうちのいずれか1以上を提供し、それぞれの音声情報に基づく音声出力等を実行してもよい。 In addition, the audio output in the present disclosure may be executed before and after the start of the race. For example, even before and after the start of a race, user voice information (including voice information of other users) and live commentary (various types by the commentator) are provided to the user terminal of the user who virtually displays the race track of the race. Explanation) One or more of the voice information and the on-site sound information may be provided, and voice output or the like based on the respective voice information may be executed.

[付記事項]
本開示の内容を列記すると以下の通りである。
[Additional notes]
The contents of this disclosure are listed below.

(項目1)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラム。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 1)
A program executed in a first computer equipped with a processor and an image pickup unit.
The program is attached to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
A step of receiving voice information related to the predetermined race from the second computer and outputting voice based on the voice information is executed.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
program.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.

(項目2)
前記プロセッサに、さらに、
前記表示するステップの実行中にユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を前記第2コンピュータに送信するステップを実行させ、
前記音声情報には、前記ユーザ音声情報、及び/又は、前記ユーザとは異なる他のユーザの第1コンピュータから前記第2コンピュータに送信された前記他のユーザのユーザ音声情報である他ユーザ音声情報が含まれる、
項目1に記載のプログラム。
これにより、仮想レースを観戦中に発せられた自己の音声、及び/又は、他ユーザの音声がユーザ端末から出力されることになるため、仮想レースの観戦を効果的に盛り上げることができる。
(Item 2)
In addition to the processor
A step of generating user voice information from the voice emitted by the user during the execution of the display step and transmitting the user voice information to the second computer is executed.
The voice information includes the user voice information and / or other user voice information which is the user voice information of the other user transmitted from the first computer of another user different from the user to the second computer. Is included,
The program described in item 1.
As a result, the voice of oneself and / or the voice of another user emitted while watching the virtual race is output from the user terminal, so that the watching of the virtual race can be effectively excited.

(項目3)
前記音声情報には、前記他ユーザ音声情報が少なくとも含まれ、
前記出力するステップでは、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報を出力し、
前記所定の選出基準は、前記ユーザと前記他ユーザとの関係性、及び前記他ユーザの所定期間における的中率又は回収率、のうちの1以上に基づくものである、
項目2に記載のプログラム。
これにより、複数の他ユーザ音声情報のうちから、そのユーザにとって有用であると思われる他ユーザ音声情報を選出することができるため、ユーザの満足度を高めることができる。
(Item 3)
The voice information includes at least the voice information of the other user.
In the output step, one or more other user voice information selected based on a predetermined selection criterion from a plurality of other user voice information is output.
The predetermined selection criteria are based on one or more of the relationship between the user and the other user, and the hit rate or recovery rate of the other user in a predetermined period.
The program described in item 2.
As a result, it is possible to select another user's voice information that is considered to be useful for that user from among a plurality of other user's voice information, so that the user's satisfaction can be enhanced.

(項目4)
前記関係性は、ユーザ間のフォロー関係であり、
前記出力するステップでは、複数の他ユーザ音声情報のうちから前記ユーザがフォローしている1以上の他ユーザの他ユーザ音声情報に基づいて音声を出力する、
項目3に記載のプログラム。
これにより、ユーザとフォロー関係にある他ユーザと一緒にレースを観戦しているような臨場感をユーザに与えることができるため、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 4)
The relationship is a follow-up relationship between users.
In the output step, voice is output based on the voice information of one or more other users followed by the user from among the voice information of the other users.
The program described in item 3.
As a result, it is possible to give the user a sense of reality as if he / she is watching the race with another user who has a follow-up relationship with the user, so that the watching of the virtual race can be more effectively excited.

(項目5)
前記表示するステップでは、さらに、前記ユーザに対応するユーザ画像、及び/又は、前記他のユーザに対応する他ユーザ画像を表示し、
前記表示するステップでは、さらに、前記ユーザ画像の近傍に前記ユーザ音声情報に基づいて作成されるテキスト情報を表示する、及び/又は、前記他ユーザ画像の近傍に前記他ユーザ音声情報に基づいて作成されるテキスト情報を表示する、
項目2から項目4のいずれか一項に記載のプログラム。
これにより、音声が聞き取れなかった場合でも音声の内容を確認可能になり、ユーザの満足度を高めることができる。また、仮想レースの観戦中に発した音声によってチャットや実況をしているかのような感覚をユーザに与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 5)
In the display step, a user image corresponding to the user and / or another user image corresponding to the other user is further displayed.
In the display step, text information created based on the user voice information is further displayed in the vicinity of the user image, and / or created based on the other user voice information in the vicinity of the other user image. Display text information that is
The program according to any one of items 2 to 4.
As a result, even if the voice cannot be heard, the content of the voice can be confirmed, and the user's satisfaction can be enhanced. In addition, the voice emitted while watching the virtual race can give the user the feeling of chatting or playing live, and the watching of the virtual race can be more effectively excited.

(項目6)
前記音声情報には、前記所定のレースの実況音声から生成される実況音声情報が含まれる、
項目1から項目5のいずれか一項に記載のプログラム。
これにより、仮想レースの観戦中のユーザに、実際のレースの中継をテレビ等で見ているような感覚を与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 6)
The audio information includes live audio information generated from the live audio of the predetermined race.
The program according to any one of items 1 to 5.
As a result, it is possible to give the user who is watching the virtual race the feeling of watching the actual race broadcast on TV or the like, and it is possible to more effectively enjoy watching the virtual race.

(項目7)
前記表示するステップでは、さらに、前記実況音声情報に基づいて作成されるテキスト情報を表示する、
項目6に記載のプログラム。
これにより、実況音声が聞き取れなかった場合でも実況音声の内容を確認可能になり、ユーザの満足度を高めることができる。
(Item 7)
In the display step, further, text information created based on the live voice information is displayed.
The program according to item 6.
As a result, even if the live voice cannot be heard, the content of the live voice can be confirmed, and the user's satisfaction can be enhanced.

(項目8)
前記音声情報には、前記所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報が含まれる、
項目1から項目7のいずれか一項に記載のプログラム。
これにより、まるで実際のレース場にいるかのような臨場感をユーザに与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 8)
The audio information includes on-site sound information generated from on-site sounds collected at a real-world race track where the predetermined race is performed.
The program according to any one of items 1 to 7.
As a result, it is possible to give the user a sense of realism as if he / she is in an actual race field, and it is possible to more effectively enjoy watching a virtual race.

(項目9)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させることを含み、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
情報処理方法。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 9)
An information processing method executed in a first computer equipped with a processor and an image pickup unit.
The information processing method is applied to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
The step of receiving the voice information related to the predetermined race from the second computer and outputting the voice based on the voice information includes executing the step.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
Information processing method.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.

(項目10)
プロセッサ及び撮像部を備えた情報処理装置であって、
前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
情報処理装置。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 10)
An information processing device equipped with a processor and an image pickup unit.
The processor
Receive the first information about a given race in the real world from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup unit.
The voice information related to the predetermined race is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
Information processing equipment.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.

(項目11)
第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムであって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、
前記所定のレースに関連する音声情報を取得し、
前記第1情報及び前記音声情報を第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報には、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、が含まれ、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
システム。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 11)
A system including a first computer provided with a first processor and an image pickup apparatus, and a second computer provided with a second processor and capable of communicating with the first computer.
The second processor is
Get the first information about a given race in the real world,
Acquire voice information related to the predetermined race and
The first information and the voice information are transmitted to the first computer,
The first processor is
The first information is received from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup device.
The voice information is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
system.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.

1:システム、10:ユーザ端末、20:第1サーバ装置、30:ネットワーク、40:第2サーバ装置、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、250:(第1サーバ装置の)記憶部、290:(第1サーバ装置の)制御部 1: System, 10: User terminal, 20: First server device, 30: Network, 40: Second server device, 130: Touch screen, 150: Storage unit (of user terminal), 190: Control (of user terminal) Unit, 250: Storage unit (of the first server device), 290: Control unit (of the first server device)

Claims (11)

プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラム。
A program executed in a first computer equipped with a processor and an image pickup unit.
The program is attached to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
A step of receiving voice information related to the predetermined race from the second computer and outputting voice based on the voice information is executed.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
program.
前記プロセッサに、さらに、
前記表示するステップの実行中にユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を前記第2コンピュータに送信するステップを実行させ、
前記音声情報には、前記ユーザ音声情報、及び/又は、前記ユーザとは異なる他のユーザの第1コンピュータから前記第2コンピュータに送信された前記他のユーザのユーザ音声情報である他ユーザ音声情報が含まれる、
請求項1に記載のプログラム。
In addition to the processor
A step of generating user voice information from the voice emitted by the user during the execution of the display step and transmitting the user voice information to the second computer is executed.
The voice information includes the user voice information and / or other user voice information which is the user voice information of the other user transmitted from the first computer of another user different from the user to the second computer. Is included,
The program according to claim 1.
前記音声情報には、前記他ユーザ音声情報が少なくとも含まれ、
前記出力するステップでは、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報に基づいて音声を出力し、
前記所定の選出基準は、前記ユーザと前記他ユーザとの関係性、及び前記他ユーザの所定期間における的中率又は回収率、のうちの1以上に基づくものである、
請求項2に記載のプログラム。
The voice information includes at least the voice information of the other user.
In the output step, voice is output based on one or more other user voice information selected based on a predetermined selection criterion from a plurality of other user voice information.
The predetermined selection criteria are based on one or more of the relationship between the user and the other user, and the hit rate or recovery rate of the other user in a predetermined period.
The program according to claim 2.
前記関係性は、ユーザ間のフォロー関係であり、
前記出力するステップでは、複数の他ユーザ音声情報のうちから前記ユーザがフォローしている1以上の他ユーザの他ユーザ音声情報に基づいて音声を出力する、
請求項3に記載のプログラム。
The relationship is a follow-up relationship between users.
In the output step, voice is output based on the voice information of one or more other users followed by the user from among the voice information of the other users.
The program according to claim 3.
前記表示するステップでは、さらに、前記ユーザに対応するユーザ画像、及び/又は、前記他のユーザに対応する他ユーザ画像を表示し、
前記表示するステップでは、さらに、前記ユーザ画像の近傍に前記ユーザ音声情報に基づいて作成されるテキスト情報を表示する、及び/又は、前記他ユーザ画像の近傍に前記他ユーザ音声情報に基づいて作成されるテキスト情報を表示する、
請求項2から請求項4のいずれか一項に記載のプログラム。
In the display step, a user image corresponding to the user and / or another user image corresponding to the other user is further displayed.
In the display step, text information created based on the user voice information is further displayed in the vicinity of the user image, and / or created based on the other user voice information in the vicinity of the other user image. Display text information that is
The program according to any one of claims 2 to 4.
前記音声情報には、前記所定のレースの実況音声から生成される実況音声情報が含まれる、
請求項1から請求項5のいずれか一項に記載のプログラム。
The audio information includes live audio information generated from the live audio of the predetermined race.
The program according to any one of claims 1 to 5.
前記表示するステップでは、さらに、前記実況音声情報に基づいて作成されるテキスト情報を表示する、
請求項6に記載のプログラム。
In the display step, further, text information created based on the live voice information is displayed.
The program according to claim 6.
前記音声情報には、前記所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報が含まれる、
請求項1から請求項7のいずれか一項に記載のプログラム。
The audio information includes on-site sound information generated from on-site sounds collected at a real-world race track where the predetermined race is performed.
The program according to any one of claims 1 to 7.
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させることを含み、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
情報処理方法。
An information processing method executed in a first computer equipped with a processor and an image pickup unit.
The information processing method is applied to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
The step of receiving the voice information related to the predetermined race from the second computer and outputting the voice based on the voice information includes executing the step.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
Information processing method.
プロセッサ及び撮像部を備えた情報処理装置であって、
前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
情報処理装置。
An information processing device equipped with a processor and an image pickup unit.
The processor
Receive the first information about a given race in the real world from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup unit.
The voice information related to the predetermined race is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
Information processing equipment.
第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムであって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、
前記所定のレースに関連する音声情報を取得し、
前記第1情報及び前記音声情報を第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報には、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、が含まれ、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
システム。
A system including a first computer provided with a first processor and an image pickup apparatus, and a second computer provided with a second processor and capable of communicating with the first computer.
The second processor is
Get the first information about a given race in the real world,
Acquire voice information related to the predetermined race and
The first information and the voice information are transmitted to the first computer,
The first processor is
The first information is received from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup device.
The voice information is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
system.
JP2021100027A 2020-10-30 2021-06-16 Program, information processing method, information processing apparatus, and system Active JP7303846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021100027A JP7303846B2 (en) 2020-10-30 2021-06-16 Program, information processing method, information processing apparatus, and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182772A JP6934552B1 (en) 2020-10-30 2020-10-30 Programs, information processing methods, information processing devices, and systems
JP2021100027A JP7303846B2 (en) 2020-10-30 2021-06-16 Program, information processing method, information processing apparatus, and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020182772A Division JP6934552B1 (en) 2020-10-30 2020-10-30 Programs, information processing methods, information processing devices, and systems

Publications (3)

Publication Number Publication Date
JP2022073925A true JP2022073925A (en) 2022-05-17
JP2022073925A5 JP2022073925A5 (en) 2022-12-15
JP7303846B2 JP7303846B2 (en) 2023-07-05

Family

ID=86996626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021100027A Active JP7303846B2 (en) 2020-10-30 2021-06-16 Program, information processing method, information processing apparatus, and system

Country Status (1)

Country Link
JP (1) JP7303846B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027344A (en) * 2000-07-04 2002-01-25 Dainippon Printing Co Ltd Mail interlocked program broadcasting system
JP2002084521A (en) * 2000-09-08 2002-03-22 Nec Mobiling Ltd Method and system for distributing video information, and recording medium
JP2007214909A (en) * 2006-02-09 2007-08-23 Matsushita Electric Ind Co Ltd Telephone device and telephoning method
US20100271367A1 (en) * 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
JP2011182109A (en) * 2010-02-26 2011-09-15 Sony Corp Content playback device
JP2018117328A (en) * 2017-01-20 2018-07-26 株式会社ミクシィ Information processing apparatus, control method for the same, and control program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027344A (en) * 2000-07-04 2002-01-25 Dainippon Printing Co Ltd Mail interlocked program broadcasting system
JP2002084521A (en) * 2000-09-08 2002-03-22 Nec Mobiling Ltd Method and system for distributing video information, and recording medium
JP2007214909A (en) * 2006-02-09 2007-08-23 Matsushita Electric Ind Co Ltd Telephone device and telephoning method
US20100271367A1 (en) * 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
JP2011182109A (en) * 2010-02-26 2011-09-15 Sony Corp Content playback device
JP2018117328A (en) * 2017-01-20 2018-07-26 株式会社ミクシィ Information processing apparatus, control method for the same, and control program

Also Published As

Publication number Publication date
JP7303846B2 (en) 2023-07-05

Similar Documents

Publication Publication Date Title
CN110300909B (en) Systems, methods, and media for displaying an interactive augmented reality presentation
JP6903805B1 (en) Programs, information processing methods, information processing devices, and systems
CN106464773B (en) Augmented reality device and method
WO2022118652A1 (en) Program, information processing method, information processing device, and system
JP7212721B2 (en) Program, information processing method, information processing apparatus, and system
JP6857785B1 (en) Programs, information processing methods, information processing devices, and systems
JP6934552B1 (en) Programs, information processing methods, information processing devices, and systems
JP7303846B2 (en) Program, information processing method, information processing apparatus, and system
JP6857776B1 (en) Programs, information processing methods, information processing devices, and systems
JP6903800B1 (en) Programs, information processing methods, information processing devices, and systems
JP6934547B1 (en) Programs, information processing methods, information processing devices, and systems
JP6896932B1 (en) Programs, information processing methods, information processing devices, and systems
JP6866540B1 (en) Programs, information processing methods, information processing devices, and systems
JP7324801B2 (en) Program, information processing method, information processing apparatus, and system
WO2022107638A1 (en) Program, information processing method, information processing device, and system
WO2022239403A1 (en) Program, information processing method, information processing device, and system
JP7303845B2 (en) Program, information processing method, information processing apparatus, and system
JP2022138681A (en) Program, information processing method, information processing device and system
JP2022080829A (en) Program, information processing method, information processing device and system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150