JP2022073925A - Program, information processing method, information processing device and system - Google Patents
Program, information processing method, information processing device and system Download PDFInfo
- Publication number
- JP2022073925A JP2022073925A JP2021100027A JP2021100027A JP2022073925A JP 2022073925 A JP2022073925 A JP 2022073925A JP 2021100027 A JP2021100027 A JP 2021100027A JP 2021100027 A JP2021100027 A JP 2021100027A JP 2022073925 A JP2022073925 A JP 2022073925A
- Authority
- JP
- Japan
- Prior art keywords
- information
- race
- user
- voice
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 16
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000011084 recovery Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 16
- 230000004044 response Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000270281 Coluber constrictor Species 0.000 description 1
- 241000283086 Equidae Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- OQZCSNDVOWYALR-UHFFFAOYSA-N flurochloridone Chemical compound FC(F)(F)C1=CC=CC(N2C(C(Cl)C(CCl)C2)=O)=C1 OQZCSNDVOWYALR-UHFFFAOYSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Abstract
Description
本開示は、プログラム、情報処理方法、情報処理装置、及びシステムに関する。 The present disclosure relates to programs, information processing methods, information processing devices, and systems.
特許文献1には、HMD(Head Mounted Display)を用いてユーザに仮想現実を提供する際に、HMDから音声を出力すること、及び、マイクによる音声入力を可能にすることが開示されている。特許文献2には、仮想現実空間において、ユーザ同士が音声コミュニケーションを行うための技術が開示されている。
特許文献3には、AR(Augmented Reality)グラス等を用いてユーザに拡張現実コンテンツを提供する際に、拡張現実コンテンツに含まれる音声のパラメータを調整して出力することが開示されている。特許文献4には、HMDを用いてユーザに拡張現実空間又は複合現実空間を提供する際に、仮想現実空間等の音声とユーザの周辺の実空間の音声とを合成した合成音声を出力することが開示されている。
ところで、現実世界においては、ボートレースや競馬などの様々なレースが実施されている。これらのレースを観戦するために実際にレース場へ足を運ぶ人々もいるが、実際にレース場へ足を運ぶことは、時間的又は地理的な制約により不可能な場合もある。 By the way, in the real world, various races such as boat races and horse races are carried out. Some people actually go to the race track to watch these races, but it may not be possible due to time or geographical constraints.
上記のような状況から、現実世界のレースに連動した仮想オブジェクトを用いて、現実世界のレースを仮想的なレースとして表示することができれば、実際にレース場へ行かずともレースを擬似的に観戦することができ、有益である。 From the above situation, if the real world race can be displayed as a virtual race using a virtual object linked to the real world race, you can watch the race in a simulated manner without actually going to the race track. Can be beneficial.
また、仮想的なレースを表示する際、レースに関連する音声によって仮想レースの観戦を盛り上げることができれば、ユーザに更なる楽しみを提供することができる。しかし、特許文献1~4に開示された技術は、現実世界のレースを仮想的なレースとして表示するものではなく、当然に、レースに関連する音声によって仮想レースの観戦を盛り上げるものでもなかった。
In addition, when displaying a virtual race, if the voice related to the race can excite the watching of the virtual race, it is possible to provide the user with further enjoyment. However, the techniques disclosed in
本開示の一態様は、レースに関連する音声によって仮想レースの観戦を盛り上げることを目的とする。 One aspect of the present disclosure is intended to enliven the spectator of a virtual race with audio related to the race.
本開示に示す一実施形態によれば、
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラムが提供される。
According to one embodiment presented in the present disclosure.
A program executed in a first computer equipped with a processor and an image pickup unit.
The program is attached to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
A step of receiving voice information related to the predetermined race from the second computer and outputting voice based on the voice information is executed.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
The program is offered.
本開示に示す一実施形態よれば、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。 According to one embodiment shown in the present disclosure, the watching of a virtual race can be enlivened by the voice related to the race.
以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の要素には同一の符号を付し、重複する説明を適宜省略する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same elements are designated by the same reference numerals, and duplicate description will be omitted as appropriate. In one or more embodiments shown in the present disclosure, the elements included in each embodiment may be combined with each other, and the combined result shall also form part of the embodiments shown in the present disclosure.
(システムの構成)
図1は、本実施の形態に従うシステム1の構成を示す図である。システム1は、例えば、現実世界で実施される所定のレースを、ユーザが使用する情報処理装置上において仮想オブジェクトを用いた仮想レースとして表示することが可能なものである。本明細書において、「所定のレース」とは、現実世界で実施されるレースであれば特に制限はされず、例えば、ボートレース(本番のレースや、展示レース)、競馬、競輪、オートレース、F1等のカーレース、ドローンレース、ドッグレース、マラソン、駅伝などが挙げられる。
(System configuration)
FIG. 1 is a diagram showing a configuration of a
図1に示すように、システム1は、各ユーザが使用する情報処理装置(第1コンピュータ)であるユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」とも称する)など複数のユーザ端末10と、第1サーバ装置(第2コンピュータ)20と、第2サーバ装置40と、ネットワーク30と、を含む。
As shown in FIG. 1, the
ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、例えば、タッチスクリーンを備える携帯型端末であり、スマートフォン、ファブレット、タブレットなどでありうる。
The
ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウエアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、第1サーバ装置20と通信し、所定のレースに関連するデータやユーザに関連するデータ等を第1サーバ装置20との間で送受信することにより、ユーザ端末10上で仮想レースを表示することを可能とする。
The
第1サーバ装置20は、所定のレースに関連するデータを、第2サーバ装置40から受信する。第1サーバ装置20は、所定のレースに関連するデータを、適宜、ユーザ端末10へ送信する。第1サーバ装置20は、所定のレースに関連するデータや、各ユーザに関連するデータを記憶して管理する。
The
第1サーバ装置20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ(第2プロセッサ)29と、を備え、これらが通信バスを介して互いに接続されている。
The
通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10や第2サーバ装置40などとの間でデータを送受信するためのインタフェースとして機能する。
The communication IF 22 supports various communication standards such as a LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from a
入出力IF23は、第1サーバ装置20への情報の入力を受け付けるとともに、第1サーバ装置20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含みうる。
The input /
メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random
Access Memory)等の記憶装置を含んで構成されている。
The
It is configured to include a storage device such as Access Memory).
ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報には、所定のレースに関連するデータ(音声情報を含む)や、各ユーザに関連するデータ等が含まれる。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されうる。なお、ストレージは、サーバ装置に含まれる形態に限られず、クラウドサービスを利用することもできる 。
The
プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、第1サーバ装置20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics
Processing Unit)等を含んで構成されうる。
The
Processing Unit) etc. may be included.
第2サーバ装置40は、所定のレースに関連するデータを記憶して管理している。第2サーバ装置40は、例えば、所定のレースの開催者が管理するサーバ装置や、所定のレースに関する情報を外部へ発信する団体(レース専門誌の発行者、レースの映像配信者又はラジオ配信者など)が管理するサーバ装置等である。第2サーバ装置40は、所定のレースに関連するデータを、適宜、第1サーバ装置20へ送信する。ある局面においては、第2サーバ装置40は、所定のレースに関連するデータをユーザ端末10へ送信してもよい。第2サーバ装置40のハードウェア構成は、矛盾の生じない範囲で、第1サーバ装置20と同様であってもよい。第2サーバ装置40は、複数あってもよい。
The
(ユーザ端末)
図2は、ユーザ端末10の機能的な構成の一例を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク161と、スピーカ162と、撮像部170と、制御部(第1プロセッサ)190と、を含む。
(User terminal)
FIG. 2 is a block diagram showing an example of the functional configuration of the
アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。
The
無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
Since the
タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの操作入力を受け付けるためのタッチパネル131と、ディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。
The
入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。
The input / output IF 140 functions as an interface for accepting input of information to the
記憶部150は、フラッシュメモリ、HDD等により構成され、ユーザ端末10が使用するプログラム、及び、ユーザ端末10が第1サーバ装置20等から受信する各種データ等を記憶する。
The
音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク161から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ162へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク161は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ162は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。
The
撮像部170は、ユーザ端末10の周囲の現実画像を撮像するカメラである。撮像部170によって撮像された画像は、制御部190によって画像処理がなされ、ディスプレイ132へ出力される。
The
制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。
The
制御部190がアプリケーションプログラム151を実行する処理について、より詳細に説明する。記憶部150は、アプリケーションプログラム151と、アプリケーション情報152と、ユーザ情報153と、音声情報154と、を記憶する。
The process of executing the
ユーザ端末10は、例えば、第1サーバ装置20からアプリケーションプログラム151をダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、第1サーバ装置20と通信することで、アプリケーション情報152及びユーザ情報153等の各種のデータを第1サーバ装置20と送受信する。
For example, the
アプリケーションプログラム151は、ユーザ端末10において仮想レースを表示するためのプログラムである。アプリケーション情報152は、アプリケーションプログラム151が参照する各種のデータを含む。アプリケーション情報152は、第1情報152Aを含む。
The
第1情報152Aは、第1サーバ装置20や第2サーバ装置40から送信された所定のレースに関する情報である。第1情報152Aとしては、例えば、所定のレースの出場者又は移動体(以下、「出場者等」とも称する)のレースタイムを示すレースタイム情報、所定のレースの実施中における出場者等の位置情報、当該位置情報に対応する時間情報と、が含まれる。
The
本明細書において、「出場者」とは、人間だけでなく、馬や犬などの動物も含む概念である。また、「移動体」とは、所定のレースにおいて移動の主体となるものであり、出場者が乗る動物や機体、出場者が遠隔操縦する機体などである。マラソンやドッグレース等では、「出場者」と「移動体」は同一となる。 As used herein, the term "participant" is a concept that includes not only humans but also animals such as horses and dogs. Further, the "moving body" is a main body of movement in a predetermined race, and is an animal or an aircraft on which a participant rides, an aircraft remotely controlled by a contestant, or the like. In marathons, dog races, etc., "participants" and "moving bodies" are the same.
第1情報152Aとしては、上記の他にも、例えば、所定のレースの名称、開催日時、レース場データ、出場者データ、移動体データ、オッズ情報、レース予想、レース出走表、レース直前情報、ピットレポート、レース結果、レース動画、レース静止画、過去のレース情報、その他の所定のレースに関する情報誌や情報サイトに掲載されうるような情報などを含んでもよい。
In addition to the above, the
ユーザ情報153は、ユーザ端末10のユーザについての情報を含む。ユーザ情報153は、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率(例えば、ボートレースであれば購入した舟券の履歴と、購入した舟券の的中率)などを含んでもよい。
The
音声情報154は、第1サーバ装置20から送信される所定のレースに関連する音声情報(以下、「レース関連音声情報」とも称する)を含む。音声情報154は、後述の音声取得部196によって取得されるユーザの音声情報(以下、「ユーザ音声情報」とも称する)を含んでもよい。
The
制御部190は、アプリケーションプログラム151を読み込んで実行することにより、操作入力受付部191と、送受信部192と、オブジェクト生成部193と、表示制御部194と、検出部195と、音声取得部196と、音声制御部197と、の各機能を発揮する。
By reading and executing the
操作入力受付部191は、タッチスクリーン130の出力に基づいて、ユーザの操作入力を受け付ける。具体的には、操作入力受付部191は、ユーザの指などがタッチパネル131に接触又は接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。
The operation
操作入力受付部191は、タッチスクリーン130に対するユーザの操作を判別する。操作入力受付部191は、例えば、「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「長押し操作(ロングタッチ操作)」、「ドラッグ操作(スワイプ操作)」、「ムーブ操作」、「フリック操作」、「ピンチイン操作」、「ピンチアウト操作」などのユーザの操作を判別する。
The operation
操作入力受付部191は、ユーザ端末10に搭載された加速度センサ等によって検出されるユーザ端末10の動きを、操作入力として受け付けてもよい。
The operation
送受信部192は、無線通信IF120及びネットワーク30を介して、第1サーバ装置20や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部192は、例えば、第1サーバ装置20又は第2サーバ装置40から第1情報152A及びレース関連音声情報を受信する。また、送受信部192は、例えば、操作入力受付部191が受け付けた操作入力に応じた情報や、ユーザ情報153に記憶された情報、音声取得部196が取得したユーザ音声情報等を第1サーバ装置20又は第2サーバ装置40へと送信する。
The transmission /
オブジェクト生成部193は、所定のレースに関する第2情報をユーザに提示するための仮想オブジェクトを、第1情報に基づいて生成する。本明細書において、「第2情報」とは、例えば、第1情報152Aの少なくとも一部、又は、第1情報152Aから算出される情報である。ある局面において、「第2情報」は、テキストとして提示可能な情報でありうる。ある局面において、「第2情報」は、所定のレース中の出場者等の順位又はレース結果として出場者等の順位を示す順位情報でありうる。
The
オブジェクト生成部193は、仮想オブジェクトとして、レース場を表すレース場オブジェクトと、出場者等を表す移動オブジェクトと、を生成する。オブジェクト生成部193は、第2情報をテキスト表示するための仮想表示板を生成してもよい。オブジェクト生成部193は、上記の各オブジェクトの他にも、第2情報を画像表示するための仮想スクリーン、各種の建物オブジェクト、木などの景観を構成する景観オブジェクト、ユーザのアバターとなるオブジェクト等を生成してもよい。
The
表示制御部194は、撮像部70により撮像されたユーザ端末10の周囲の現実画像に、オブジェクト生成部193により生成された仮想オブジェクトを重畳させた画像(以下、「重畳画像」とも称する)を、ディスプレイ132上に表示させる。表示制御部194は、第1情報152Aに含まれるレースタイム情報に基づいて、レース場オブジェクト上において移動オブジェクトを移動させ、所定のレースを仮想的に再現した仮想レースをディスプレイ132上に表示させる。表示制御部194は、レースタイム情報に加えて、第1情報152Aに含まれる出場者等の位置情報、及び当該位置情報に対応する時間情報に基づいて、仮想レースを再現するものであることが好ましい。
The
表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、重畳画像における視点を変更可能であることが好ましい。表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、ディスプレイ132に各種のメニュー画面やGUI(Graphical User Interface)を表示させたり、ディスプレイ132の表示内容を変更したりする。
It is preferable that the
検出部195は、撮像部170により撮像された現実画像内における平坦面を検出する。平坦面の検出は、従来公知の画像認識技術によって実現される。例えば、検出部195が検出した平坦面を選択する操作をユーザが行った場合、当該平坦面にレース場オブジェクトが配置された重畳画像がディスプレイ132に表示される。
The
平坦面は、水平面であることが好ましい。また、平坦面とレース場オブジェクトを構成する底面とのなす角度は0度であってもよいが、鋭角であることが好ましく、例えば、15度~45度の範囲にすることができる。上記角度は、ユーザの操作を受け付けて調節する態様とすることもできる。また、現実世界の平坦面の一部に凸部がある場合や、当該平坦面に載置物がある場合であっても、当該凸部や当該載置物がレース場オブジェクトによって隠れる程度のサイズならば、レース場オブジェクトを配置可能は平坦面として検出してもよい。 The flat surface is preferably a horizontal surface. Further, the angle formed by the flat surface and the bottom surface constituting the race field object may be 0 degrees, but is preferably an acute angle, and can be, for example, in the range of 15 degrees to 45 degrees. The above angle may be adjusted by accepting a user's operation. Also, even if there is a convex part on a part of the flat surface in the real world, or if there is an object on the flat surface, if the convex part or the object is of a size that can be hidden by the racetrack object. , The place where the race field object can be placed may be detected as a flat surface.
音声取得部196は、表示制御部194によって重畳画像が表示されている状態において、マイク161等を介してユーザが発した音声を取得し、ユーザ音声情報を生成する。音声取得部196は、ユーザの操作入力に応じて音声の取得を開始してもよいし、ユーザが発声したことを検知して音声の取得を開始してもよい。また、音声取得部196によって生成される音声情報には、音声が取得された時間を示す取得時間情報が含まれてもよい。また、音声取得部196によって生成される音声情報には、音声内容に対応するテキスト情報が含まれてもよい。音声取得部196が取得した音声情報は、送受信部192を介して、第1サーバ装置20に送信される。
The
音声制御部197は、送受信部192が受信したレース関連音声情報に基づいて、スピーカ162から音声を出力するように制御する。音声制御部197は、例えば、レース関連音声情報に基づいて音声信号を生成し、該音声信号を必要に応じて音声処理部160において復調し、スピーカ162から音声を出力させる。
The
音声制御部197による音声の出力は、表示制御部194による重畳画像の表示とともに行われる。ここで、表示制御部194は、音声制御部197による音声の出力とともに、該音声に対応するテキスト情報を表示してもよい。
The voice output by the
また、表示制御部194は、ユーザに対応するユーザ画像、及び/又は、他のユーザに対応する他ユーザ画像を表示してもよい。表示制御部194は、さらに、ユーザ画像の近傍にユーザ音声情報に基づいて作成されるテキスト情報を表示してもよく、他ユーザ画像の近傍に他ユーザ音声情報に基づいて作成されるテキスト情報を表示してもよい。
Further, the
(第1サーバ装置)
図3は、第1サーバ装置20の機能的な構成を示すブロック図である。図3を参照して、第1サーバ装置20の詳細な構成を説明する。第1サーバ装置20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。
(1st server device)
FIG. 3 is a block diagram showing a functional configuration of the
通信部220は、第1サーバ装置20がユーザ端末10や第2サーバ装置40などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。
The
記憶部250は、システム1を実現するための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、レース情報252と、ユーザ情報253と、音声情報254と、を記憶する。
The
プログラム251は、第1サーバ装置20がユーザ端末10や第2サーバ装置40と通信して、システム1を実現するためのプログラムである。プログラム251は、制御部290に実行されることにより、ユーザ端末10や第2サーバ装置40とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じた処理、レース情報252やユーザ情報253を更新する処理などを第1サーバ装置20に行わせる。
The
レース情報252は、所定のレースに関連する各種のデータを含む。レース情報252は、例えば、第1情報252Aを含む。第1情報252Aは、第1情報152Aの元となる情報であり、第1情報152Aは、第1情報252Aの一部でありうる。第1情報252Aは、例えば、第2サーバ装置40から取得された情報である。
ユーザ情報253は、ユーザ端末10のユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率などをユーザ毎に記憶している。
The
音声情報254は、レース関連音声情報を含む。レース関連音声情報には、例えば、ユーザ端末10Aから送信されたユーザAのユーザ音声情報、ユーザAとは異なるユーザBのユーザ端末10Bから送信されたユーザBのユーザ音声情報(ユーザAにとっての他ユーザ音声情報)、所定のレースの実況音声から生成される実況音声情報、及び所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報のうちの1以上が含まれうる。
The
また、レース関連音声情報には、その音声情報の元となった音声が取得された時間を示す取得時間情報や音声内容に対応するテキスト情報が含まれうる。テキスト情報は、各音声情報の送信元であるユーザ端末10、第2サーバ装置40又はその他のコンピュータ装置において生成されてもよいし、第1サーバ装置20において生成されてもよい。
Further, the race-related voice information may include acquisition time information indicating the time when the voice that is the source of the voice information was acquired and text information corresponding to the voice content. The text information may be generated in the
制御部290は、プロセッサ29によって実現され、プログラム251を実行することにより、送受信部291、第1情報取得部292、音声情報取得部293、選出部294、データ管理部295、計時部296としての機能を発揮する。
The
送受信部291は、通信部220及びネットワーク30を介して、ユーザ端末10や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部291は、例えば、第1情報252Aや音声情報254の少なくとも一部をユーザ端末10へ送信する。また、送受信部291は、例えば、第1情報252Aを第2サーバ装置40から受信する。
The transmission /
また、送受信部291は、例えば、ユーザ音声情報をユーザ端末10から受信する。また、送受信部291は、例えば、実況音声情報や現場音情報を第2サーバ装置40又は他のコンピュータ装置(図示せず)から受信する。
Further, the transmission /
第1情報取得部292は、送受信部291を介して、第1情報252Aを第2サーバ装置40から取得する。
The first
音声情報取得部293は、送受信部291を介して、1以上のユーザのユーザ音声情報、実況音声情報、及び現場音情報のうちの1以上をレース関連音声情報として取得する。
The voice
選出部294は、音声情報254に含まれるレース関連音声情報のうちから、ユーザ端末10に送信する情報を選出する。選出部294は、例えば、ユーザ端末10からの要求にしたがって、ユーザ音声情報、実況音声情報、及び現場音情報のうちのいずれか1以上をユーザ端末10に送信する情報として選出しうる。また、選出部294は、レース関連音声情報に含まれる取得時間情報に基づいて、ユーザ端末10に送信する情報を選出しうる。
The
ユーザ端末10Aに送信する情報としてユーザAにとっての他ユーザ音声情報が選出される場合、選出部294は、さらに、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて1以上の他ユーザ音声情報を選出することが好ましい。所定の選出基準は、特に制限されないが、例えば、ユーザと他ユーザとの関係性、及び他ユーザの所定期間における予想の的中率又は回収率、のうちの1以上に基づくものであることが好ましい。上記関係性は、特に制限されないが、例えば、ユーザ間のフォロー関係が挙げられる。また、上記所定期間は、特に制限されないが、例えば、直近の1年間、その年の春シーズンや秋シーズン等の期間などが挙げられる。なお、上記所定期間に代えて、ユーザが購入した直近の所定数のレース(例えば、直近100レース)を基準にして的中率や回収率を算出してもよい。
When other user voice information for user A is selected as information to be transmitted to the
フォロー関係とは、例えば、アプリ上における相手ユーザのコメント又は行動等が閲覧できる関係である。フォロー関係は、ユーザが特定のユーザを選択して一方的に設定可能なものでもよいし、ユーザが特定のユーザへ申請をした後に該特定のユーザからの承認を経て設定される双方向的なものでもよい。フォロー関係にあるユーザ同士は、例えば、メッセージの送受信等のコミュニケーションが可能であってもよい。フォロー関係には、いわゆるフレンド関係が含まれる。 The follow relationship is, for example, a relationship in which comments or actions of the other user on the application can be viewed. The follow relationship may be one that can be unilaterally set by the user by selecting a specific user, or is bidirectional, which is set after the user applies to the specific user and is approved by the specific user. It may be a thing. Users in a follow-up relationship may be able to communicate with each other, for example, by sending and receiving messages. Follow relationships include so-called friend relationships.
ある局面において、選出部294は、ユーザAがフォロー関係を結んでいる他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。また、ある局面において、選出部294は、レースにおける予想の的中率又は回収率の高い他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。また、ある局面において、選出部294は、ユーザAがフォロー関係を結んでいる他ユーザのうちでレースにおける予想の的中率又は回収率の高い他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。
In a certain aspect, the
データ管理部295は、第1情報取得部292、音声情報取得部293等における処理結果に従って、記憶部250に記憶される各種データを更新する処理を行う。計時部296は、時間を計測する処理を行う。計時部296によって計測される時間に基づいて、ユーザ端末10に表示される各種時間(例えば、レース開始までの時間など)が制御されうる。
The
(動作例)
次に、図4から図12を参照して、システム1における動作例について説明する。以下では、所定のレースがボートレースである場合を例示して説明をするが、以下の説明は、所定のレースが他のレースであっても適用可能である。また、以下では、ユーザ端末10と第1サーバ装置20の間、及び第1サーバ装置20と第2サーバ装置40の間でデータの送受信を行うものとして説明をするが、ある局面においては、ユーザ端末10と第2サーバ装置40とで直接的にデータの送受信をするように構成してもよい。
(Operation example)
Next, an operation example in the
図4は、現実世界のボートレース場の一例を示す模式図である。ボートレース場401には、2つのターンマーク403が設置されており、各ボートレーサーが乗るボート402a~402fによるレースが実施されている。レースが終了した場合、ボート402a~402fそれぞれのレースタイムを示すレースタイム情報が、第2サーバ装置40から第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。
FIG. 4 is a schematic diagram showing an example of a boat race field in the real world. Two turn marks 403 are installed in the
ボートレース場401には、撮像装置(カメラ)404a~404bが設けられている。撮像装置404aは、ボートレース場401の上方からボート402a~402fを視界に収める。撮像装置404bは、ボートレース場401の側方からボート402a~402fを視界に収める。撮像装置404a~404bによって撮像されたボート402a~402fの画像は、第2サーバ装置40へ送信される。第2サーバ装置40では、例えば、各画像の画像解析を行い、各画像の撮影時間におけるボート402a~402fそれぞれの位置を示す位置情報を算出する。算出された位置情報と、当該位置情報に対応する撮影時間に関する時間情報は、第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。なお、位置情報の算出は、第1サーバ装置20において実施してもよい。
The
また、撮像装置404a~404bに代えて、又は加えて、ボート402a~402fに、GPSセンサ等の位置センサを設置してもよい。位置センサによって取得されたボート402a~402fの位置情報と、当該位置情報が取得された時間を示す時間情報とは、最終的にユーザ端末10へと送信される。
Further, a position sensor such as a GPS sensor may be installed on the
図5は、ユーザ端末10に表示される仮想オブジェクトの一例を示す模式図である。図5の例では、仮想オブジェクトとして、レース場オブジェクト501と、移動オブジェクト502a~502fと、2つのターンマークオブジェクト503と、仮想表示板505と、が示されている。
FIG. 5 is a schematic diagram showing an example of a virtual object displayed on the
レース場オブジェクト501は、ボートレース場401を仮想的に表示したオブジェクトである。レース場オブジェクト501やターンマークオブジェクト503は、例えば、ボートレース場401のコース情報等のレース場データに基づいて作製されることが好ましく、ボートレース場401と対応する形状であることが好ましい。
The
移動オブジェクト502a~502fは、ボート402a~402fをそれぞれ仮想的に表示したオブジェクトであり、ボートを模した形状である。移動オブジェクト502a~502fは、レースタイム情報や、ボート402a~402fの位置情報及び当該位置情報に対応する時間情報に基づいて、レース場オブジェクト501を移動する。すなわち、レース場オブジェクト501及び移動オブジェクト502a~502fによって、現実世界のレースが仮想的なレースとしてユーザ端末10上で表示される。
The moving
なお、ボート402a~402fの位置情報及び時間情報がなくとも、レースタイム情報のみによって仮想レースを表示することも可能である。ただ、この場合、最終的な着順は現実世界のレースと同じものになるが、レース中の順位などのレース経過を再現することが困難である。
Even if there is no position information and time information of the
仮想表示板505は、テキスト情報を表示するオブジェクトである。仮想表示板505は、例えば、ボートレース場401において対応する存在のないオブジェクトである。仮想表示板505に表示するテキスト情報は、特に制限はされず、例えば、順位情報やオッズ情報等であってもよい。また、仮想表示板505に表示するテキスト情報は、ユーザの操作入力に基づいて変更可能であってもよい。
The
図6は、表示制御に関する処理の一例を示すフローチャートである。なお、以下で説明するフローチャート(図9を含む)を構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。また、各フローチャートにおいて各装置が実行する処理は、矛盾の生じない範囲で、他の装置によって実行されてもよい。 FIG. 6 is a flowchart showing an example of processing related to display control. The order of the processes constituting the flowchart (including FIG. 9) described below is random as long as the processing contents do not have any contradiction or inconsistency, and may be executed in parallel. Further, the process executed by each device in each flowchart may be executed by another device within a range that does not cause a contradiction.
図6及び図9に示される処理は、制御部190がアプリケーションプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現される。まず、ステップS610において、制御部190は、カメラである撮像部170を起動する。撮像部170によって、ユーザ端末10の周囲の現実画像が撮像される。
The processes shown in FIGS. 6 and 9 are realized by the
ステップS620において、制御部190は、撮像部170によって撮像された画像内における平坦面を検出する。ステップS630において、制御部190は、検出した平坦面に仮想オブジェクトを配置する。
In step S620, the
ここで、図7~図8を用いて、ステップS61
0、S620、及びS630の処理について具体的に説明する。図7は、撮像部170により撮像された現実画像の一例を示す模式図である。図7の例では、平坦なデスク701上に、キーボード702と、モニタ装置703と、が置かれている。
Here, using FIGS. 7 to 8, step S61
The processing of 0, S620, and S630 will be specifically described. FIG. 7 is a schematic diagram showing an example of a real image captured by the
ステップS610において撮像部170が起動されると、ディスプレイ132上に、撮像部170によって撮像されている現実画像が表示される。次に、ステップS620において、制御部190は、撮像部170によって撮像された画像内、すなわちディスプレイ132に表示された画像内における平坦面を検出する。
When the
図7では、領域704が平坦面として検出されている。領域704内にはキーボード702があるが、キーボード702はレース場オブジェクト501によって隠れる程度のサイズなので、制御部190は、領域704を平坦面として検出する。
In FIG. 7, the
図7に示す状態で、撮像部170によって撮像される位置を変更すれば、領域704の位置も変更されうる。領域704は、ディスプレイ132上において、例えば、所定の色を付加されて、他の部分とは区別可能に表示される。ユーザが領域704に対してタップ操作等を実行した場合、ステップS630において、制御部190は、領域704上にレース場オブジェクト501等の仮想オブジェクトを配置する。
If the position imaged by the
図8は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。図8において、モニタ装置703を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。仮想オブジェクトが表示されていない領域には、例えば、広告画像を表示してもよい。
FIG. 8 is a schematic diagram showing an example of a screen in which a virtual object is superimposed on a real image and displayed. In FIG. 8, the area with the dot pattern including the
図8では、仮想オブジェクトとして、レース場オブジェクト501と、複数の移動オブジェクト502と、2つのターンマークオブジェクト503と、505と、大型モニタオブジェクト506と、建物オブジェクト507a~507bと、その他の符号を付していない多数のオブジェクト(木オブジェクト、時計オブジェクト等)と、が表示されている。これらのオブジェクトは、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。
In FIG. 8, as virtual objects, a
図8は、領域704に含まれる平坦面と、レース場オブジェクト501を構成する底面とのなす角度が0度になるようにして、領域704上にレース場オブジェクト501を配置している。この場合、例えば、領域X1のような奥行方向にある領域や、移動オブジェクト502同士が重複して見づらくなることがある。また、大型モニタオブジェクト506の奥行方向側の領域などには、移動オブジェクト502が見えなくなる死角が生じうる。
In FIG. 8, the
しかし、図8に示す状態において、ユーザは、ディスプレイ132に表示される重畳画像の視点を変更可能である。例えば、ユーザがピンチイン操作やピンチアウト操作等の操作入力をした場合、撮像部170の視点位置がレース場オブジェクト501へ近づいたり遠ざかったりしうる。また、ユーザがユーザ端末10を持ったままディスプレイ132の奥行方向へ移動した場合や、手前方向に移動した場合も、撮像部170の視点位置がレース場オブジェクト501へ近づいたり遠ざかったりしうる。また、ユーザがディスプレイ132上の所定の位置を指定するような操作をした場合、視点位置が指定された位置へと移動しうる。このような視点変更によって、上述の視認性の問題は解消しうる。
However, in the state shown in FIG. 8, the user can change the viewpoint of the superimposed image displayed on the
また、平坦面とレース場オブジェクト501を構成する底面とのなす角度θが鋭角になるようにレース場オブジェクト501を配置することによっても、視認性に関する上述の問題を軽減しうる。
Further, by arranging the
図6のフローチャートの説明に戻る。ステップS640において、制御部190は、現実世界のボートレース場401におけるボート402a~402fの位置情報を取得する。すなわち、現実世界においてボート402a~402fによるレースが開始された場合、制御部190は、第1サーバ装置20から、ボート402a~402fの位置情報及び時間情報を取得する。位置情報及び時間情報の取得方法は、図4を用いて説明したとおりである。
Returning to the description of the flowchart of FIG. In step S640, the
ステップS650において、制御部190は、ステップS640において取得した位置情報と移動オブジェクトとが連動するよう制御する。具体的には、時間情報と位置情報とを用いて、レース場オブジェクト501上におけるボート402a~402fそれぞれの動きが、ボートレース場401上における移動オブジェクト502a~502fと同様になるように制御する。
In step S650, the
ステップS640及びS650の処理は、少なくとも現実世界におけるレースの開始時点から終了時点まで繰り返されるが、現実世界におけるレースの開始前及び終了後においても繰り返されてもよい。 The process of steps S640 and S650 is repeated at least from the start to the end of the race in the real world, but may be repeated before and after the start and end of the race in the real world.
なお、仮想レースとして表示するレースが過去のレースである場合、仮想レースの開始前に、レースの開始から終了までのボート402a~402fの位置情報等をまとめて取得してもよい。また、位置情報等は取得せずに、レースタイム情報のみを取得して、仮想レースを表示してもよい。仮想レースとして表示するレースは、展示レースであってもよい。
If the race displayed as a virtual race is a past race, the position information of the
現実世界におけるレースの終了後、アプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の表示制御処理を終了する。
After the end of the race in the real world, a series of display control processes are terminated in response to the acceptance of the operation input for terminating the
図9は、音声制御に関する処理の一例を示すフローチャートである。図9に示す各処理は、図6に示す各処理のいずれかの前後に実行又は図6に示す各処理のいずれかと並列的に実行されうる。 FIG. 9 is a flowchart showing an example of processing related to voice control. Each process shown in FIG. 9 may be executed before or after any of the processes shown in FIG. 6 or may be executed in parallel with any of the processes shown in FIG.
まず、ステップS901Aにおいて、ユーザ端末10Aの制御部190は、ユーザの操作入力に基づいて、アプリケーションプログラム151を起動する。
First, in step S901A, the
次に、ステップS902Aにおいて、ユーザ端末10Aの制御部190は、音声ライブモードの選択を受け付ける。ステップS902Aは、例えば、ユーザが音声ライブモードを開始するための仮想ボタンをタップする等の操作入力をしたことに応じて実行されうる。なお、「音声ライブモード」とは、レース関連音声情報のうちの1以上をユーザ端末10Aにおいて出力可能とするモードである。
Next, in step S902A, the
次に、ステップS903Aにおいて、ユーザ端末10Aの制御部190は、ディスプレイ132上にユーザAのアバターを表示する。なお、アバターとは、ユーザに対応するユーザ画像である。アバターの容姿や服装等は、例えば、予めユーザによって選択可能でありうる。アバターは、2次元モデルでも3次元モデルでもよい。アバターは、所定のキャラクタの一部(例えば、顔部)を表す画像であってもよい。
Next, in step S903A, the
次に、ステップS904Aにおいて、ユーザ端末10Aの制御部190は、ユーザAが発した音声をマイク161ユーザ音声情報として取得する。次に、ステップS905Aにおいて、ユーザ端末10Aの制御部190は、ユーザAのユーザ音声情報を第1サーバ装置20へ送信する。ステップS905Aが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、ユーザAのユーザ音声情報を受信し、取得する。
Next, in step S904A, the
ユーザBのユーザ端末10Bにおいても、ステップS901B~ステップS905Bの各処理が実行される。ステップS901B~ステップS905Bは、それぞれ、ステップS901A~ステップS905Aと同様の処理である。ステップS905Bが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、ユーザBのユーザ音声情報を受信し、取得する。なお、その他のユーザ端末10においても、ユーザ端末10A,10Bと同様の処理がされうる。
Each process of step S901B to step S905B is also executed in the
また、ステップS904Cにおいて、コンピュータ装置Cの制御部は、レースを実況する実況者の音声情報である実況音声情報を取得する。次に、ステップS905Cにおいて、コンピュータ装置Cの制御部は、実況音声情報を第1サーバ装置20へ送信する。ステップS905Cが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、実況音声情報を受信し、取得する。
Further, in step S904C, the control unit of the computer device C acquires the live voice information which is the voice information of the live person who is playing the race. Next, in step S905C, the control unit of the computer device C transmits the live voice information to the
コンピュータ装置Cとしては、集音機能を備えているものであれば、特に制限はされない。コンピュータ装置Cは、第2サーバ装置40であってもよい。コンピュータ装置Cは、第1情報を第1サーバ装置20へ送信するサーバ装置と同一であってもよいし、異なるサーバ装置であってもよい。
The computer device C is not particularly limited as long as it has a sound collecting function. The computer device C may be the
また、ステップS904Dにおいて、コンピュータ装置Dの制御部は、現実世界のレース場で集音された現場音の音声から現場音情報を取得する。次に、ステップS905Dにおいて、コンピュータ装置Dの制御部は、現場音情報を第1サーバ装置20へ送信する。ステップS905Dが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、現場音情報を受信し、取得する。
Further, in step S904D, the control unit of the computer device D acquires the site sound information from the sound of the site sound collected in the race field in the real world. Next, in step S905D, the control unit of the computer device D transmits the on-site sound information to the
コンピュータ装置Dとしては、集音機能を備えているものであれば、特に制限はされない。コンピュータ装置Dは、第2サーバ装置40であってもよい。コンピュータ装置Dは、第1情報を第1サーバ装置20へ送信するサーバ装置と同一であってもよいし、異なるサーバ装置であってもよい。
The computer device D is not particularly limited as long as it has a sound collecting function. The computer device D may be the
ステップS906にて取得された各音声情報は、レース関連音声情報として記憶される。なお、本実施形態では、ユーザ音声情報、実況音声情報、及び現場音情報の3種が取得される例を挙げているが、ステップS906で取得されるものは上記3種のうちのいずれか1以上であればよい。 Each voice information acquired in step S906 is stored as race-related voice information. In this embodiment, an example in which three types of user voice information, live voice information, and on-site sound information are acquired is given, but the one acquired in step S906 is any one of the above three types. Anything above that is fine.
次に、ステップS907において、制御部290は、各ユーザ端末10に送信するレース関連音声情報を選出する。ステップS907では、例えば、各ユーザ端末10からの要求に応じて、ユーザ音声情報(他ユーザ音声情報を含む)、実況音声情報、及び現場音情報のうちから1以上の音声情報を選出する。
Next, in step S907, the
具体的には、ユーザ端末10Aにおいて、仮想レースの表示とともにユーザ音声情報を出力するように設定されている場合、ステップS907では、ユーザ端末10Aに送信するレース関連音声情報として、上記仮想レースを表示しているユーザ端末10から取得したユーザ音声情報が選出される。また、ユーザ端末10Bにおいて、仮想レースの表示とともに実況音声情報及び現場音情報を出力するように設定されている場合、ステップS907では、ユーザ端末10Bに送信するレース関連音声情報として、上記仮想レースに対応する実況音声情報及び現場音情報が選出される。なお、各ユーザ端末10においてどのレース関連音声情報を出力するかは、各ユーザが設定可能であることが好ましい。
Specifically, when the
また、ステップS907において、ユーザ音声情報が選出される場合、制御部290は、さらに、所定の選出基準に基づいて、複数の他ユーザ音声情報のうちから1以上の他ユーザ音声情報を選出してもよい。選出基準は、例えば、図10に示すようなデータテーブルから取得される的中率、回収率、及びフォロー関係のうちの1以上である。
Further, when the user voice information is selected in step S907, the
図10は、本実施形態に係るデータテーブルの一例である。図10の(a)に示すデータテーブル1001は、各ユーザの的中率や回収率を示すものである。データテーブル1001において、的中率(%)は、「(的中レース数/購入レース数)×100」で算出される値であり、回収率(%)は、「(回収金額/購入金額)×100」で算出される値である。 FIG. 10 is an example of a data table according to this embodiment. The data table 1001 shown in FIG. 10A shows the hit rate and the recovery rate of each user. In the data table 1001, the hit rate (%) is a value calculated by "(number of hit races / number of purchased races) x 100", and the recovery rate (%) is "(collection amount / purchase amount)". It is a value calculated by "x100".
選出基準が的中率及び/又は回収率である場合、例えば、所定期間における的中率及び/又は回収率が上位のユーザのユーザ音声情報が優先的に他ユーザ音声情報として選出される。図10の(a)の例において、的中率が選出基準である場合の優先順位は、ユーザ001、ユーザ003、ユーザ002の順である。また、回収率が選出基準である場合の優先順位は、ユーザ002、ユーザ001、ユーザ003の順である。 When the selection criterion is the hit rate and / or the recovery rate, for example, the user voice information of the user having the higher hit rate and / or the recovery rate in a predetermined period is preferentially selected as the other user voice information. In the example of FIG. 10A, when the hit rate is the selection criterion, the order of priority is user 001, user 003, and user 002. When the collection rate is the selection criterion, the order of priority is user 002, user 001, and user 003.
また、ステップS907では、例えば、的中率及び/又は回収率が所定の閾値以上であるユーザのユーザ音声情報のみを選出してもよい。例えば、的中率の閾値を80%とした場合、ステップS907において選出される他ユーザ音声情報は、ユーザ001の音声情報のみである。 Further, in step S907, for example, only the user voice information of the user whose hit rate and / or recovery rate is equal to or higher than a predetermined threshold value may be selected. For example, when the threshold value of the hit rate is 80%, the voice information of other users selected in step S907 is only the voice information of user 001.
図10の(b)に示すデータテーブル1002は、各ユーザのフォロー相手を示すものである。データテーブル1002の例では、ユーザ001は、少なくともユーザ002~004をフォロー相手として設定している。選出基準がユーザ間のフォロー関係である場合、ステップS907において、ユーザ001のユーザ端末10では、ユーザ002~004のユーザ音声情報が他ユーザ音声情報として選出される。
The data table 1002 shown in FIG. 10B shows the followers of each user. In the example of the data table 1002, the user 001 sets at least the users 002 to 004 as followers. When the selection criterion is a follow-up relationship between users, in step S907, the user voice information of the users 002 to 004 is selected as the other user voice information on the
なお、ユーザ001とユーザ002とは、双方向的にフォローし合っている関係性である。一方で、ユーザ001とユーザ003とは、ユーザ001がユーザ003を一方的にフォローしている関係性である。ステップS907では、さらに、このようなフォロー関係の種類に基づいて、選出の際の優先順位をつけてもよい。 It should be noted that user 001 and user 002 are bidirectionally following each other. On the other hand, the user 001 and the user 003 are in a relationship in which the user 001 unilaterally follows the user 003. In step S907, the selection may be prioritized based on the type of follow-up relationship.
また、ステップS907では、ユーザ間のフォロー関係に代えて又は加えて、アプリケーションプログラム151を介したユーザ間の交流に応じて上昇する親密度に基づいて、選出の際の優先順位をつけてもよい。
Further, in step S907, in place of or in addition to the follow-up relationship between users, the selection may be prioritized based on the intimacy that increases in response to the interaction between users via the
また、ステップS907では、各レース関連音声情報に含まれる取得時間情報を選出基準の1つとしてもよい。具体的には、ステップS907では、取得時間情報が示す時間が、現在の時間から所定の時間以内のものを優先的に選出してもよい。 Further, in step S907, the acquisition time information included in each race-related voice information may be used as one of the selection criteria. Specifically, in step S907, the time indicated by the acquisition time information may be preferentially selected within a predetermined time from the current time.
図9のフローチャートの説明に戻る。ステップS908において、制御部290は、各ユーザ端末10に対して、各ユーザ端末10への送信内容として選出されたレース関連音声情報を送信する。ステップS908における送信内容は、ユーザ端末10毎に異なりうる。
Returning to the description of the flowchart of FIG. In step S908, the
ユーザ端末10Aに対してステップS908が実行されたことに応じて、ステップS909Aにおいて、ユーザ端末10Aの制御部290は、第1サーバ装置20から送信されたレース関連音声情報を受信し、取得する。
In response to the execution of step S908 for the
次に、ステップS910Aにおいて、ユーザ端末10Aの制御部290は、ステップS909Aにおいて取得したレース関連音声情報をアプリケーションプログラム151上に反映させる。具体的には、ステップS910Aにおいて、ユーザ端末10Aの制御部290は、レース関連音声情報に基づいて音声を出力する。また、ステップS910Aでは、出力される音声に対応するテキスト情報をディスプレイ132上に表示してもよい。
Next, in step S910A, the
ステップS903A~ステップS910Aの各処理は、仮想レースの表示中において繰り返される。ユーザ端末10Aの制御部290は、音声ライブモード又はアプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の音声制御処理を終了する。
Each process of steps S903A to S910A is repeated during the display of the virtual race. The
また、ユーザ端末10Bに対してステップS908が実行されたことに応じて、ユーザBのユーザ端末10Bにおいても、ステップS909B及びS910Bの各処理が実行される。ステップS909B及びS910Bは、それぞれ、ステップS909A~ステップS910Aと同様の処理である。ただし、ステップS909Bにおいて取得されるレース関連音声情報は、ステップS909Aにおいて取得されるものとは異なりうる。
Further, in response to the execution of step S908 for the
図11は、本実施形態に係る表示画面の一例を示す模式図である。図11は、例えば、ステップS910Aにおいてユーザ端末10Aのディスプレイ132に表示される表示画面である。なお、図11は、ステップS909Aにおいて、ユーザAの音声に基づくユーザ音声情報と、ユーザAとは異なる他ユーザの他ユーザ音声情報を受信した場合の例である。
FIG. 11 is a schematic diagram showing an example of a display screen according to the present embodiment. FIG. 11 is, for example, a display screen displayed on the
図11の例において、ディスプレイ132上では、移動オブジェクト502a~502eを用いた仮想レースが表示されている。移動オブジェクト502cは、例えば、ユーザAが賭けている移動体であり、その上部に枠番号を表示されている。
In the example of FIG. 11, the virtual race using the moving
また、ディスプレイ132には、仮想レースの表示とともに、モード表示欄1101、テキスト表示ボタン1102、音声出力ボタン1103、及びテキスト欄1110が表示されている。
Further, on the
モード表示欄1101は、音声ライブモードが選択されていることを表示する欄である。ユーザが音声ライブモードを解除する操作入力をした場合、モード表示欄1101にその旨が表示される、又は、モード表示欄1101は非表示になる。
The
また、モード表示欄1101には、その仮想レースを同時に観戦しているユーザの人数が表示される。これにより、ユーザは、その仮想レースを観戦している人数を把握できるため、例えば、多数のユーザが観戦していて大きな盛り上がりが生じる可能性の高いレースを選択して観戦することが可能になる。なお、仮想レースの観戦者数に代えて又は加えて、その仮想レースにおいて音声ライブモードを選択しているユーザ数を表示してもよい。
Further, in the
テキスト表示ボタン1102は、テキスト欄1110の表示/非表示を切り替えるためのボタンである。音声出力ボタン1103は、レース関連音声情報に基づく音声出力のオン/オフを切り替えるボタンである。テキスト表示ボタン1102が表示状態で、音声出力ボタンがオフ状態である場合、レース関連音声情報に基づく音声は出力されずに、レース関連音声情報に基づくテキスト情報のみが表示されることになる。
The
テキスト欄1110には、ユーザAのアバター1111、ユーザAのユーザ音声情報に基づいて作成されたユーザテキスト欄1112、他ユーザの他ユーザ音声情報に基づいて作成された他ユーザテキスト欄1113a~1113d(以下、まとめて「他ユーザテキスト欄1113」とも称する)が表示されている。
In the
アバター1111は、ユーザAが自己の画像として設定しているユーザ画像である。ステップS904AにてユーザAが「3 差してきた!!」と発声していた場合、ステップS910Aでは、「3 差してきた!!」という音声が出力される。また、その音声出力とあわせて、アバター1111の近傍のユーザテキスト欄1112には、上記音声内容に対応するテキスト情報に基づくテキストが表示される。
The
他ユーザテキスト欄1113には、ステップS907において選出された他ユーザ音声情報に対応するテキスト情報に基づくテキストが表示される。図11の例では、ユーザ名「USER109」のユーザ音声情報に基づいて「がんばれ!!」という音声出力がされ、その音声出力に対応するテキストが他ユーザテキスト欄1113aに表示される。
In the other user text field 1113, a text based on the text information corresponding to the other user voice information selected in step S907 is displayed. In the example of FIG. 11, the voice output of "Do your best !!" is output based on the user voice information of the user name "USER109", and the text corresponding to the voice output is displayed in the other
他ユーザテキスト欄1113には、例えば、音声出力がされた順に時系列に沿ってテキストが表示される。すなわち、他ユーザテキスト欄1113には、それぞれの他ユーザ音声情報に含まれる取得時間情報が示す取得時間が新しいものが表示され、古いものから順に消去されうる。なお、ユーザテキスト欄1112についても同様である。
In the other user text field 1113, for example, texts are displayed in chronological order in the order in which voice output is performed. That is, in the other user text field 1113, new acquisition times indicated by acquisition time information included in each other user voice information are displayed, and the oldest ones can be deleted in order. The same applies to the
他ユーザテキスト欄1113には、他ユーザがその他ユーザの画像として設定している他ユーザ画像を表示し、その近傍に該他ユーザのテキスト情報に基づくテキストを表示してもよい。その他、テキスト欄1110には、従来のチャットやメッセージアプリ等で採用されている構成を適用してもよい。
In the other user text field 1113, another user image set by another user as another user's image may be displayed, and text based on the text information of the other user may be displayed in the vicinity thereof. In addition, the configuration adopted in the conventional chat, message application, or the like may be applied to the
図12は、本実施形態に係る表示画面の一例を示す模式図である。図12は、例えば、ステップS910Bにおいてユーザ端末10Bのディスプレイ132に表示される表示画面である。なお、図12は、ステップS909Bにおいて、実況音声情報及び現場音情報を受信した場合の例である。
FIG. 12 is a schematic diagram showing an example of a display screen according to the present embodiment. FIG. 12 is, for example, a display screen displayed on the
図12の例において、ディスプレイ132上では、図11の例と同様の仮想レースが表示されている。ただし、図12の例は、仮想レースの視点が図11の例とは異なる。
In the example of FIG. 12, a virtual race similar to that of the example of FIG. 11 is displayed on the
図12の例において、ディスプレイ132には、モード表示欄1101、実況者画像1201、実況テキスト欄1202、及び現場音テキスト欄1203が表示されている。
In the example of FIG. 12, the
実況者画像1201は、仮想レースに対応する現実のレースを実況している実況者の画像である。実況者画像1201に表示されるものは、静止画であっても動画であってもよい。なお、ステップS904Cでは、実況者画像1201に示される実況者の実況音声から実況音声情報が生成される。また、ステップS910Bでは、ユーザ端末10Bから、実況音声情報に基づく実況音声が出力される。
The
実況テキスト欄1202は、実況音声情報に対応するテキスト情報に基づくテキストが表示される。実況テキスト欄1202におけるテキスト表示は、実況音声の出力にあわせて実行される。
In the
現場音テキスト欄1203は、現場音情報に対応するテキスト情報に基づくテキストが表示される。現場音テキスト欄1203におけるテキスト表示は、現場音の出力にあわせて実行される。
In the field
実況テキスト欄1202及び現場音テキスト欄1203は、例えば、音声出力がされた順に時系列に沿ってテキストが表示され、古いものから順に消去されていく。また、実況テキスト欄1202及び現場音テキスト欄1203は、ユーザの操作入力に応じて、表示/非表示を切り替え可能であることが好ましい。また、図12の例において、さらに、図11で示したようなテキスト欄1110を表示してもよい。
In the
上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above embodiments are merely examples for facilitating the understanding of the present invention, and are not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof, and the present invention includes its equivalents.
仮想レースとして表示するレースが過去のレースである場合であっても、仮想レースにおける各移動オブジェクトの位置情報に対応する時間情報と、各レース関連音声情報に含まれる取得時間情報とに基づいて、過去のレースを仮想的に表示しつつ、適切なレース関連音声情報に基づく音声出力が可能である。 Even if the race displayed as a virtual race is a past race, based on the time information corresponding to the position information of each moving object in the virtual race and the acquisition time information included in each race-related audio information, It is possible to output audio based on appropriate race-related audio information while virtually displaying past races.
また、本開示における音声出力は、レース開始の前後において実行してもよい。例えば、レース開始前後であっても、そのレースのレース場を仮想的に表示しているユーザのユーザ端末に対して、ユーザ音声情報(他ユーザ音声情報を含む)、実況(実況者による各種の解説)音声情報、及び現場音情報のうちのいずれか1以上を提供し、それぞれの音声情報に基づく音声出力等を実行してもよい。 In addition, the audio output in the present disclosure may be executed before and after the start of the race. For example, even before and after the start of a race, user voice information (including voice information of other users) and live commentary (various types by the commentator) are provided to the user terminal of the user who virtually displays the race track of the race. Explanation) One or more of the voice information and the on-site sound information may be provided, and voice output or the like based on the respective voice information may be executed.
[付記事項]
本開示の内容を列記すると以下の通りである。
[Additional notes]
The contents of this disclosure are listed below.
(項目1)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラム。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 1)
A program executed in a first computer equipped with a processor and an image pickup unit.
The program is attached to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
A step of receiving voice information related to the predetermined race from the second computer and outputting voice based on the voice information is executed.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
program.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.
(項目2)
前記プロセッサに、さらに、
前記表示するステップの実行中にユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を前記第2コンピュータに送信するステップを実行させ、
前記音声情報には、前記ユーザ音声情報、及び/又は、前記ユーザとは異なる他のユーザの第1コンピュータから前記第2コンピュータに送信された前記他のユーザのユーザ音声情報である他ユーザ音声情報が含まれる、
項目1に記載のプログラム。
これにより、仮想レースを観戦中に発せられた自己の音声、及び/又は、他ユーザの音声がユーザ端末から出力されることになるため、仮想レースの観戦を効果的に盛り上げることができる。
(Item 2)
In addition to the processor
A step of generating user voice information from the voice emitted by the user during the execution of the display step and transmitting the user voice information to the second computer is executed.
The voice information includes the user voice information and / or other user voice information which is the user voice information of the other user transmitted from the first computer of another user different from the user to the second computer. Is included,
The program described in
As a result, the voice of oneself and / or the voice of another user emitted while watching the virtual race is output from the user terminal, so that the watching of the virtual race can be effectively excited.
(項目3)
前記音声情報には、前記他ユーザ音声情報が少なくとも含まれ、
前記出力するステップでは、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報を出力し、
前記所定の選出基準は、前記ユーザと前記他ユーザとの関係性、及び前記他ユーザの所定期間における的中率又は回収率、のうちの1以上に基づくものである、
項目2に記載のプログラム。
これにより、複数の他ユーザ音声情報のうちから、そのユーザにとって有用であると思われる他ユーザ音声情報を選出することができるため、ユーザの満足度を高めることができる。
(Item 3)
The voice information includes at least the voice information of the other user.
In the output step, one or more other user voice information selected based on a predetermined selection criterion from a plurality of other user voice information is output.
The predetermined selection criteria are based on one or more of the relationship between the user and the other user, and the hit rate or recovery rate of the other user in a predetermined period.
The program described in item 2.
As a result, it is possible to select another user's voice information that is considered to be useful for that user from among a plurality of other user's voice information, so that the user's satisfaction can be enhanced.
(項目4)
前記関係性は、ユーザ間のフォロー関係であり、
前記出力するステップでは、複数の他ユーザ音声情報のうちから前記ユーザがフォローしている1以上の他ユーザの他ユーザ音声情報に基づいて音声を出力する、
項目3に記載のプログラム。
これにより、ユーザとフォロー関係にある他ユーザと一緒にレースを観戦しているような臨場感をユーザに与えることができるため、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 4)
The relationship is a follow-up relationship between users.
In the output step, voice is output based on the voice information of one or more other users followed by the user from among the voice information of the other users.
The program described in
As a result, it is possible to give the user a sense of reality as if he / she is watching the race with another user who has a follow-up relationship with the user, so that the watching of the virtual race can be more effectively excited.
(項目5)
前記表示するステップでは、さらに、前記ユーザに対応するユーザ画像、及び/又は、前記他のユーザに対応する他ユーザ画像を表示し、
前記表示するステップでは、さらに、前記ユーザ画像の近傍に前記ユーザ音声情報に基づいて作成されるテキスト情報を表示する、及び/又は、前記他ユーザ画像の近傍に前記他ユーザ音声情報に基づいて作成されるテキスト情報を表示する、
項目2から項目4のいずれか一項に記載のプログラム。
これにより、音声が聞き取れなかった場合でも音声の内容を確認可能になり、ユーザの満足度を高めることができる。また、仮想レースの観戦中に発した音声によってチャットや実況をしているかのような感覚をユーザに与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 5)
In the display step, a user image corresponding to the user and / or another user image corresponding to the other user is further displayed.
In the display step, text information created based on the user voice information is further displayed in the vicinity of the user image, and / or created based on the other user voice information in the vicinity of the other user image. Display text information that is
The program according to any one of items 2 to 4.
As a result, even if the voice cannot be heard, the content of the voice can be confirmed, and the user's satisfaction can be enhanced. In addition, the voice emitted while watching the virtual race can give the user the feeling of chatting or playing live, and the watching of the virtual race can be more effectively excited.
(項目6)
前記音声情報には、前記所定のレースの実況音声から生成される実況音声情報が含まれる、
項目1から項目5のいずれか一項に記載のプログラム。
これにより、仮想レースの観戦中のユーザに、実際のレースの中継をテレビ等で見ているような感覚を与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 6)
The audio information includes live audio information generated from the live audio of the predetermined race.
The program according to any one of
As a result, it is possible to give the user who is watching the virtual race the feeling of watching the actual race broadcast on TV or the like, and it is possible to more effectively enjoy watching the virtual race.
(項目7)
前記表示するステップでは、さらに、前記実況音声情報に基づいて作成されるテキスト情報を表示する、
項目6に記載のプログラム。
これにより、実況音声が聞き取れなかった場合でも実況音声の内容を確認可能になり、ユーザの満足度を高めることができる。
(Item 7)
In the display step, further, text information created based on the live voice information is displayed.
The program according to item 6.
As a result, even if the live voice cannot be heard, the content of the live voice can be confirmed, and the user's satisfaction can be enhanced.
(項目8)
前記音声情報には、前記所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報が含まれる、
項目1から項目7のいずれか一項に記載のプログラム。
これにより、まるで実際のレース場にいるかのような臨場感をユーザに与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(Item 8)
The audio information includes on-site sound information generated from on-site sounds collected at a real-world race track where the predetermined race is performed.
The program according to any one of
As a result, it is possible to give the user a sense of realism as if he / she is in an actual race field, and it is possible to more effectively enjoy watching a virtual race.
(項目9)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させることを含み、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
情報処理方法。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 9)
An information processing method executed in a first computer equipped with a processor and an image pickup unit.
The information processing method is applied to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
The step of receiving the voice information related to the predetermined race from the second computer and outputting the voice based on the voice information includes executing the step.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
Information processing method.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.
(項目10)
プロセッサ及び撮像部を備えた情報処理装置であって、
前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
情報処理装置。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 10)
An information processing device equipped with a processor and an image pickup unit.
The processor
Receive the first information about a given race in the real world from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup unit.
The voice information related to the predetermined race is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
Information processing equipment.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.
(項目11)
第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムであって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、
前記所定のレースに関連する音声情報を取得し、
前記第1情報及び前記音声情報を第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報には、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、が含まれ、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
システム。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(Item 11)
A system including a first computer provided with a first processor and an image pickup apparatus, and a second computer provided with a second processor and capable of communicating with the first computer.
The second processor is
Get the first information about a given race in the real world,
Acquire voice information related to the predetermined race and
The first information and the voice information are transmitted to the first computer,
The first processor is
The first information is received from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup device.
The voice information is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
system.
As a result, it is possible to liven up the watching of the virtual race by the voice related to the race.
1:システム、10:ユーザ端末、20:第1サーバ装置、30:ネットワーク、40:第2サーバ装置、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、250:(第1サーバ装置の)記憶部、290:(第1サーバ装置の)制御部 1: System, 10: User terminal, 20: First server device, 30: Network, 40: Second server device, 130: Touch screen, 150: Storage unit (of user terminal), 190: Control (of user terminal) Unit, 250: Storage unit (of the first server device), 290: Control unit (of the first server device)
Claims (11)
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラム。 A program executed in a first computer equipped with a processor and an image pickup unit.
The program is attached to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
A step of receiving voice information related to the predetermined race from the second computer and outputting voice based on the voice information is executed.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
program.
前記表示するステップの実行中にユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を前記第2コンピュータに送信するステップを実行させ、
前記音声情報には、前記ユーザ音声情報、及び/又は、前記ユーザとは異なる他のユーザの第1コンピュータから前記第2コンピュータに送信された前記他のユーザのユーザ音声情報である他ユーザ音声情報が含まれる、
請求項1に記載のプログラム。 In addition to the processor
A step of generating user voice information from the voice emitted by the user during the execution of the display step and transmitting the user voice information to the second computer is executed.
The voice information includes the user voice information and / or other user voice information which is the user voice information of the other user transmitted from the first computer of another user different from the user to the second computer. Is included,
The program according to claim 1.
前記出力するステップでは、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報に基づいて音声を出力し、
前記所定の選出基準は、前記ユーザと前記他ユーザとの関係性、及び前記他ユーザの所定期間における的中率又は回収率、のうちの1以上に基づくものである、
請求項2に記載のプログラム。 The voice information includes at least the voice information of the other user.
In the output step, voice is output based on one or more other user voice information selected based on a predetermined selection criterion from a plurality of other user voice information.
The predetermined selection criteria are based on one or more of the relationship between the user and the other user, and the hit rate or recovery rate of the other user in a predetermined period.
The program according to claim 2.
前記出力するステップでは、複数の他ユーザ音声情報のうちから前記ユーザがフォローしている1以上の他ユーザの他ユーザ音声情報に基づいて音声を出力する、
請求項3に記載のプログラム。 The relationship is a follow-up relationship between users.
In the output step, voice is output based on the voice information of one or more other users followed by the user from among the voice information of the other users.
The program according to claim 3.
前記表示するステップでは、さらに、前記ユーザ画像の近傍に前記ユーザ音声情報に基づいて作成されるテキスト情報を表示する、及び/又は、前記他ユーザ画像の近傍に前記他ユーザ音声情報に基づいて作成されるテキスト情報を表示する、
請求項2から請求項4のいずれか一項に記載のプログラム。 In the display step, a user image corresponding to the user and / or another user image corresponding to the other user is further displayed.
In the display step, text information created based on the user voice information is further displayed in the vicinity of the user image, and / or created based on the other user voice information in the vicinity of the other user image. Display text information that is
The program according to any one of claims 2 to 4.
請求項1から請求項5のいずれか一項に記載のプログラム。 The audio information includes live audio information generated from the live audio of the predetermined race.
The program according to any one of claims 1 to 5.
請求項6に記載のプログラム。 In the display step, further, text information created based on the live voice information is displayed.
The program according to claim 6.
請求項1から請求項7のいずれか一項に記載のプログラム。 The audio information includes on-site sound information generated from on-site sounds collected at a real-world race track where the predetermined race is performed.
The program according to any one of claims 1 to 7.
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させることを含み、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
情報処理方法。 An information processing method executed in a first computer equipped with a processor and an image pickup unit.
The information processing method is applied to the processor.
The step of receiving the first information about a given race in the real world from the second computer,
A step of generating a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race based on the first information.
A step of superimposing the virtual object on a real image around the first computer captured by the image pickup unit and displaying the virtual object.
The step of receiving the voice information related to the predetermined race from the second computer and outputting the voice based on the voice information includes executing the step.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
In the display step, the moving object is moved on the race field object based on the first information, and the predetermined race is virtually displayed.
In the output step, the sound is output together with the virtual display of the predetermined race in the display step.
Information processing method.
前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
情報処理装置。 An information processing device equipped with a processor and an image pickup unit.
The processor
Receive the first information about a given race in the real world from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup unit.
The voice information related to the predetermined race is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
Information processing equipment.
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、
前記所定のレースに関連する音声情報を取得し、
前記第1情報及び前記音声情報を第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報には、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、が含まれ、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
システム。 A system including a first computer provided with a first processor and an image pickup apparatus, and a second computer provided with a second processor and capable of communicating with the first computer.
The second processor is
Get the first information about a given race in the real world,
Acquire voice information related to the predetermined race and
The first information and the voice information are transmitted to the first computer,
The first processor is
The first information is received from the second computer,
Based on the first information, a virtual object including a race field object representing a race field and a moving object representing a contestant or a moving body of the predetermined race is generated.
The virtual object is superimposed and displayed on the real image around the first computer captured by the image pickup device.
The voice information is received from the second computer, and the voice is output based on the voice information.
The first information includes the position information of the contestant or the moving body during the execution of the predetermined race, and the time information corresponding to the position information.
The superimposed display includes moving the moving object on the race field object based on the first information and virtually displaying the predetermined race.
Outputting the sound includes outputting the sound together with a virtual display of the predetermined race.
system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021100027A JP7303846B2 (en) | 2020-10-30 | 2021-06-16 | Program, information processing method, information processing apparatus, and system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020182772A JP6934552B1 (en) | 2020-10-30 | 2020-10-30 | Programs, information processing methods, information processing devices, and systems |
JP2021100027A JP7303846B2 (en) | 2020-10-30 | 2021-06-16 | Program, information processing method, information processing apparatus, and system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182772A Division JP6934552B1 (en) | 2020-10-30 | 2020-10-30 | Programs, information processing methods, information processing devices, and systems |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022073925A true JP2022073925A (en) | 2022-05-17 |
JP2022073925A5 JP2022073925A5 (en) | 2022-12-15 |
JP7303846B2 JP7303846B2 (en) | 2023-07-05 |
Family
ID=86996626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021100027A Active JP7303846B2 (en) | 2020-10-30 | 2021-06-16 | Program, information processing method, information processing apparatus, and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7303846B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002027344A (en) * | 2000-07-04 | 2002-01-25 | Dainippon Printing Co Ltd | Mail interlocked program broadcasting system |
JP2002084521A (en) * | 2000-09-08 | 2002-03-22 | Nec Mobiling Ltd | Method and system for distributing video information, and recording medium |
JP2007214909A (en) * | 2006-02-09 | 2007-08-23 | Matsushita Electric Ind Co Ltd | Telephone device and telephoning method |
US20100271367A1 (en) * | 2009-04-22 | 2010-10-28 | Sony Computer Entertainment America Inc. | Method and apparatus for combining a real world event and a computer simulation |
JP2011182109A (en) * | 2010-02-26 | 2011-09-15 | Sony Corp | Content playback device |
JP2018117328A (en) * | 2017-01-20 | 2018-07-26 | 株式会社ミクシィ | Information processing apparatus, control method for the same, and control program |
-
2021
- 2021-06-16 JP JP2021100027A patent/JP7303846B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002027344A (en) * | 2000-07-04 | 2002-01-25 | Dainippon Printing Co Ltd | Mail interlocked program broadcasting system |
JP2002084521A (en) * | 2000-09-08 | 2002-03-22 | Nec Mobiling Ltd | Method and system for distributing video information, and recording medium |
JP2007214909A (en) * | 2006-02-09 | 2007-08-23 | Matsushita Electric Ind Co Ltd | Telephone device and telephoning method |
US20100271367A1 (en) * | 2009-04-22 | 2010-10-28 | Sony Computer Entertainment America Inc. | Method and apparatus for combining a real world event and a computer simulation |
JP2011182109A (en) * | 2010-02-26 | 2011-09-15 | Sony Corp | Content playback device |
JP2018117328A (en) * | 2017-01-20 | 2018-07-26 | 株式会社ミクシィ | Information processing apparatus, control method for the same, and control program |
Also Published As
Publication number | Publication date |
---|---|
JP7303846B2 (en) | 2023-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110300909B (en) | Systems, methods, and media for displaying an interactive augmented reality presentation | |
JP6903805B1 (en) | Programs, information processing methods, information processing devices, and systems | |
CN106464773B (en) | Augmented reality device and method | |
WO2022118652A1 (en) | Program, information processing method, information processing device, and system | |
JP7212721B2 (en) | Program, information processing method, information processing apparatus, and system | |
JP6857785B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP6934552B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP7303846B2 (en) | Program, information processing method, information processing apparatus, and system | |
JP6857776B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP6903800B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP6934547B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP6896932B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP6866540B1 (en) | Programs, information processing methods, information processing devices, and systems | |
JP7324801B2 (en) | Program, information processing method, information processing apparatus, and system | |
WO2022107638A1 (en) | Program, information processing method, information processing device, and system | |
WO2022239403A1 (en) | Program, information processing method, information processing device, and system | |
JP7303845B2 (en) | Program, information processing method, information processing apparatus, and system | |
JP2022138681A (en) | Program, information processing method, information processing device and system | |
JP2022080829A (en) | Program, information processing method, information processing device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7303846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |