JP7303846B2 - プログラム、情報処理方法、情報処理装置、及びシステム - Google Patents

プログラム、情報処理方法、情報処理装置、及びシステム Download PDF

Info

Publication number
JP7303846B2
JP7303846B2 JP2021100027A JP2021100027A JP7303846B2 JP 7303846 B2 JP7303846 B2 JP 7303846B2 JP 2021100027 A JP2021100027 A JP 2021100027A JP 2021100027 A JP2021100027 A JP 2021100027A JP 7303846 B2 JP7303846 B2 JP 7303846B2
Authority
JP
Japan
Prior art keywords
information
user
race
audio
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021100027A
Other languages
English (en)
Other versions
JP2022073925A5 (ja
JP2022073925A (ja
Inventor
功淳 馬場
聡志 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020182772A external-priority patent/JP6934552B1/ja
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2021100027A priority Critical patent/JP7303846B2/ja
Publication of JP2022073925A publication Critical patent/JP2022073925A/ja
Publication of JP2022073925A5 publication Critical patent/JP2022073925A5/ja
Application granted granted Critical
Publication of JP7303846B2 publication Critical patent/JP7303846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、プログラム、情報処理方法、情報処理装置、及びシステムに関する。
特許文献1には、HMD(Head Mounted Display)を用いてユーザに仮想現実を提供する際に、HMDから音声を出力すること、及び、マイクによる音声入力を可能にすることが開示されている。特許文献2には、仮想現実空間において、ユーザ同士が音声コミュニケーションを行うための技術が開示されている。
特許文献3には、AR(Augmented Reality)グラス等を用いてユーザに拡張現実コンテンツを提供する際に、拡張現実コンテンツに含まれる音声のパラメータを調整して出力することが開示されている。特許文献4には、HMDを用いてユーザに拡張現実空間又は複合現実空間を提供する際に、仮想現実空間等の音声とユーザの周辺の実空間の音声とを合成した合成音声を出力することが開示されている。
特開平11-184584号公報 特開2017-28390号公報 国際公開第2019/142659号 国際公開第2018/128161号
ところで、現実世界においては、ボートレースや競馬などの様々なレースが実施されている。これらのレースを観戦するために実際にレース場へ足を運ぶ人々もいるが、実際にレース場へ足を運ぶことは、時間的又は地理的な制約により不可能な場合もある。
上記のような状況から、現実世界のレースに連動した仮想オブジェクトを用いて、現実世界のレースを仮想的なレースとして表示することができれば、実際にレース場へ行かずともレースを擬似的に観戦することができ、有益である。
また、仮想的なレースを表示する際、レースに関連する音声によって仮想レースの観戦を盛り上げることができれば、ユーザに更なる楽しみを提供することができる。しかし、特許文献1~4に開示された技術は、現実世界のレースを仮想的なレースとして表示するものではなく、当然に、レースに関連する音声によって仮想レースの観戦を盛り上げるものでもなかった。
本開示の一態様は、レースに関連する音声によって仮想レースの観戦を盛り上げることを目的とする。
本開示に示す一実施形態によれば、
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラムが提供される。
本開示に示す一実施形態よれば、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
ある実施の形態に従うシステムの構成例を示す図である。 ある実施の形態に従うユーザ端末の機能的な構成の一例を示すブロック図である。 ある実施の形態に従うサーバの機能的な構成の一例を示すブロック図である。 ある実施の形態に従う現実世界のレース場の一例を示す模式図である。 ある実施の形態に従うユーザ端末に表示される仮想オブジェクトの一例を示す模式図である。 ある実施の形態に従う表示制御に関する処理の一例を示すフローチャートである。 ある実施の形態に従う撮像部により撮像された現実画像の一例を示す模式図である。 ある実施の形態に従う現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。 ある実施の形態に従う音声制御に関する処理の一例を示すフローチャートである。 ある実施の形態に従うデータテーブルの一例である。 ある実施の形態に従う表示画面の一例を示す模式図である。 ある実施の形態に従う表示画面の一例を示す模式図である。
以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の要素には同一の符号を付し、重複する説明を適宜省略する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。
(システムの構成)
図1は、本実施の形態に従うシステム1の構成を示す図である。システム1は、例えば、現実世界で実施される所定のレースを、ユーザが使用する情報処理装置上において仮想オブジェクトを用いた仮想レースとして表示することが可能なものである。本明細書において、「所定のレース」とは、現実世界で実施されるレースであれば特に制限はされず、例えば、ボートレース(本番のレースや、展示レース)、競馬、競輪、オートレース、F1等のカーレース、ドローンレース、ドッグレース、マラソン、駅伝などが挙げられる。
図1に示すように、システム1は、各ユーザが使用する情報処理装置(第1コンピュータ)であるユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」とも称する)など複数のユーザ端末10と、第1サーバ装置(第2コンピュータ)20と、第2サーバ装置40と、ネットワーク30と、を含む。
ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、例えば、タッチスクリーンを備える携帯型端末であり、スマートフォン、ファブレット、タブレットなどでありうる。
ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウエアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、第1サーバ装置20と通信し、所定のレースに関連するデータやユーザに関連するデータ等を第1サーバ装置20との間で送受信することにより、ユーザ端末10上で仮想レースを表示することを可能とする。
第1サーバ装置20は、所定のレースに関連するデータを、第2サーバ装置40から受信する。第1サーバ装置20は、所定のレースに関連するデータを、適宜、ユーザ端末10へ送信する。第1サーバ装置20は、所定のレースに関連するデータや、各ユーザに関連するデータを記憶して管理する。
第1サーバ装置20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ(第2プロセッサ)29と、を備え、これらが通信バスを介して互いに接続されている。
通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10や第2サーバ装置40などとの間でデータを送受信するためのインタフェースとして機能する。
入出力IF23は、第1サーバ装置20への情報の入力を受け付けるとともに、第1サーバ装置20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含みうる。
メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random
Access Memory)等の記憶装置を含んで構成されている。
ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報には、所定のレースに関連するデータ(音声情報を含む)や、各ユーザに関連するデータ等が含まれる。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されうる。なお、ストレージは、サーバ装置に含まれる形態に限られず、クラウドサービスを利用することもできる 。
プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、第1サーバ装置20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics
Processing Unit)等を含んで構成されうる。
第2サーバ装置40は、所定のレースに関連するデータを記憶して管理している。第2サーバ装置40は、例えば、所定のレースの開催者が管理するサーバ装置や、所定のレースに関する情報を外部へ発信する団体(レース専門誌の発行者、レースの映像配信者又はラジオ配信者など)が管理するサーバ装置等である。第2サーバ装置40は、所定のレースに関連するデータを、適宜、第1サーバ装置20へ送信する。ある局面においては、第2サーバ装置40は、所定のレースに関連するデータをユーザ端末10へ送信してもよい。第2サーバ装置40のハードウェア構成は、矛盾の生じない範囲で、第1サーバ装置20と同様であってもよい。第2サーバ装置40は、複数あってもよい。
(ユーザ端末)
図2は、ユーザ端末10の機能的な構成の一例を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク161と、スピーカ162と、撮像部170と、制御部(第1プロセッサ)190と、を含む。
アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。
無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの操作入力を受け付けるためのタッチパネル131と、ディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。
入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。
記憶部150は、フラッシュメモリ、HDD等により構成され、ユーザ端末10が使用するプログラム、及び、ユーザ端末10が第1サーバ装置20等から受信する各種データ等を記憶する。
音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク161から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ162へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク161は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ162は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。
撮像部170は、ユーザ端末10の周囲の現実画像を撮像するカメラである。撮像部170によって撮像された画像は、制御部190によって画像処理がなされ、ディスプレイ132へ出力される。
制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。
制御部190がアプリケーションプログラム151を実行する処理について、より詳細に説明する。記憶部150は、アプリケーションプログラム151と、アプリケーション情報152と、ユーザ情報153と、音声情報154と、を記憶する。
ユーザ端末10は、例えば、第1サーバ装置20からアプリケーションプログラム151をダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、第1サーバ装置20と通信することで、アプリケーション情報152及びユーザ情報153等の各種のデータを第1サーバ装置20と送受信する。
アプリケーションプログラム151は、ユーザ端末10において仮想レースを表示するためのプログラムである。アプリケーション情報152は、アプリケーションプログラム151が参照する各種のデータを含む。アプリケーション情報152は、第1情報152Aを含む。
第1情報152Aは、第1サーバ装置20や第2サーバ装置40から送信された所定のレースに関する情報である。第1情報152Aとしては、例えば、所定のレースの出場者又は移動体(以下、「出場者等」とも称する)のレースタイムを示すレースタイム情報、所定のレースの実施中における出場者等の位置情報、当該位置情報に対応する時間情報と、が含まれる。
本明細書において、「出場者」とは、人間だけでなく、馬や犬などの動物も含む概念である。また、「移動体」とは、所定のレースにおいて移動の主体となるものであり、出場者が乗る動物や機体、出場者が遠隔操縦する機体などである。マラソンやドッグレース等では、「出場者」と「移動体」は同一となる。
第1情報152Aとしては、上記の他にも、例えば、所定のレースの名称、開催日時、レース場データ、出場者データ、移動体データ、オッズ情報、レース予想、レース出走表、レース直前情報、ピットレポート、レース結果、レース動画、レース静止画、過去のレース情報、その他の所定のレースに関する情報誌や情報サイトに掲載されうるような情報などを含んでもよい。
ユーザ情報153は、ユーザ端末10のユーザについての情報を含む。ユーザ情報153は、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率(例えば、ボートレースであれば購入した舟券の履歴と、購入した舟券の的中率)などを含んでもよい。
音声情報154は、第1サーバ装置20から送信される所定のレースに関連する音声情報(以下、「レース関連音声情報」とも称する)を含む。音声情報154は、後述の音声取得部196によって取得されるユーザの音声情報(以下、「ユーザ音声情報」とも称する)を含んでもよい。
制御部190は、アプリケーションプログラム151を読み込んで実行することにより、操作入力受付部191と、送受信部192と、オブジェクト生成部193と、表示制御部194と、検出部195と、音声取得部196と、音声制御部197と、の各機能を発揮する。
操作入力受付部191は、タッチスクリーン130の出力に基づいて、ユーザの操作入力を受け付ける。具体的には、操作入力受付部191は、ユーザの指などがタッチパネル131に接触又は接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。
操作入力受付部191は、タッチスクリーン130に対するユーザの操作を判別する。操作入力受付部191は、例えば、「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「長押し操作(ロングタッチ操作)」、「ドラッグ操作(スワイプ操作)」、「ムーブ操作」、「フリック操作」、「ピンチイン操作」、「ピンチアウト操作」などのユーザの操作を判別する。
操作入力受付部191は、ユーザ端末10に搭載された加速度センサ等によって検出されるユーザ端末10の動きを、操作入力として受け付けてもよい。
送受信部192は、無線通信IF120及びネットワーク30を介して、第1サーバ装置20や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部192は、例えば、第1サーバ装置20又は第2サーバ装置40から第1情報152A及びレース関連音声情報を受信する。また、送受信部192は、例えば、操作入力受付部191が受け付けた操作入力に応じた情報や、ユーザ情報153に記憶された情報、音声取得部196が取得したユーザ音声情報等を第1サーバ装置20又は第2サーバ装置40へと送信する。
オブジェクト生成部193は、所定のレースに関する第2情報をユーザに提示するための仮想オブジェクトを、第1情報に基づいて生成する。本明細書において、「第2情報」とは、例えば、第1情報152Aの少なくとも一部、又は、第1情報152Aから算出される情報である。ある局面において、「第2情報」は、テキストとして提示可能な情報でありうる。ある局面において、「第2情報」は、所定のレース中の出場者等の順位又はレース結果として出場者等の順位を示す順位情報でありうる。
オブジェクト生成部193は、仮想オブジェクトとして、レース場を表すレース場オブジェクトと、出場者等を表す移動オブジェクトと、を生成する。オブジェクト生成部193は、第2情報をテキスト表示するための仮想表示板を生成してもよい。オブジェクト生成部193は、上記の各オブジェクトの他にも、第2情報を画像表示するための仮想スクリーン、各種の建物オブジェクト、木などの景観を構成する景観オブジェクト、ユーザのアバターとなるオブジェクト等を生成してもよい。
表示制御部194は、撮像部70により撮像されたユーザ端末10の周囲の現実画像に、オブジェクト生成部193により生成された仮想オブジェクトを重畳させた画像(以下、「重畳画像」とも称する)を、ディスプレイ132上に表示させる。表示制御部194は、第1情報152Aに含まれるレースタイム情報に基づいて、レース場オブジェクト上において移動オブジェクトを移動させ、所定のレースを仮想的に再現した仮想レースをディスプレイ132上に表示させる。表示制御部194は、レースタイム情報に加えて、第1情報152Aに含まれる出場者等の位置情報、及び当該位置情報に対応する時間情報に基づいて、仮想レースを再現するものであることが好ましい。
表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、重畳画像における視点を変更可能であることが好ましい。表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、ディスプレイ132に各種のメニュー画面やGUI(Graphical User Interface)を表示させたり、ディスプレイ132の表示内容を変更したりする。
検出部195は、撮像部170により撮像された現実画像内における平坦面を検出する。平坦面の検出は、従来公知の画像認識技術によって実現される。例えば、検出部195が検出した平坦面を選択する操作をユーザが行った場合、当該平坦面にレース場オブジェクトが配置された重畳画像がディスプレイ132に表示される。
平坦面は、水平面であることが好ましい。また、平坦面とレース場オブジェクトを構成する底面とのなす角度は0度であってもよいが、鋭角であることが好ましく、例えば、15度~45度の範囲にすることができる。上記角度は、ユーザの操作を受け付けて調節する態様とすることもできる。また、現実世界の平坦面の一部に凸部がある場合や、当該平坦面に載置物がある場合であっても、当該凸部や当該載置物がレース場オブジェクトによって隠れる程度のサイズならば、レース場オブジェクトを配置可能は平坦面として検出してもよい。
音声取得部196は、表示制御部194によって重畳画像が表示されている状態において、マイク161等を介してユーザが発した音声を取得し、ユーザ音声情報を生成する。音声取得部196は、ユーザの操作入力に応じて音声の取得を開始してもよいし、ユーザが発声したことを検知して音声の取得を開始してもよい。また、音声取得部196によって生成される音声情報には、音声が取得された時間を示す取得時間情報が含まれてもよい。また、音声取得部196によって生成される音声情報には、音声内容に対応するテキスト情報が含まれてもよい。音声取得部196が取得した音声情報は、送受信部192を介して、第1サーバ装置20に送信される。
音声制御部197は、送受信部192が受信したレース関連音声情報に基づいて、スピーカ162から音声を出力するように制御する。音声制御部197は、例えば、レース関連音声情報に基づいて音声信号を生成し、該音声信号を必要に応じて音声処理部160において復調し、スピーカ162から音声を出力させる。
音声制御部197による音声の出力は、表示制御部194による重畳画像の表示とともに行われる。ここで、表示制御部194は、音声制御部197による音声の出力とともに、該音声に対応するテキスト情報を表示してもよい。
また、表示制御部194は、ユーザに対応するユーザ画像、及び/又は、他のユーザに対応する他ユーザ画像を表示してもよい。表示制御部194は、さらに、ユーザ画像の近傍にユーザ音声情報に基づいて作成されるテキスト情報を表示してもよく、他ユーザ画像の近傍に他ユーザ音声情報に基づいて作成されるテキスト情報を表示してもよい。
(第1サーバ装置)
図3は、第1サーバ装置20の機能的な構成を示すブロック図である。図3を参照して、第1サーバ装置20の詳細な構成を説明する。第1サーバ装置20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。
通信部220は、第1サーバ装置20がユーザ端末10や第2サーバ装置40などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。
記憶部250は、システム1を実現するための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、レース情報252と、ユーザ情報253と、音声情報254と、を記憶する。
プログラム251は、第1サーバ装置20がユーザ端末10や第2サーバ装置40と通信して、システム1を実現するためのプログラムである。プログラム251は、制御部290に実行されることにより、ユーザ端末10や第2サーバ装置40とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じた処理、レース情報252やユーザ情報253を更新する処理などを第1サーバ装置20に行わせる。
レース情報252は、所定のレースに関連する各種のデータを含む。レース情報252は、例えば、第1情報252Aを含む。第1情報252Aは、第1情報152Aの元となる情報であり、第1情報152Aは、第1情報252Aの一部でありうる。第1情報252Aは、例えば、第2サーバ装置40から取得された情報である。
ユーザ情報253は、ユーザ端末10のユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率などをユーザ毎に記憶している。
音声情報254は、レース関連音声情報を含む。レース関連音声情報には、例えば、ユーザ端末10Aから送信されたユーザAのユーザ音声情報、ユーザAとは異なるユーザBのユーザ端末10Bから送信されたユーザBのユーザ音声情報(ユーザAにとっての他ユーザ音声情報)、所定のレースの実況音声から生成される実況音声情報、及び所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報のうちの1以上が含まれうる。
また、レース関連音声情報には、その音声情報の元となった音声が取得された時間を示す取得時間情報や音声内容に対応するテキスト情報が含まれうる。テキスト情報は、各音声情報の送信元であるユーザ端末10、第2サーバ装置40又はその他のコンピュータ装置において生成されてもよいし、第1サーバ装置20において生成されてもよい。
制御部290は、プロセッサ29によって実現され、プログラム251を実行することにより、送受信部291、第1情報取得部292、音声情報取得部293、選出部294、データ管理部295、計時部296としての機能を発揮する。
送受信部291は、通信部220及びネットワーク30を介して、ユーザ端末10や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部291は、例えば、第1情報252Aや音声情報254の少なくとも一部をユーザ端末10へ送信する。また、送受信部291は、例えば、第1情報252Aを第2サーバ装置40から受信する。
また、送受信部291は、例えば、ユーザ音声情報をユーザ端末10から受信する。また、送受信部291は、例えば、実況音声情報や現場音情報を第2サーバ装置40又は他のコンピュータ装置(図示せず)から受信する。
第1情報取得部292は、送受信部291を介して、第1情報252Aを第2サーバ装置40から取得する。
音声情報取得部293は、送受信部291を介して、1以上のユーザのユーザ音声情報、実況音声情報、及び現場音情報のうちの1以上をレース関連音声情報として取得する。
選出部294は、音声情報254に含まれるレース関連音声情報のうちから、ユーザ端末10に送信する情報を選出する。選出部294は、例えば、ユーザ端末10からの要求にしたがって、ユーザ音声情報、実況音声情報、及び現場音情報のうちのいずれか1以上をユーザ端末10に送信する情報として選出しうる。また、選出部294は、レース関連音声情報に含まれる取得時間情報に基づいて、ユーザ端末10に送信する情報を選出しうる。
ユーザ端末10Aに送信する情報としてユーザAにとっての他ユーザ音声情報が選出される場合、選出部294は、さらに、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて1以上の他ユーザ音声情報を選出することが好ましい。所定の選出基準は、特に制限されないが、例えば、ユーザと他ユーザとの関係性、及び他ユーザの所定期間における予想の的中率又は回収率、のうちの1以上に基づくものであることが好ましい。上記関係性は、特に制限されないが、例えば、ユーザ間のフォロー関係が挙げられる。また、上記所定期間は、特に制限されないが、例えば、直近の1年間、その年の春シーズンや秋シーズン等の期間などが挙げられる。なお、上記所定期間に代えて、ユーザが購入した直近の所定数のレース(例えば、直近100レース)を基準にして的中率や回収率を算出してもよい。
フォロー関係とは、例えば、アプリ上における相手ユーザのコメント又は行動等が閲覧できる関係である。フォロー関係は、ユーザが特定のユーザを選択して一方的に設定可能なものでもよいし、ユーザが特定のユーザへ申請をした後に該特定のユーザからの承認を経て設定される双方向的なものでもよい。フォロー関係にあるユーザ同士は、例えば、メッセージの送受信等のコミュニケーションが可能であってもよい。フォロー関係には、いわゆるフレンド関係が含まれる。
ある局面において、選出部294は、ユーザAがフォロー関係を結んでいる他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。また、ある局面において、選出部294は、レースにおける予想の的中率又は回収率の高い他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。また、ある局面において、選出部294は、ユーザAがフォロー関係を結んでいる他ユーザのうちでレースにおける予想の的中率又は回収率の高い他ユーザの他ユーザ音声情報を、ユーザ端末10Aに送信する情報として選出する。
データ管理部295は、第1情報取得部292、音声情報取得部293等における処理結果に従って、記憶部250に記憶される各種データを更新する処理を行う。計時部296は、時間を計測する処理を行う。計時部296によって計測される時間に基づいて、ユーザ端末10に表示される各種時間(例えば、レース開始までの時間など)が制御されうる。
(動作例)
次に、図4から図12を参照して、システム1における動作例について説明する。以下では、所定のレースがボートレースである場合を例示して説明をするが、以下の説明は、所定のレースが他のレースであっても適用可能である。また、以下では、ユーザ端末10と第1サーバ装置20の間、及び第1サーバ装置20と第2サーバ装置40の間でデータの送受信を行うものとして説明をするが、ある局面においては、ユーザ端末10と第2サーバ装置40とで直接的にデータの送受信をするように構成してもよい。
図4は、現実世界のボートレース場の一例を示す模式図である。ボートレース場401には、2つのターンマーク403が設置されており、各ボートレーサーが乗るボート402a~402fによるレースが実施されている。レースが終了した場合、ボート402a~402fそれぞれのレースタイムを示すレースタイム情報が、第2サーバ装置40から第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。
ボートレース場401には、撮像装置(カメラ)404a~404bが設けられている。撮像装置404aは、ボートレース場401の上方からボート402a~402fを視界に収める。撮像装置404bは、ボートレース場401の側方からボート402a~402fを視界に収める。撮像装置404a~404bによって撮像されたボート402a~402fの画像は、第2サーバ装置40へ送信される。第2サーバ装置40では、例えば、各画像の画像解析を行い、各画像の撮影時間におけるボート402a~402fそれぞれの位置を示す位置情報を算出する。算出された位置情報と、当該位置情報に対応する撮影時間に関する時間情報は、第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。なお、位置情報の算出は、第1サーバ装置20において実施してもよい。
また、撮像装置404a~404bに代えて、又は加えて、ボート402a~402fに、GPSセンサ等の位置センサを設置してもよい。位置センサによって取得されたボート402a~402fの位置情報と、当該位置情報が取得された時間を示す時間情報とは、最終的にユーザ端末10へと送信される。
図5は、ユーザ端末10に表示される仮想オブジェクトの一例を示す模式図である。図5の例では、仮想オブジェクトとして、レース場オブジェクト501と、移動オブジェクト502a~502fと、2つのターンマークオブジェクト503と、仮想表示板505と、が示されている。
レース場オブジェクト501は、ボートレース場401を仮想的に表示したオブジェクトである。レース場オブジェクト501やターンマークオブジェクト503は、例えば、ボートレース場401のコース情報等のレース場データに基づいて作製されることが好ましく、ボートレース場401と対応する形状であることが好ましい。
移動オブジェクト502a~502fは、ボート402a~402fをそれぞれ仮想的に表示したオブジェクトであり、ボートを模した形状である。移動オブジェクト502a~502fは、レースタイム情報や、ボート402a~402fの位置情報及び当該位置情報に対応する時間情報に基づいて、レース場オブジェクト501を移動する。すなわち、レース場オブジェクト501及び移動オブジェクト502a~502fによって、現実世界のレースが仮想的なレースとしてユーザ端末10上で表示される。
なお、ボート402a~402fの位置情報及び時間情報がなくとも、レースタイム情報のみによって仮想レースを表示することも可能である。ただ、この場合、最終的な着順は現実世界のレースと同じものになるが、レース中の順位などのレース経過を再現することが困難である。
仮想表示板505は、テキスト情報を表示するオブジェクトである。仮想表示板505は、例えば、ボートレース場401において対応する存在のないオブジェクトである。仮想表示板505に表示するテキスト情報は、特に制限はされず、例えば、順位情報やオッズ情報等であってもよい。また、仮想表示板505に表示するテキスト情報は、ユーザの操作入力に基づいて変更可能であってもよい。
図6は、表示制御に関する処理の一例を示すフローチャートである。なお、以下で説明するフローチャート(図9を含む)を構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。また、各フローチャートにおいて各装置が実行する処理は、矛盾の生じない範囲で、他の装置によって実行されてもよい。
図6及び図9に示される処理は、制御部190がアプリケーションプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現される。まず、ステップS610において、制御部190は、カメラである撮像部170を起動する。撮像部170によって、ユーザ端末10の周囲の現実画像が撮像される。
ステップS620において、制御部190は、撮像部170によって撮像された画像内における平坦面を検出する。ステップS630において、制御部190は、検出した平坦面に仮想オブジェクトを配置する。
ここで、図7~図8を用いて、ステップS61
0、S620、及びS630の処理について具体的に説明する。図7は、撮像部170により撮像された現実画像の一例を示す模式図である。図7の例では、平坦なデスク701上に、キーボード702と、モニタ装置703と、が置かれている。
ステップS610において撮像部170が起動されると、ディスプレイ132上に、撮像部170によって撮像されている現実画像が表示される。次に、ステップS620において、制御部190は、撮像部170によって撮像された画像内、すなわちディスプレイ132に表示された画像内における平坦面を検出する。
図7では、領域704が平坦面として検出されている。領域704内にはキーボード702があるが、キーボード702はレース場オブジェクト501によって隠れる程度のサイズなので、制御部190は、領域704を平坦面として検出する。
図7に示す状態で、撮像部170によって撮像される位置を変更すれば、領域704の位置も変更されうる。領域704は、ディスプレイ132上において、例えば、所定の色を付加されて、他の部分とは区別可能に表示される。ユーザが領域704に対してタップ操作等を実行した場合、ステップS630において、制御部190は、領域704上にレース場オブジェクト501等の仮想オブジェクトを配置する。
図8は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。図8において、モニタ装置703を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。仮想オブジェクトが表示されていない領域には、例えば、広告画像を表示してもよい。
図8では、仮想オブジェクトとして、レース場オブジェクト501と、複数の移動オブジェクト502と、2つのターンマークオブジェクト503と、505と、大型モニタオブジェクト506と、建物オブジェクト507a~507bと、その他の符号を付していない多数のオブジェクト(木オブジェクト、時計オブジェクト等)と、が表示されている。これらのオブジェクトは、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。
図8は、領域704に含まれる平坦面と、レース場オブジェクト501を構成する底面とのなす角度が0度になるようにして、領域704上にレース場オブジェクト501を配置している。この場合、例えば、領域X1のような奥行方向にある領域や、移動オブジェクト502同士が重複して見づらくなることがある。また、大型モニタオブジェクト506の奥行方向側の領域などには、移動オブジェクト502が見えなくなる死角が生じうる。
しかし、図8に示す状態において、ユーザは、ディスプレイ132に表示される重畳画像の視点を変更可能である。例えば、ユーザがピンチイン操作やピンチアウト操作等の操作入力をした場合、撮像部170の視点位置がレース場オブジェクト501へ近づいたり遠ざかったりしうる。また、ユーザがユーザ端末10を持ったままディスプレイ132の奥行方向へ移動した場合や、手前方向に移動した場合も、撮像部170の視点位置がレース場オブジェクト501へ近づいたり遠ざかったりしうる。また、ユーザがディスプレイ132上の所定の位置を指定するような操作をした場合、視点位置が指定された位置へと移動しうる。このような視点変更によって、上述の視認性の問題は解消しうる。
また、平坦面とレース場オブジェクト501を構成する底面とのなす角度θが鋭角になるようにレース場オブジェクト501を配置することによっても、視認性に関する上述の問題を軽減しうる。
図6のフローチャートの説明に戻る。ステップS640において、制御部190は、現実世界のボートレース場401におけるボート402a~402fの位置情報を取得する。すなわち、現実世界においてボート402a~402fによるレースが開始された場合、制御部190は、第1サーバ装置20から、ボート402a~402fの位置情報及び時間情報を取得する。位置情報及び時間情報の取得方法は、図4を用いて説明したとおりである。
ステップS650において、制御部190は、ステップS640において取得した位置情報と移動オブジェクトとが連動するよう制御する。具体的には、時間情報と位置情報とを用いて、レース場オブジェクト501上におけるボート402a~402fそれぞれの動きが、ボートレース場401上における移動オブジェクト502a~502fと同様になるように制御する。
ステップS640及びS650の処理は、少なくとも現実世界におけるレースの開始時点から終了時点まで繰り返されるが、現実世界におけるレースの開始前及び終了後においても繰り返されてもよい。
なお、仮想レースとして表示するレースが過去のレースである場合、仮想レースの開始前に、レースの開始から終了までのボート402a~402fの位置情報等をまとめて取得してもよい。また、位置情報等は取得せずに、レースタイム情報のみを取得して、仮想レースを表示してもよい。仮想レースとして表示するレースは、展示レースであってもよい。
現実世界におけるレースの終了後、アプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の表示制御処理を終了する。
図9は、音声制御に関する処理の一例を示すフローチャートである。図9に示す各処理は、図6に示す各処理のいずれかの前後に実行又は図6に示す各処理のいずれかと並列的に実行されうる。
まず、ステップS901Aにおいて、ユーザ端末10Aの制御部190は、ユーザの操作入力に基づいて、アプリケーションプログラム151を起動する。
次に、ステップS902Aにおいて、ユーザ端末10Aの制御部190は、音声ライブモードの選択を受け付ける。ステップS902Aは、例えば、ユーザが音声ライブモードを開始するための仮想ボタンをタップする等の操作入力をしたことに応じて実行されうる。なお、「音声ライブモード」とは、レース関連音声情報のうちの1以上をユーザ端末10Aにおいて出力可能とするモードである。
次に、ステップS903Aにおいて、ユーザ端末10Aの制御部190は、ディスプレイ132上にユーザAのアバターを表示する。なお、アバターとは、ユーザに対応するユーザ画像である。アバターの容姿や服装等は、例えば、予めユーザによって選択可能でありうる。アバターは、2次元モデルでも3次元モデルでもよい。アバターは、所定のキャラクタの一部(例えば、顔部)を表す画像であってもよい。
次に、ステップS904Aにおいて、ユーザ端末10Aの制御部190は、ユーザAが発した音声をマイク161ユーザ音声情報として取得する。次に、ステップS905Aにおいて、ユーザ端末10Aの制御部190は、ユーザAのユーザ音声情報を第1サーバ装置20へ送信する。ステップS905Aが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、ユーザAのユーザ音声情報を受信し、取得する。
ユーザBのユーザ端末10Bにおいても、ステップS901B~ステップS905Bの各処理が実行される。ステップS901B~ステップS905Bは、それぞれ、ステップS901A~ステップS905Aと同様の処理である。ステップS905Bが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、ユーザBのユーザ音声情報を受信し、取得する。なお、その他のユーザ端末10においても、ユーザ端末10A,10Bと同様の処理がされうる。
また、ステップS904Cにおいて、コンピュータ装置Cの制御部は、レースを実況する実況者の音声情報である実況音声情報を取得する。次に、ステップS905Cにおいて、コンピュータ装置Cの制御部は、実況音声情報を第1サーバ装置20へ送信する。ステップS905Cが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、実況音声情報を受信し、取得する。
コンピュータ装置Cとしては、集音機能を備えているものであれば、特に制限はされない。コンピュータ装置Cは、第2サーバ装置40であってもよい。コンピュータ装置Cは、第1情報を第1サーバ装置20へ送信するサーバ装置と同一であってもよいし、異なるサーバ装置であってもよい。
また、ステップS904Dにおいて、コンピュータ装置Dの制御部は、現実世界のレース場で集音された現場音の音声から現場音情報を取得する。次に、ステップS905Dにおいて、コンピュータ装置Dの制御部は、現場音情報を第1サーバ装置20へ送信する。ステップS905Dが実行されたことに応じて、ステップS906において、第1サーバ装置20の制御部290は、現場音情報を受信し、取得する。
コンピュータ装置Dとしては、集音機能を備えているものであれば、特に制限はされない。コンピュータ装置Dは、第2サーバ装置40であってもよい。コンピュータ装置Dは、第1情報を第1サーバ装置20へ送信するサーバ装置と同一であってもよいし、異なるサーバ装置であってもよい。
ステップS906にて取得された各音声情報は、レース関連音声情報として記憶される。なお、本実施形態では、ユーザ音声情報、実況音声情報、及び現場音情報の3種が取得される例を挙げているが、ステップS906で取得されるものは上記3種のうちのいずれか1以上であればよい。
次に、ステップS907において、制御部290は、各ユーザ端末10に送信するレース関連音声情報を選出する。ステップS907では、例えば、各ユーザ端末10からの要求に応じて、ユーザ音声情報(他ユーザ音声情報を含む)、実況音声情報、及び現場音情報のうちから1以上の音声情報を選出する。
具体的には、ユーザ端末10Aにおいて、仮想レースの表示とともにユーザ音声情報を出力するように設定されている場合、ステップS907では、ユーザ端末10Aに送信するレース関連音声情報として、上記仮想レースを表示しているユーザ端末10から取得したユーザ音声情報が選出される。また、ユーザ端末10Bにおいて、仮想レースの表示とともに実況音声情報及び現場音情報を出力するように設定されている場合、ステップS907では、ユーザ端末10Bに送信するレース関連音声情報として、上記仮想レースに対応する実況音声情報及び現場音情報が選出される。なお、各ユーザ端末10においてどのレース関連音声情報を出力するかは、各ユーザが設定可能であることが好ましい。
また、ステップS907において、ユーザ音声情報が選出される場合、制御部290は、さらに、所定の選出基準に基づいて、複数の他ユーザ音声情報のうちから1以上の他ユーザ音声情報を選出してもよい。選出基準は、例えば、図10に示すようなデータテーブルから取得される的中率、回収率、及びフォロー関係のうちの1以上である。
図10は、本実施形態に係るデータテーブルの一例である。図10の(a)に示すデータテーブル1001は、各ユーザの的中率や回収率を示すものである。データテーブル1001において、的中率(%)は、「(的中レース数/購入レース数)×100」で算出される値であり、回収率(%)は、「(回収金額/購入金額)×100」で算出される値である。
選出基準が的中率及び/又は回収率である場合、例えば、所定期間における的中率及び/又は回収率が上位のユーザのユーザ音声情報が優先的に他ユーザ音声情報として選出される。図10の(a)の例において、的中率が選出基準である場合の優先順位は、ユーザ001、ユーザ003、ユーザ002の順である。また、回収率が選出基準である場合の優先順位は、ユーザ002、ユーザ001、ユーザ003の順である。
また、ステップS907では、例えば、的中率及び/又は回収率が所定の閾値以上であるユーザのユーザ音声情報のみを選出してもよい。例えば、的中率の閾値を80%とした場合、ステップS907において選出される他ユーザ音声情報は、ユーザ001の音声情報のみである。
図10の(b)に示すデータテーブル1002は、各ユーザのフォロー相手を示すものである。データテーブル1002の例では、ユーザ001は、少なくともユーザ002~004をフォロー相手として設定している。選出基準がユーザ間のフォロー関係である場合、ステップS907において、ユーザ001のユーザ端末10では、ユーザ002~004のユーザ音声情報が他ユーザ音声情報として選出される。
なお、ユーザ001とユーザ002とは、双方向的にフォローし合っている関係性である。一方で、ユーザ001とユーザ003とは、ユーザ001がユーザ003を一方的にフォローしている関係性である。ステップS907では、さらに、このようなフォロー関係の種類に基づいて、選出の際の優先順位をつけてもよい。
また、ステップS907では、ユーザ間のフォロー関係に代えて又は加えて、アプリケーションプログラム151を介したユーザ間の交流に応じて上昇する親密度に基づいて、選出の際の優先順位をつけてもよい。
また、ステップS907では、各レース関連音声情報に含まれる取得時間情報を選出基準の1つとしてもよい。具体的には、ステップS907では、取得時間情報が示す時間が、現在の時間から所定の時間以内のものを優先的に選出してもよい。
図9のフローチャートの説明に戻る。ステップS908において、制御部290は、各ユーザ端末10に対して、各ユーザ端末10への送信内容として選出されたレース関連音声情報を送信する。ステップS908における送信内容は、ユーザ端末10毎に異なりうる。
ユーザ端末10Aに対してステップS908が実行されたことに応じて、ステップS909Aにおいて、ユーザ端末10Aの制御部290は、第1サーバ装置20から送信されたレース関連音声情報を受信し、取得する。
次に、ステップS910Aにおいて、ユーザ端末10Aの制御部290は、ステップS909Aにおいて取得したレース関連音声情報をアプリケーションプログラム151上に反映させる。具体的には、ステップS910Aにおいて、ユーザ端末10Aの制御部290は、レース関連音声情報に基づいて音声を出力する。また、ステップS910Aでは、出力される音声に対応するテキスト情報をディスプレイ132上に表示してもよい。
ステップS903A~ステップS910Aの各処理は、仮想レースの表示中において繰り返される。ユーザ端末10Aの制御部290は、音声ライブモード又はアプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の音声制御処理を終了する。
また、ユーザ端末10Bに対してステップS908が実行されたことに応じて、ユーザBのユーザ端末10Bにおいても、ステップS909B及びS910Bの各処理が実行される。ステップS909B及びS910Bは、それぞれ、ステップS909A~ステップS910Aと同様の処理である。ただし、ステップS909Bにおいて取得されるレース関連音声情報は、ステップS909Aにおいて取得されるものとは異なりうる。
図11は、本実施形態に係る表示画面の一例を示す模式図である。図11は、例えば、ステップS910Aにおいてユーザ端末10Aのディスプレイ132に表示される表示画面である。なお、図11は、ステップS909Aにおいて、ユーザAの音声に基づくユーザ音声情報と、ユーザAとは異なる他ユーザの他ユーザ音声情報を受信した場合の例である。
図11の例において、ディスプレイ132上では、移動オブジェクト502a~502eを用いた仮想レースが表示されている。移動オブジェクト502cは、例えば、ユーザAが賭けている移動体であり、その上部に枠番号を表示されている。
また、ディスプレイ132には、仮想レースの表示とともに、モード表示欄1101、テキスト表示ボタン1102、音声出力ボタン1103、及びテキスト欄1110が表示されている。
モード表示欄1101は、音声ライブモードが選択されていることを表示する欄である。ユーザが音声ライブモードを解除する操作入力をした場合、モード表示欄1101にその旨が表示される、又は、モード表示欄1101は非表示になる。
また、モード表示欄1101には、その仮想レースを同時に観戦しているユーザの人数が表示される。これにより、ユーザは、その仮想レースを観戦している人数を把握できるため、例えば、多数のユーザが観戦していて大きな盛り上がりが生じる可能性の高いレースを選択して観戦することが可能になる。なお、仮想レースの観戦者数に代えて又は加えて、その仮想レースにおいて音声ライブモードを選択しているユーザ数を表示してもよい。
テキスト表示ボタン1102は、テキスト欄1110の表示/非表示を切り替えるためのボタンである。音声出力ボタン1103は、レース関連音声情報に基づく音声出力のオン/オフを切り替えるボタンである。テキスト表示ボタン1102が表示状態で、音声出力ボタンがオフ状態である場合、レース関連音声情報に基づく音声は出力されずに、レース関連音声情報に基づくテキスト情報のみが表示されることになる。
テキスト欄1110には、ユーザAのアバター1111、ユーザAのユーザ音声情報に基づいて作成されたユーザテキスト欄1112、他ユーザの他ユーザ音声情報に基づいて作成された他ユーザテキスト欄1113a~1113d(以下、まとめて「他ユーザテキスト欄1113」とも称する)が表示されている。
アバター1111は、ユーザAが自己の画像として設定しているユーザ画像である。ステップS904AにてユーザAが「3 差してきた!!」と発声していた場合、ステップS910Aでは、「3 差してきた!!」という音声が出力される。また、その音声出力とあわせて、アバター1111の近傍のユーザテキスト欄1112には、上記音声内容に対応するテキスト情報に基づくテキストが表示される。
他ユーザテキスト欄1113には、ステップS907において選出された他ユーザ音声情報に対応するテキスト情報に基づくテキストが表示される。図11の例では、ユーザ名「USER109」のユーザ音声情報に基づいて「がんばれ!!」という音声出力がされ、その音声出力に対応するテキストが他ユーザテキスト欄1113aに表示される。
他ユーザテキスト欄1113には、例えば、音声出力がされた順に時系列に沿ってテキストが表示される。すなわち、他ユーザテキスト欄1113には、それぞれの他ユーザ音声情報に含まれる取得時間情報が示す取得時間が新しいものが表示され、古いものから順に消去されうる。なお、ユーザテキスト欄1112についても同様である。
他ユーザテキスト欄1113には、他ユーザがその他ユーザの画像として設定している他ユーザ画像を表示し、その近傍に該他ユーザのテキスト情報に基づくテキストを表示してもよい。その他、テキスト欄1110には、従来のチャットやメッセージアプリ等で採用されている構成を適用してもよい。
図12は、本実施形態に係る表示画面の一例を示す模式図である。図12は、例えば、ステップS910Bにおいてユーザ端末10Bのディスプレイ132に表示される表示画面である。なお、図12は、ステップS909Bにおいて、実況音声情報及び現場音情報を受信した場合の例である。
図12の例において、ディスプレイ132上では、図11の例と同様の仮想レースが表示されている。ただし、図12の例は、仮想レースの視点が図11の例とは異なる。
図12の例において、ディスプレイ132には、モード表示欄1101、実況者画像1201、実況テキスト欄1202、及び現場音テキスト欄1203が表示されている。
実況者画像1201は、仮想レースに対応する現実のレースを実況している実況者の画像である。実況者画像1201に表示されるものは、静止画であっても動画であってもよい。なお、ステップS904Cでは、実況者画像1201に示される実況者の実況音声から実況音声情報が生成される。また、ステップS910Bでは、ユーザ端末10Bから、実況音声情報に基づく実況音声が出力される。
実況テキスト欄1202は、実況音声情報に対応するテキスト情報に基づくテキストが表示される。実況テキスト欄1202におけるテキスト表示は、実況音声の出力にあわせて実行される。
現場音テキスト欄1203は、現場音情報に対応するテキスト情報に基づくテキストが表示される。現場音テキスト欄1203におけるテキスト表示は、現場音の出力にあわせて実行される。
実況テキスト欄1202及び現場音テキスト欄1203は、例えば、音声出力がされた順に時系列に沿ってテキストが表示され、古いものから順に消去されていく。また、実況テキスト欄1202及び現場音テキスト欄1203は、ユーザの操作入力に応じて、表示/非表示を切り替え可能であることが好ましい。また、図12の例において、さらに、図11で示したようなテキスト欄1110を表示してもよい。
上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
仮想レースとして表示するレースが過去のレースである場合であっても、仮想レースにおける各移動オブジェクトの位置情報に対応する時間情報と、各レース関連音声情報に含まれる取得時間情報とに基づいて、過去のレースを仮想的に表示しつつ、適切なレース関連音声情報に基づく音声出力が可能である。
また、本開示における音声出力は、レース開始の前後において実行してもよい。例えば、レース開始前後であっても、そのレースのレース場を仮想的に表示しているユーザのユーザ端末に対して、ユーザ音声情報(他ユーザ音声情報を含む)、実況(実況者による各種の解説)音声情報、及び現場音情報のうちのいずれか1以上を提供し、それぞれの音声情報に基づく音声出力等を実行してもよい。
[付記事項]
本開示の内容を列記すると以下の通りである。
(項目1)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させ、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
プログラム。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(項目2)
前記プロセッサに、さらに、
前記表示するステップの実行中にユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を前記第2コンピュータに送信するステップを実行させ、
前記音声情報には、前記ユーザ音声情報、及び/又は、前記ユーザとは異なる他のユーザの第1コンピュータから前記第2コンピュータに送信された前記他のユーザのユーザ音声情報である他ユーザ音声情報が含まれる、
項目1に記載のプログラム。
これにより、仮想レースを観戦中に発せられた自己の音声、及び/又は、他ユーザの音声がユーザ端末から出力されることになるため、仮想レースの観戦を効果的に盛り上げることができる。
(項目3)
前記音声情報には、前記他ユーザ音声情報が少なくとも含まれ、
前記出力するステップでは、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報を出力し、
前記所定の選出基準は、前記ユーザと前記他ユーザとの関係性、及び前記他ユーザの所定期間における的中率又は回収率、のうちの1以上に基づくものである、
項目2に記載のプログラム。
これにより、複数の他ユーザ音声情報のうちから、そのユーザにとって有用であると思われる他ユーザ音声情報を選出することができるため、ユーザの満足度を高めることができる。
(項目4)
前記関係性は、ユーザ間のフォロー関係であり、
前記出力するステップでは、複数の他ユーザ音声情報のうちから前記ユーザがフォローしている1以上の他ユーザの他ユーザ音声情報に基づいて音声を出力する、
項目3に記載のプログラム。
これにより、ユーザとフォロー関係にある他ユーザと一緒にレースを観戦しているような臨場感をユーザに与えることができるため、仮想レースの観戦をより効果的に盛り上げることができる。
(項目5)
前記表示するステップでは、さらに、前記ユーザに対応するユーザ画像、及び/又は、前記他のユーザに対応する他ユーザ画像を表示し、
前記表示するステップでは、さらに、前記ユーザ画像の近傍に前記ユーザ音声情報に基づいて作成されるテキスト情報を表示する、及び/又は、前記他ユーザ画像の近傍に前記他ユーザ音声情報に基づいて作成されるテキスト情報を表示する、
項目2から項目4のいずれか一項に記載のプログラム。
これにより、音声が聞き取れなかった場合でも音声の内容を確認可能になり、ユーザの満足度を高めることができる。また、仮想レースの観戦中に発した音声によってチャットや実況をしているかのような感覚をユーザに与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(項目6)
前記音声情報には、前記所定のレースの実況音声から生成される実況音声情報が含まれる、
項目1から項目5のいずれか一項に記載のプログラム。
これにより、仮想レースの観戦中のユーザに、実際のレースの中継をテレビ等で見ているような感覚を与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(項目7)
前記表示するステップでは、さらに、前記実況音声情報に基づいて作成されるテキスト情報を表示する、
項目6に記載のプログラム。
これにより、実況音声が聞き取れなかった場合でも実況音声の内容を確認可能になり、ユーザの満足度を高めることができる。
(項目8)
前記音声情報には、前記所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報が含まれる、
項目1から項目7のいずれか一項に記載のプログラム。
これにより、まるで実際のレース場にいるかのような臨場感をユーザに与えることができ、仮想レースの観戦をより効果的に盛り上げることができる。
(項目9)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するステップと、を実行させることを含み、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップでは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
前記出力するステップでは、前記表示するステップにおける前記所定のレースの仮想的な表示とともに、前記音声を出力する、
情報処理方法。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(項目10)
プロセッサ及び撮像部を備えた情報処理装置であって、
前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記所定のレースに関連する音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
情報処理装置。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
(項目11)
第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムであって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、
前記所定のレースに関連する音声情報を取得し、
前記第1情報及び前記音声情報を第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示し、
前記音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力するものであり、
前記第1情報には、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、が含まれ、
前記重畳させて表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含む、
システム。
これにより、レースに関連する音声によって仮想レースの観戦を盛り上げることができる。
1:システム、10:ユーザ端末、20:第1サーバ装置、30:ネットワーク、40:第2サーバ装置、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、250:(第1サーバ装置の)記憶部、290:(第1サーバ装置の)制御部

Claims (8)

  1. コンピュータにおいて実行されるプログラムであって、
    前記プログラムは、前記コンピュータを、
    現実世界における所定のレースに関する第1情報を受信する受信手段と、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成する生成手段と、
    前記仮想オブジェクトを含む画像を表示する表示手段と、
    前記所定のレースに関連する音声情報を受信し、該音声情報に基づいて音声を出力する出力手段と、
    ユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を第2コンピュータに送信する送信手段、として機能させ、
    前記第1情報として、前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
    前記表示手段は、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示し、
    前記出力手段は、前記所定のレースの仮想的な表示とともに、前記音声を出力
    前記音声情報には、前記ユーザとは異なる他のユーザのユーザ音声情報である他ユーザ音声情報が少なくとも含まれ、
    前記出力手段は、複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報に基づいて音声を出力し、
    前記所定の選出基準は、前記ユーザと前記他のユーザとの関係性に基づくものである、
    プログラム。
  2. 前記関係性は、ユーザ間のフォロー関係であり、
    前記出力手段は、複数の他ユーザ音声情報のうちから前記ユーザがフォローしている1以上の他のユーザの他ユーザ音声情報に基づいて音声を出力する、
    請求項に記載のプログラム。
  3. 前記表示手段は、さらに、前記ユーザに対応するユーザ画像、及び/又は、前記他のユーザに対応する他ユーザ画像を表示し、
    前記表示手段は、さらに、前記ユーザ画像とともに前記ユーザ音声情報に基づいて作成されるテキスト情報を表示する、及び/又は、前記他ユーザ画像とともに前記他ユーザ音声情報に基づいて作成されるテキスト情報を表示する、
    請求項1または請求項2に記載のプログラム。
  4. 前記音声情報には、前記所定のレースの実況音声から生成される実況音声情報が含まれる、
    請求項1から請求項のいずれか一項に記載のプログラム。
  5. 前記表示手段は、さらに、前記実況音声情報に基づいて作成されるテキスト情報を表示する、
    請求項に記載のプログラム。
  6. 前記音声情報には、前記所定のレースが実施される現実世界のレース場で集音された現場音から生成される現場音情報が含まれる、
    請求項1から請求項のいずれか一項に記載のプログラム。
  7. プロセッサを備えた情報処理装置であって、
    前記プロセッサは、
    現実世界における所定のレースに関する第1情報を受信し、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
    前記仮想オブジェクトを含む画像を表示し、
    前記所定のレースに関連する音声情報を受信し、該音声情報に基づいて音声を出力し、
    ユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を第2情報処理装置に送信するものであり、
    前記第1情報として、前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
    前記画像を表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
    前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含
    前記音声情報には、前記ユーザとは異なる他のユーザのユーザ音声情報である他ユーザ音声情報が少なくとも含まれ、
    前記プロセッサは、さらに複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報に基づいて音声を出力するものであり、
    前記所定の選出基準は、前記ユーザと前記他のユーザとの関係性に基づくものである、
    情報処理装置。
  8. 第1プロセッサを備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムであって、
    前記第2プロセッサは、
    現実世界における所定のレースに関する第1情報を取得し、
    前記所定のレースに関連する音声情報を取得し、
    前記第1情報及び前記音声情報を前記第1コンピュータへ送信し、
    前記第1プロセッサは、
    前記第1情報を前記第2コンピュータから受信し、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
    前記仮想オブジェクトを重畳させた画像を表示し、
    前記音声情報を前記第2コンピュータから受信し、該音声情報に基づいて音声を出力し、
    ユーザが発した音声からユーザ音声情報を生成し、該ユーザ音声情報を前記第2コンピュータに送信するものであり、
    前記第1情報には、前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、が含まれ、
    前記画像を表示することは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースを仮想的に表示することを含み、
    前記音声を出力することは、前記所定のレースの仮想的な表示とともに、前記音声を出力することを含
    前記音声情報には、前記ユーザとは異なる他のユーザのユーザ音声情報である他ユーザ音声情報が少なくとも含まれ、
    前記第1プロセッサは、さらに複数の他ユーザ音声情報のうちから所定の選出基準に基づいて選出された1以上の他ユーザ音声情報に基づいて音声を出力するものであり、
    前記所定の選出基準は、前記ユーザと前記他のユーザとの関係性に基づくものである、
    システム。
JP2021100027A 2020-10-30 2021-06-16 プログラム、情報処理方法、情報処理装置、及びシステム Active JP7303846B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021100027A JP7303846B2 (ja) 2020-10-30 2021-06-16 プログラム、情報処理方法、情報処理装置、及びシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182772A JP6934552B1 (ja) 2020-10-30 2020-10-30 プログラム、情報処理方法、情報処理装置、及びシステム
JP2021100027A JP7303846B2 (ja) 2020-10-30 2021-06-16 プログラム、情報処理方法、情報処理装置、及びシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020182772A Division JP6934552B1 (ja) 2020-10-30 2020-10-30 プログラム、情報処理方法、情報処理装置、及びシステム

Publications (3)

Publication Number Publication Date
JP2022073925A JP2022073925A (ja) 2022-05-17
JP2022073925A5 JP2022073925A5 (ja) 2022-12-15
JP7303846B2 true JP7303846B2 (ja) 2023-07-05

Family

ID=86996626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021100027A Active JP7303846B2 (ja) 2020-10-30 2021-06-16 プログラム、情報処理方法、情報処理装置、及びシステム

Country Status (1)

Country Link
JP (1) JP7303846B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027344A (ja) 2000-07-04 2002-01-25 Dainippon Printing Co Ltd メール連動番組放送システム
JP2002084521A (ja) 2000-09-08 2002-03-22 Nec Mobiling Ltd 映像情報配信方法、映像情報配信システム及び記録媒体
JP2007214909A (ja) 2006-02-09 2007-08-23 Matsushita Electric Ind Co Ltd 電話装置及び電話方法
US20100271367A1 (en) 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
JP2011182109A (ja) 2010-02-26 2011-09-15 Sony Corp コンテンツ再生装置
JP2018117328A (ja) 2017-01-20 2018-07-26 株式会社ミクシィ 情報処理装置,情報処理装置の制御方法及び制御プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027344A (ja) 2000-07-04 2002-01-25 Dainippon Printing Co Ltd メール連動番組放送システム
JP2002084521A (ja) 2000-09-08 2002-03-22 Nec Mobiling Ltd 映像情報配信方法、映像情報配信システム及び記録媒体
JP2007214909A (ja) 2006-02-09 2007-08-23 Matsushita Electric Ind Co Ltd 電話装置及び電話方法
US20100271367A1 (en) 2009-04-22 2010-10-28 Sony Computer Entertainment America Inc. Method and apparatus for combining a real world event and a computer simulation
JP2011182109A (ja) 2010-02-26 2011-09-15 Sony Corp コンテンツ再生装置
JP2018117328A (ja) 2017-01-20 2018-07-26 株式会社ミクシィ 情報処理装置,情報処理装置の制御方法及び制御プログラム

Also Published As

Publication number Publication date
JP2022073925A (ja) 2022-05-17

Similar Documents

Publication Publication Date Title
CN114236837A (zh) 用于显示交互式增强现实展示的系统、方法和介质
JP6903805B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2022122810A (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7212721B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
WO2022118652A1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7303846B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6857785B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6934552B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7324801B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7398408B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
WO2022107638A1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
WO2022239403A1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6934547B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7482821B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2022138681A (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6866540B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7303845B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6896932B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7219792B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7242759B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2022143416A (ja) プログラム、情報処理方法、情報処理装置、及びシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150