JP7434202B2 - Program, information processing method, information processing device, and system - Google Patents

Program, information processing method, information processing device, and system Download PDF

Info

Publication number
JP7434202B2
JP7434202B2 JP2021044313A JP2021044313A JP7434202B2 JP 7434202 B2 JP7434202 B2 JP 7434202B2 JP 2021044313 A JP2021044313 A JP 2021044313A JP 2021044313 A JP2021044313 A JP 2021044313A JP 7434202 B2 JP7434202 B2 JP 7434202B2
Authority
JP
Japan
Prior art keywords
information
race
user
predetermined
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021044313A
Other languages
Japanese (ja)
Other versions
JP2022089736A5 (en
JP2022089736A (en
Inventor
功淳 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2021044313A priority Critical patent/JP7434202B2/en
Publication of JP2022089736A publication Critical patent/JP2022089736A/en
Publication of JP2022089736A5 publication Critical patent/JP2022089736A5/ja
Application granted granted Critical
Publication of JP7434202B2 publication Critical patent/JP7434202B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は、プログラム、情報処理方法、情報処理装置、及びシステムに関する。 The present disclosure relates to a program, an information processing method, an information processing device, and a system.

特許文献1及び2には、AR(Augmented Reality)に関する技術が開示されている。 Patent Documents 1 and 2 disclose technologies related to AR (Augmented Reality).

特開2020-58658号公報JP2020-58658A 特開2020-77187号公報JP2020-77187A

現実世界においては、ボートレースや競馬などの様々なレースが実施されている。これらのレースを観戦するために実際にレース場へ足を運ぶ人々もいるが、実際にレース場へ足を運ぶことは、時間的又は地理的な制約により不可能な場合もある。上記のような状況から、現実世界のレースに連動した仮想オブジェクトを用いて、現実世界のレースを仮想的なレースとして表示することができれば、実際にレース場へ行かずともレースを擬似的に観戦することができ、有益である。 In the real world, various races such as boat races and horse races are held. Although some people actually go to racetracks to watch these races, it may be impossible to actually go to the racetracks due to time or geographical constraints. Given the above situation, if it is possible to display real-world races as virtual races using virtual objects linked to real-world races, it would be possible to watch a race in a simulated manner without actually going to the race track. It is possible and beneficial.

ところで、ボートレースや競馬などの様々なレースにおいて、レースの出場者の認知度の向上には改善の余地がある。 By the way, in various races such as boat races and horse races, there is room for improvement in improving the recognition of race participants.

本開示の一態様は、コンピュータに表示される仮想レースを通じて、当該仮想レースに対応する現実世界のレースの出場者の認知度を向上可能なプログラム、情報処理方法、情報処理装置、及びシステムを提供することを目的とする。 One aspect of the present disclosure provides a program, an information processing method, an information processing device, and a system that can improve the recognition of participants in a real-world race corresponding to the virtual race through a virtual race displayed on a computer. The purpose is to

本開示に示す一実施形態によれば、
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記所定のレースに関する第2情報を前記第1コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、を実行させ、
前記第1情報は、前記所定のレースにおける出場者および移動体の少なくとも一方に関する出場者情報を少なくとも含み、
前記仮想オブジェクトは、前記出場者または前記移動体に対応する移動オブジェクトを少なくとも含み、
前記表示するステップは、対応する前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示することを含む、
プログラムが提供される。
According to one embodiment presented in the present disclosure,
A program executed on a first computer including a processor and an imaging unit,
The program causes the processor to:
receiving first information about a predetermined race in the real world from a second computer;
generating a virtual object for presenting second information regarding the predetermined race to a user of the first computer based on the first information;
superimposing and displaying the virtual object on a real image of the surroundings of the first computer captured by the imaging unit;
The first information includes at least contestant information regarding at least one of a contestant and a moving object in the predetermined race,
The virtual object includes at least a moving object corresponding to the contestant or the moving object,
The displaying step includes displaying at least a part of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input for the corresponding moving object.
program will be provided.

本開示に示す一実施形態によれば、第1コンピュータに表示される仮想レースを通じて、当該仮想レースに対応する現実世界のレースの出場者の認知度を向上させることができる。 According to one embodiment of the present disclosure, through the virtual race displayed on the first computer, it is possible to improve the recognition level of the contestants in the real world race corresponding to the virtual race.

ある実施の形態に従うシステムの構成例を示す図である。FIG. 1 is a diagram illustrating an example configuration of a system according to an embodiment. ある実施の形態に従うユーザ端末の機能的な構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of a user terminal according to an embodiment. ある実施の形態に従うサーバの機能的な構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of a server according to an embodiment. ある実施の形態に従う現実世界のレース場の一例を示す模式図である。1 is a schematic diagram illustrating an example of a real-world racetrack according to an embodiment. FIG. ある実施の形態に従うユーザ端末に表示される仮想オブジェクトの一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a virtual object displayed on a user terminal according to an embodiment. ある実施の形態に従う表示制御処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of display control processing according to an embodiment. ある実施の形態に従う表示制御処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of display control processing according to an embodiment. ある実施の形態に従うアバター編集画面の一例を示す図である。FIG. 3 is a diagram showing an example of an avatar editing screen according to an embodiment. ある実施の形態に従うアバターオブジェクトの各属性の選択肢を示す選択テーブルを示す図である。FIG. 3 is a diagram showing a selection table showing options for each attribute of an avatar object according to an embodiment. ある実施の形態に従う撮像部により撮像された現実画像の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a real image captured by an imaging unit according to an embodiment. ある実施の形態に従う現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a screen in which a virtual object is superimposed and displayed on a real image according to an embodiment. ある実施の形態に従う現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a screen in which a virtual object is superimposed and displayed on a real image according to an embodiment. ある実施の形態に従う仮想オブジェクトに詳細な出場者情報をアバター情報とともに表示する方法の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a method for displaying detailed contestant information together with avatar information on a virtual object according to an embodiment. ある実施の形態に従う詳細な出場者情報の表示方法の別の例が示された状態の画面の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of a screen showing another example of a method of displaying detailed contestant information according to an embodiment. ある実施の形態に従う第二動作例における表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of display control processing in the second example of operation according to a certain embodiment. ある実施の形態に従うアバターオブジェクトの表示画面の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a display screen of an avatar object according to an embodiment. ある実施の形態に従うアバターオブジェクトの表示画面の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of a display screen of an avatar object according to an embodiment.

以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の要素には同一の符号を付し、重複する説明を適宜省略する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。 Hereinafter, embodiments of this technical idea will be described in detail with reference to the drawings. In the following description, the same elements are denoted by the same reference numerals, and redundant description will be omitted as appropriate. In one or more embodiments shown in this disclosure, elements included in each embodiment can be combined with each other, and the resultant product of the combination also forms part of the embodiments shown in this disclosure.

(システムの構成)
図1は、本実施の形態に従うシステム1の構成を示す図である。システム1は、例えば、現実世界で実施される所定のレースを、ユーザが使用する情報処理装置上において仮想オブジェクトを用いた仮想レースとして表示することが可能なものである。本明細書において、「所定のレース」とは、現実世界で実施されるレースであれば特に制限はされず、例えば、ボートレース(本番のレースや、展示レース)、競馬、競輪、オートレース、F1等のカーレース、ドローンレース、ドッグレース、マラソン、駅伝などが挙げられる。
(System configuration)
FIG. 1 is a diagram showing the configuration of a system 1 according to this embodiment. For example, the system 1 is capable of displaying a predetermined race conducted in the real world as a virtual race using virtual objects on an information processing device used by a user. In this specification, a "predetermined race" is not particularly limited as long as it is a race held in the real world, and includes, for example, a boat race (actual race or exhibition race), horse racing, bicycle racing, auto racing, Examples include car races such as F1, drone races, dog races, marathons, and relay races.

図1に示すように、システム1は、各ユーザが使用する情報処理装置(第1コンピュータ)であるユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」とも称する)など複数のユーザ端末10と、第1サーバ装置(第2コンピュータ)20と、第2サーバ装置40と、ネットワーク30と、を含む。 As shown in FIG. 1, the system 1 includes user terminals 10A, 10B, and 10C (hereinafter, user terminals 10A, 10B, and 10C), which are information processing devices (first computers) used by each user. It includes a plurality of user terminals 10 such as the terminals (also collectively referred to as "user terminals 10"), a first server device (second computer) 20, a second server device 40, and a network 30.

ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、例えば、タッチスクリーンを備える携帯型端末であり、スマートフォン、ファブレット、タブレットなどでありうる。 The user terminal 10A and the user terminal 10B are connected to the network 30 by communicating with the wireless base station 31. The user terminal 10C connects to the network 30 by communicating with a wireless router 32 installed in a facility such as a house. The user terminal 10 is, for example, a portable terminal equipped with a touch screen, and may be a smartphone, a phablet, a tablet, or the like.

ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウエアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、第1サーバ装置20と通信し、所定のレースに関連するデータやユーザに関連するデータ等を第1サーバ装置20との間で送受信することにより、ユーザ端末10上で仮想レースを表示することを可能とする。 The user terminal 10 executes, for example, a program installed via a platform that distributes applications or the like, or a program including preinstalled website viewing software. The user terminal 10 communicates with the first server device 20 by executing the above program, and sends and receives data related to a predetermined race, data related to the user, etc. to and from the first server device 20, thereby providing information about the user. It is possible to display a virtual race on a terminal 10.

第1サーバ装置20は、所定のレースに関連するデータを、第2サーバ装置40から受信する。第1サーバ装置20は、所定のレースに関連するデータを、適宜、ユーザ端末10へ送信する。第1サーバ装置20は、所定のレースに関連するデータや、各ユーザに関連するデータを記憶して管理する。 The first server device 20 receives data related to a predetermined race from the second server device 40. The first server device 20 sends data related to a predetermined race to the user terminal 10 as appropriate. The first server device 20 stores and manages data related to a predetermined race and data related to each user.

第1サーバ装置20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ(第2プロセッサ)29と、を備え、これらが通信バスを介して互いに接続されている。 The first server device 20 includes a communication IF (Interface) 22, an input/output IF 23, a memory 25, a storage 26, and a processor (second processor) 29 as a hardware configuration. are connected to each other through.

通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10や第2サーバ装置40などとの間でデータを送受信するためのインタフェースとして機能する。 The communication IF 22 is compatible with various communication standards such as the LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data with the user terminal 10, the second server device 40, and the like.

入出力IF23は、第1サーバ装置20への情報の入力を受け付けるとともに、第1サーバ装置20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含みうる。 The input/output IF 23 receives information input to the first server device 20 and functions as an interface for outputting information to the outside of the first server device 20. The input/output IF 23 may include an input reception unit that accepts connection of an information input device such as a mouse and a keyboard, and an output unit that accepts connection of an information output device such as a display for displaying images and the like.

メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。 The memory 25 is a storage device for storing data used in processing. The memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing, for example. The memory 25 includes storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory).

ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報には、所定のレースに関連するデータや、各ユーザに関連するデータ等が含まれる。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されうる。なお、ストレージは、サーバ装置に含まれる形態に限られず、クラウドサービスを利用することもできる。 The storage 26 is a storage device for storing various programs and data for the processor 29 to read and execute. The information stored in the storage 26 includes data related to a predetermined race, data related to each user, and the like. The storage 26 may include a storage device such as an HDD (Hard Disk Drive) or a flash memory. Note that the storage is not limited to a form included in a server device, and a cloud service can also be used.

プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、第1サーバ装置20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成されうる。 The processor 29 controls the operation of the first server device 20 by reading and executing programs stored in the storage 26 . The processor 29 may include, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like.

第2サーバ装置40は、所定のレースに関連するデータを記憶して管理している。第2サーバ装置40は、例えば、所定のレースの開催者が管理するサーバ装置や、所定のレースに関する情報を外部へ発信する団体(レース専門誌の発行者、レースの映像配信者又はラジオ配信者など)が管理するサーバ装置である。第2サーバ装置40は、所定のレースに関連するデータを、適宜、第1サーバ装置20へ送信する。ある局面においては、第2サーバ装置40は、所定のレースに関連するデータをユーザ端末10へ送信してもよい。第2サーバ装置40のハードウェア構成は、矛盾の生じない範囲で、第1サーバ装置20と同様であってもよい。第2サーバ装置40は、複数あってもよい。 The second server device 40 stores and manages data related to a predetermined race. The second server device 40 is, for example, a server device managed by the organizer of a predetermined race, or an organization that transmits information about a predetermined race to the outside (a publisher of a race magazine, a race video distributor, or a radio distributor). etc.) is a server device managed by The second server device 40 transmits data related to a predetermined race to the first server device 20 as appropriate. In one aspect, the second server device 40 may transmit data related to a predetermined race to the user terminal 10. The hardware configuration of the second server device 40 may be the same as that of the first server device 20 as long as no contradiction occurs. There may be a plurality of second server devices 40.

(ユーザ端末)
図2は、ユーザ端末10の機能的な構成の一例を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク161と、スピーカ162と、撮像部170と、制御部(第1プロセッサ)190と、を含む。
(user terminal)
FIG. 2 is a block diagram showing an example of the functional configuration of the user terminal 10. As shown in FIG. 2, the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input/output IF 140, a storage section 150, an audio processing section 160, a microphone 161, a speaker 162, It includes an imaging section 170 and a control section (first processor) 190.

アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。 Antenna 110 radiates signals emitted by user terminal 10 into space as radio waves. Further, the antenna 110 receives radio waves from space and provides a received signal to the wireless communication IF 120.

無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。 The wireless communication IF 120 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 110 and the like so that the user terminal 10 communicates with other communication devices. The wireless communication IF 120 is a communication module for wireless communication that includes a tuner, a high frequency circuit, etc., performs modulation/demodulation and frequency conversion of wireless signals transmitted and received by the user terminal 10, and provides a received signal to the control unit 190.

タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの操作入力を受け付けるためのタッチパネル131と、ディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。 Touch screen 130 accepts input from a user and outputs information to display 132 for the user. Touch screen 130 includes a touch panel 131 for receiving user operation input, and a display 132. The touch panel 131 detects the proximity of a user's finger or the like by using a capacitive type, for example. The display 132 is realized by, for example, an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or other display device.

入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。 The input/output IF 140 receives information input to the user terminal 10 and functions as an interface for outputting information to the outside of the user terminal 10.

記憶部150は、フラッシュメモリ、HDD等により構成され、ユーザ端末10が使用するプログラム、及び、ユーザ端末10が第1サーバ装置20等から受信する各種データ等を記憶する。 The storage unit 150 includes a flash memory, an HDD, and the like, and stores programs used by the user terminal 10 and various data received by the user terminal 10 from the first server device 20 and the like.

音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク161から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ162へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク161は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ162は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。 The audio processing unit 160 modulates and demodulates the audio signal. The audio processing unit 160 modulates the signal provided from the microphone 161 and provides the modulated signal to the control unit 190. The audio processing unit 160 also provides an audio signal to the speaker 162. The audio processing unit 160 is realized by, for example, a processor for audio processing. The microphone 161 functions as an audio input section for receiving input audio signals and outputting them to the control section 190. The speaker 162 functions as an audio output unit for outputting audio signals to the outside of the user terminal 10.

撮像部170は、ユーザ端末10の周囲の現実画像を撮像するカメラである。撮像部170によって撮像された画像は、制御部190によって画像処理がなされ、ディスプレイ132へ出力される。 The imaging unit 170 is a camera that captures a real image of the surroundings of the user terminal 10. The image captured by the imaging unit 170 is subjected to image processing by the control unit 190 and output to the display 132.

制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。 The control unit 190 controls the operation of the user terminal 10 by reading and executing a program stored in the storage unit 150. The control unit 190 is realized by, for example, an application processor.

制御部190がアプリケーションプログラム151を実行する処理について、より詳細に説明する。記憶部150は、アプリケーションプログラム151と、アプリケーション情報152と、ユーザ情報153と、を記憶する。 The process by which the control unit 190 executes the application program 151 will be described in more detail. The storage unit 150 stores an application program 151, application information 152, and user information 153.

ユーザ端末10は、例えば、第1サーバ装置20からアプリケーションプログラム151をダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、第1サーバ装置20と通信することで、アプリケーション情報152及びユーザ情報153等の各種のデータを第1サーバ装置20と送受信する。 For example, the user terminal 10 downloads the application program 151 from the first server device 20 and stores it in the storage unit 150. Further, the user terminal 10 transmits and receives various data such as application information 152 and user information 153 to and from the first server device 20 by communicating with the first server device 20 .

アプリケーションプログラム151は、ユーザ端末10において仮想レースを表示するためのプログラムである。アプリケーション情報152は、アプリケーションプログラム151が参照する各種のデータを含む。アプリケーション情報152は、第1情報152Aと、イベント情報152Bと、アバター情報152Cと、を含む。 The application program 151 is a program for displaying a virtual race on the user terminal 10. Application information 152 includes various data referenced by application program 151. Application information 152 includes first information 152A, event information 152B, and avatar information 152C.

第1情報152Aは、第1サーバ装置20や第2サーバ装置40から送信された所定のレースに関する情報である。第1情報152Aとしては、例えば、所定のレースの出場者又は移動体(以下、「出場者等」とも称する)のレースタイムを示すレースタイム情報、所定のレースの実施中における出場者等の位置情報、当該位置情報に対応する時間情報と、が含まれる。 The first information 152A is information regarding a predetermined race transmitted from the first server device 20 or the second server device 40. The first information 152A includes, for example, race time information indicating the race time of a participant or a moving object (hereinafter also referred to as "participant, etc.") in a predetermined race, position information of a participant, etc. during a predetermined race, and time information corresponding to the location information.

本明細書において、「出場者」とは、人間だけでなく、馬や犬などの動物も含む概念である。また、「移動体」とは、所定のレースにおいて移動の主体となるものであり、出場者が乗る動物や機体、出場者が遠隔操縦する機体などである。マラソンやドッグレース等では、「出場者」と「移動体」は同一となる。 As used herein, the term "contestant" is a concept that includes not only humans but also animals such as horses and dogs. Furthermore, a "mobile object" is an object that is the main body of movement in a predetermined race, and includes an animal or an aircraft that a contestant rides, an aircraft that is remotely controlled by a contestant, and the like. In marathons, dog races, etc., the "participant" and the "moving object" are the same.

第1情報152Aとしては、上記の他にも、例えば、所定のレースの名称、開催日時、レース場データ、出場者データ、移動体データ、オッズ情報、レース予想、レース出走表、レース直前情報、ピットレポート、レース結果、レース動画、レース静止画、過去のレース情報、その他の所定のレースに関する情報誌や情報サイトに掲載されうるような情報などを含んでもよい。 In addition to the above, the first information 152A includes, for example, the name of a predetermined race, the date and time of the race, race track data, participant data, mobile data, odds information, race predictions, race entry list, last-minute race information, It may also include pit reports, race results, race videos, race still images, past race information, and other information that can be published in information magazines or information sites regarding a predetermined race.

イベント情報152Bは、所定のレースにおいて発生しうる又は発生したイベントに関する情報であり、例えば、そのイベントに対応する演出表示(エフェクト表示)や演出音に関する情報が含まれる。 The event information 152B is information regarding an event that can occur or has occurred in a predetermined race, and includes, for example, information regarding a production display (effect display) and production sound corresponding to the event.

イベントとしては、特に制限はされないが、例えば、先頭の出場者等のゴール到達、所定のレースの順位確定、出場者等の順位の入れ替わり、所定のタイミングにおいて2以上の出場者等の位置の差が所定の閾値以下になること(2以上の出場者等が接戦をすること)、ルール違反の発生のうちの1以上であってもよい。イベント情報152Bは、本例では、所定のレースにおいてイベントが発生した後に第1サーバ装置20から受信する情報である。 Events are not particularly limited, but include, for example, reaching the goal of the first contestant, determining the ranking of a predetermined race, changing the ranking of contestants, etc., or the difference in the positions of two or more contestants at a predetermined timing. may be one or more of the following: being below a predetermined threshold (two or more contestants, etc. competing closely), or the occurrence of a rule violation. In this example, the event information 152B is information received from the first server device 20 after an event occurs in a predetermined race.

また、イベント情報152Bには、例えば、所定のイベントに対応する二次元画像又は三次元画像に関する情報が含まれる。具体的には、イベント情報152Bには、イベントの内容を報知するテキスト画像や、所定のキャラクタ画像、後述の仮想オブジェクトに付加するエフェクト画像等に関する情報が含まれうる。 Further, the event information 152B includes, for example, information regarding a two-dimensional image or a three-dimensional image corresponding to a predetermined event. Specifically, the event information 152B may include information regarding a text image informing the contents of the event, a predetermined character image, an effect image added to a virtual object described below, and the like.

アバター情報152Cは、ユーザのアバターとなるオブジェクト(以下、アバターオブジェクトと称する)に関する情報が含まれる。具体的には、アバター情報152Cには、アバターオブジェクト(アバターの一例)の性別、タイプ(職業)、髪型、肌色、アクション等の情報が含まれうる。アバター情報152Cは、後述のアバター編集画面を介してユーザが編集可能である。 The avatar information 152C includes information regarding an object that becomes the user's avatar (hereinafter referred to as an avatar object). Specifically, the avatar information 152C may include information such as the gender, type (occupation), hairstyle, skin color, and action of the avatar object (an example of an avatar). The avatar information 152C can be edited by the user via an avatar editing screen, which will be described later.

ユーザ情報153は、ユーザ端末10のユーザについての情報を含む。ユーザ情報153は、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率(例えば、ボートレースであれば購入した舟券の履歴と、購入した舟券の的中率)などを含んでもよい。 User information 153 includes information about the user of user terminal 10. The user information 153 includes, for example, information that identifies the user, location information of the user terminal 10, race purchase history and hit rate of the user (for example, in the case of a boat race, the history of purchased boat tickets and the purchased boat ticket history). (accuracy rate), etc.

制御部190は、アプリケーションプログラム151を読み込んで実行することにより、操作入力受付部191と、送受信部192と、オブジェクト生成部193と、表示制御部194と、平坦面検出部195と、イベント検出部196と、選択情報取得部197と、の各機能を発揮する。 By reading and executing the application program 151, the control unit 190 operates an operation input reception unit 191, a transmission/reception unit 192, an object generation unit 193, a display control unit 194, a flat surface detection unit 195, and an event detection unit. 196 and the selection information acquisition section 197.

操作入力受付部191は、タッチスクリーン130の出力に基づいて、ユーザの操作入力を受け付ける。具体的には、操作入力受付部191は、ユーザの指などがタッチパネル131に接触又は接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。 The operation input receiving unit 191 receives a user's operation input based on the output of the touch screen 130. Specifically, the operation input reception unit 191 detects that the user's finger or the like touches or approaches the touch panel 131 as coordinates of a coordinate system consisting of a horizontal axis and a vertical axis of a surface forming the touch screen 130.

操作入力受付部191は、タッチスクリーン130に対するユーザの操作を判別する。操作入力受付部191は、例えば、「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「長押し操作(ロングタッチ操作)」、「ドラッグ操作(スワイプ操作)」、「ムーブ操作」、「フリック操作」、「ピンチイン操作」、「ピンチアウト操作」などのユーザの操作を判別する。 The operation input reception unit 191 determines a user's operation on the touch screen 130. The operation input reception unit 191 can perform, for example, "approach operation", "release operation", "tap operation", "double tap operation", "long press operation (long touch operation)", "drag operation (swipe operation)", Distinguishes user operations such as "move operation," "flick operation," "pinch-in operation," and "pinch-out operation."

操作入力受付部191は、ユーザ端末10に搭載された加速度センサ等によって検出されるユーザ端末10の動きを、操作入力として受け付けてもよい。 The operation input reception unit 191 may receive the movement of the user terminal 10 detected by an acceleration sensor or the like mounted on the user terminal 10 as an operation input.

送受信部192は、無線通信IF120及びネットワーク30を介して、第1サーバ装置20や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部192は、例えば、第1サーバ装置20又は第2サーバ装置40から第1情報152Aを受信する。また、送受信部192は、例えば、操作入力受付部191が受け付けた操作入力に応じた情報や、ユーザ情報153に記憶された情報等を第1サーバ装置20又は第2サーバ装置40へと送信する。 The transmitting/receiving unit 192 transmits and receives various information to and from external communication devices such as the first server device 20 and the second server device 40 via the wireless communication IF 120 and the network 30. The transmitting/receiving unit 192 receives the first information 152A from the first server device 20 or the second server device 40, for example. Further, the transmitting/receiving unit 192 transmits, for example, information corresponding to the operational input received by the operational input accepting unit 191, information stored in the user information 153, etc. to the first server device 20 or the second server device 40. .

オブジェクト生成部193は、所定のレースに関する情報をユーザに提示するための仮想オブジェクトを、第1情報に基づいて生成する。オブジェクト生成部193は、仮想オブジェクトとして、レース場を表すレース場オブジェクトと、出場者等を表す移動オブジェクトと、を生成する。オブジェクト生成部193は、第1情報に基づいて生成される第2情報をテキスト表示するための仮想表示板を生成してもよい。オブジェクト生成部193は、上記の各オブジェクトの他にも、第1情報に基づいて生成される第2情報を画像表示するための仮想スクリーン、各種の建物オブジェクト、木などの景観を構成する景観オブジェクト等を生成してもよい。 The object generation unit 193 generates a virtual object for presenting information regarding a predetermined race to the user based on the first information. The object generation unit 193 generates a racetrack object representing a racetrack and a moving object representing contestants and the like as virtual objects. The object generation unit 193 may generate a virtual display board for text-displaying the second information generated based on the first information. In addition to the above-mentioned objects, the object generation unit 193 also generates a virtual screen for displaying second information generated based on the first information, various building objects, landscape objects that constitute landscapes such as trees, etc. etc. may be generated.

オブジェクト生成部193は、上記の各オブジェクトのほかに、アバター情報152Cに基づいて、アバターオブジェクトを生成してもよい。オブジェクト生成部193は、アバターオブジェクトとして、例えば、漫画やアニメーションのキャラクタ、各種スポーツ競技のマスコットキャラクタ、芸能人を含む有名人などの三次元モデルを生成してもよい。アバターオブジェクトは、三次元モデルに限られる、二次元画像であってもよい。オブジェクト生成部193は、生成したアバターオブジェクトを、移動オブジェクトの出場者を示す部分に代替させてもよい。 The object generation unit 193 may generate an avatar object based on the avatar information 152C in addition to the above-mentioned objects. The object generation unit 193 may generate, for example, a three-dimensional model of a cartoon or animation character, a mascot character of various sports events, a celebrity including a celebrity, etc. as an avatar object. The avatar object may be a two-dimensional image, limited to a three-dimensional model. The object generation unit 193 may replace the generated avatar object with a portion of the moving object indicating the contestant.

表示制御部194は、撮像部170により撮像されたユーザ端末10の周囲の現実画像に、オブジェクト生成部193により生成された仮想オブジェクトを重畳させた画像(以下、「重畳画像」とも称する)を、ディスプレイ132上に表示させる。表示制御部194は、第1情報152Aに含まれるレースタイム情報に基づいて、各移動オブジェクトをレース場オブジェクト上において移動させ、所定のレースを仮想的に再現した仮想レースをディスプレイ132上に表示させる。表示制御部194は、レースタイム情報に加えて、第1情報152Aに含まれる出場者等の位置情報、及び当該位置情報に対応する時間情報に基づいて、仮想レースを再現するものであることが好ましい。 The display control unit 194 displays an image (hereinafter also referred to as a “superimposed image”) in which a virtual object generated by the object generation unit 193 is superimposed on a real image of the surroundings of the user terminal 10 captured by the imaging unit 170. It is displayed on the display 132. The display control unit 194 moves each moving object on the racetrack object based on the race time information included in the first information 152A, and causes the display 132 to display a virtual race that is a virtual reproduction of a predetermined race. It is preferable that the display control unit 194 reproduces the virtual race based on the race time information as well as the position information of the contestants included in the first information 152A and the time information corresponding to the position information. .

表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、重畳画像における視点を変更可能であることが好ましい。表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、ディスプレイ132に各種のメニュー画面やGUI(Graphical User Interface)を表示させたり、ディスプレイ132の表示内容を変更したりする。 It is preferable that the display control unit 194 is capable of changing the viewpoint in the superimposed image according to the operation input received by the operation input reception unit 191. The display control unit 194 causes the display 132 to display various menu screens and GUI (Graphical User Interface), or changes the display content of the display 132, depending on the operation input received by the operation input reception unit 191.

また、表示制御部194は、イベント検出部196がイベントの発生を検出したことに応じて、該イベントに対応する演出表示をする。演出表示の内容としては、特に制限はされないが、例えば、所定のアバターオブジェクトの表示であってもよく、レース場オブジェクト及び移動オブジェクトの少なくとも一方へのエフェクト表示、所定のイベントに対応する二次元画像又は三次元画像の表示、これらの画像をレース進行に応じて動作させることのうちの1以上であってもよい。表示制御部194は、異なるイベントに対応する2以上の演出表示を同時に実行してもよい。 Furthermore, in response to the event detection section 196 detecting the occurrence of an event, the display control section 194 displays an effect corresponding to the event. The content of the effect display is not particularly limited, but may be, for example, the display of a predetermined avatar object, the display of effects on at least one of a racetrack object and a moving object, or a two-dimensional image corresponding to a predetermined event. Alternatively, it may be one or more of displaying three-dimensional images and operating these images in accordance with the progress of the race. The display control unit 194 may simultaneously execute two or more effect displays corresponding to different events.

平坦面検出部195は、撮像部170により撮像された現実画像内における平坦面を検出する。平坦面の検出は、従来公知の画像認識技術によって実現される。例えば、平坦面検出部195が検出した平坦面を選択する操作をユーザが行った場合、当該平坦面にレース場オブジェクトが配置された重畳画像がディスプレイ132に表示される。 The flat surface detection section 195 detects a flat surface in the real image captured by the imaging section 170. Detection of flat surfaces is realized by conventionally known image recognition techniques. For example, when the user performs an operation to select a flat surface detected by the flat surface detection unit 195, a superimposed image in which a racetrack object is placed on the flat surface is displayed on the display 132.

平坦面は、水平面であることが好ましい。また、平坦面とレース場オブジェクトを構成する底面とのなす角度は0度であってもよいが、鋭角であることが好ましく、例えば、15度~45度の範囲にすることができる。上記角度は、ユーザの操作を受け付けて調節する態様とすることもできる。また、現実世界の平坦面の一部に凸部がある場合や、当該平坦面に載置物がある場合であっても、当該凸部や当該載置物がレース場オブジェクトによって隠れる程度のサイズならば、レース場オブジェクトを配置可能は平坦面として検出してもよい。 Preferably, the flat surface is a horizontal surface. Furthermore, although the angle between the flat surface and the bottom surface constituting the racetrack object may be 0 degrees, it is preferably an acute angle, and can be in the range of 15 degrees to 45 degrees, for example. The angle may also be adjusted in response to a user's operation. Furthermore, even if there is a convex part on a flat surface in the real world or there is an object placed on the flat surface, if the convex part or the object is of a size that is hidden by the racetrack object, then , a racetrack object may be placed on a flat surface.

イベント検出部196は、所定のレースにおける所定のイベントの発生を検出する。イベント検出部196は、例えば、現実世界の所定のレースにおいて所定のイベントが発生した場合に第1サーバ装置20から送信されるイベント情報を送受信部192が受信したことに基づいて、所定のイベントの発生を検出する。 The event detection unit 196 detects the occurrence of a predetermined event in a predetermined race. For example, the event detection unit 196 detects a predetermined event based on the fact that the transmitting/receiving unit 192 receives event information transmitted from the first server device 20 when a predetermined event occurs in a predetermined race in the real world. Detect occurrence.

また、イベント検出部196は、例えば、第1情報152Aやユーザ情報153に基づいて、所定のイベントの発生を検出してもよい。イベント検出部196は、具体的には、出場者等の位置情報と当該位置情報に対応する時間情報とに基づいて、出場者等の順位の入れ替わり等のレース中の出場者等の位置から判断可能なイベントを検出しうる。イベント検出部196は、例えば、レース結果に関する情報と、ユーザのレース購入履歴に関する情報とに基づいて、ユーザの購入した出場者等がレースの先頭に位置する等のイベントを検出しうる。 Further, the event detection unit 196 may detect the occurrence of a predetermined event based on the first information 152A and the user information 153, for example. Specifically, the event detection unit 196 determines based on the position of the contestant, etc. during the race, such as a change in the ranking of the contestant, etc., based on the location information of the contestant, etc. and the time information corresponding to the location information. Possible events can be detected. The event detection unit 196 can detect, for example, an event such as a contestant or the like purchased by the user being positioned at the head of the race, based on information regarding race results and information regarding the user's race purchase history.

選択情報取得部197は、ユーザが選択した1以上の出場者等を示す1以上の選択情報を取得する。「選択情報」とは、例えば、所定のレースの勝者等としてユーザが予想した出場者等を示す情報である。所定のレースがボートレースや競馬である場合、「選択情報」は、ユーザが購入した舟券や馬券を示す情報でありうる。 The selection information acquisition unit 197 acquires one or more selection information indicating one or more contestants selected by the user. The "selection information" is, for example, information indicating a contestant or the like that the user predicts as the winner of a predetermined race. When the predetermined race is a boat race or a horse race, the "selection information" may be information indicating a boat ticket or horse racing ticket purchased by the user.

選択情報取得部197は、例えば、出場者等を選択するための画面上でのユーザの操作入力に基づいて、選択情報を取得する。選択情報取得部197が取得した選択情報は、例えば、第1サーバ装置20又は第2サーバ装置40へ送信される。所定のレースがボートレースや競馬である場合、選択情報が第2サーバ装置40へ送信されたことに応じて、舟券や馬券の購入処理がなされうる。 The selection information acquisition unit 197 acquires selection information based on, for example, a user's operation input on the screen for selecting a contestant or the like. The selection information acquired by the selection information acquisition unit 197 is transmitted to the first server device 20 or the second server device 40, for example. When the predetermined race is a boat race or a horse race, a boat ticket or a horse racing ticket can be purchased in response to the selection information being transmitted to the second server device 40.

(第1サーバ装置)
図3は、第1サーバ装置20の機能的な構成を示すブロック図である。図3を参照して、第1サーバ装置20の詳細な構成を説明する。第1サーバ装置20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。
(First server device)
FIG. 3 is a block diagram showing the functional configuration of the first server device 20. As shown in FIG. The detailed configuration of the first server device 20 will be described with reference to FIG. 3. The first server device 20 functions as a communication section 220, a storage section 250, and a control section 290 by operating according to a program.

通信部220は、第1サーバ装置20がユーザ端末10や第2サーバ装置40などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。 The communication unit 220 functions as an interface for the first server device 20 to communicate with external communication devices such as the user terminal 10 and the second server device 40 via the network 30.

記憶部250は、システム1を実現するための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、レース情報252と、ユーザ情報253とを記憶する。 The storage unit 250 stores various programs and data for realizing the system 1. In one aspect, the storage unit 250 stores a program 251, race information 252, and user information 253.

プログラム251は、第1サーバ装置20がユーザ端末10や第2サーバ装置40と通信して、システム1を実現するためのプログラムである。プログラム251は、制御部290に実行されることにより、ユーザ端末10や第2サーバ装置40とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じた処理、レース情報252やユーザ情報253を更新する処理などを第1サーバ装置20に行わせる。 The program 251 is a program for the first server device 20 to communicate with the user terminal 10 and the second server device 40 to realize the system 1. The program 251 is executed by the control unit 290 to perform processing for transmitting and receiving data with the user terminal 10 and the second server device 40, processing according to the operation contents performed by the user of the user terminal 10, race information 252 and the user The first server device 20 is caused to perform processing such as updating the information 253.

レース情報252は、所定のレースに関連する各種のデータを含む。レース情報252は、例えば、第1情報252Aとイベント情報252Bとを含む。第1情報252Aは、第1情報152Aの元となる情報であり、第1情報152Aは、第1情報252Aの一部でありうる。第1情報252Aは、例えば、第2サーバ装置40から取得された情報である。同様に、イベント情報252Bは、イベント情報152Bの元となる情報であり、イベント情報152Bは、イベント情報252Bの一部でありうる。イベント情報252Bは、例えば、第2サーバ装置40から取得された情報である。 Race information 252 includes various data related to a predetermined race. Race information 252 includes, for example, first information 252A and event information 252B. The first information 252A is the source information of the first information 152A, and the first information 152A may be a part of the first information 252A. The first information 252A is, for example, information acquired from the second server device 40. Similarly, the event information 252B is the source information of the event information 152B, and the event information 152B can be a part of the event information 252B. The event information 252B is, for example, information acquired from the second server device 40.

ユーザ情報253は、ユーザ端末10のユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、例えば、ユーザを識別する情報、ユーザ端末10の位置情報、ユーザのレース購入履歴や的中率などをユーザ毎に記憶している。 The user information 253 is information about the user of the user terminal 10. User information 253 includes a user management table 253A. The user management table 253A stores, for example, information for identifying the user, location information of the user terminal 10, user's race purchase history, hit rate, etc. for each user.

制御部290は、プロセッサ29によって実現され、プログラム251を実行することにより、送受信部291、第1情報取得部292A、イベント情報取得部292B、選択情報取得部293、データ管理部294、計時部295としての機能を発揮する。 The control section 290 is realized by the processor 29, and by executing the program 251, the transmitting/receiving section 291, the first information acquisition section 292A, the event information acquisition section 292B, the selection information acquisition section 293, the data management section 294, and the clock section 295 are implemented. It functions as a.

送受信部291は、通信部220及びネットワーク30を介して、ユーザ端末10や第2サーバ装置40などの外部の通信機器と各種情報の送信及び受信を行う。送受信部291は、例えば、第1情報252A及びイベント情報252Bの少なくとも一部をユーザ端末10へ送信する。また、送受信部291は、例えば、第1情報252A及びイベント情報252Bを第2サーバ装置40から受信する。 The transmitting/receiving unit 291 transmits and receives various information to and from external communication devices such as the user terminal 10 and the second server device 40 via the communication unit 220 and the network 30. The transmitter/receiver 291 transmits, for example, at least part of the first information 252A and the event information 252B to the user terminal 10. Further, the transmitting/receiving unit 291 receives, for example, first information 252A and event information 252B from the second server device 40.

第1情報取得部292Aは、送受信部291を介して、第1情報252Aを第2サーバ装置40から取得する。イベント情報取得部292Bは、送受信部291を介して、イベント情報252Bを第2サーバ装置40から取得する。選択情報取得部293は、送受信部291を介して、ユーザの選択情報をユーザ端末10又は第2サーバ装置40から取得する。データ管理部294は、第1情報取得部292A、イベント情報取得部292B、選択情報取得部293等における処理結果に従って、記憶部250に記憶される各種データを更新する処理を行う。計時部295は、時間を計測する処理を行う。計時部295によって計測される時間に基づいて、ユーザ端末10に表示される各種時間(例えば、レース開始までの時間など)が制御されうる。 The first information acquisition unit 292A acquires the first information 252A from the second server device 40 via the transmission/reception unit 291. The event information acquisition unit 292B acquires the event information 252B from the second server device 40 via the transmission/reception unit 291. The selection information acquisition unit 293 acquires user selection information from the user terminal 10 or the second server device 40 via the transmission/reception unit 291. The data management section 294 performs a process of updating various data stored in the storage section 250 according to the processing results of the first information acquisition section 292A, the event information acquisition section 292B, the selection information acquisition section 293, and the like. The clock unit 295 performs a process of measuring time. Based on the time measured by the timer 295, various times displayed on the user terminal 10 (for example, the time until the start of the race, etc.) can be controlled.

(第一動作例)
次に、図4から図14を参照して、システム1における第一動作例について説明する。以下では、所定のレースがボートレースである場合を例示して説明をするが、以下の説明は、所定のレースが他のレースであっても適用可能である。また、以下では、ユーザ端末10と第1サーバ装置20の間、及び第1サーバ装置20と第2サーバ装置40の間でデータの送受信を行うものとして説明をするが、ある局面においては、ユーザ端末10と第2サーバ装置40とで直接的にデータの送受信をするように構成してもよい。
(First operation example)
Next, a first example of operation in the system 1 will be described with reference to FIGS. 4 to 14. Although the following explanation will be given by exemplifying a case where the predetermined race is a boat race, the following explanation is also applicable even if the predetermined race is another race. In addition, although the following explanation assumes that data is transmitted and received between the user terminal 10 and the first server device 20 and between the first server device 20 and the second server device 40, in some situations the user The terminal 10 and the second server device 40 may be configured to directly transmit and receive data.

図4は、現実世界のボートレース場の一例を示す模式図である。ボートレース場401には、2つのターンマーク403が設置されており、各ボートレーサーが乗るボート402a~402fによるレースが実施されている。レースが終了した場合、ボート402a~402fそれぞれのレースタイムを示すレースタイム情報が、第2サーバ装置40から第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。 FIG. 4 is a schematic diagram showing an example of a boat racing track in the real world. Two turn marks 403 are installed at the boat race course 401, and races are held between boats 402a to 402f on which boat racers ride. When the race ends, race time information indicating the race times of the boats 402a to 402f is transmitted from the second server device 40 to the first server device 20, and from the first server device 20 to the user terminal 10.

ボートレース場401には、撮像装置(カメラ)404a~404bが設けられている。撮像装置404aは、ボートレース場401の上方からボート402a~402fを視界に収める。撮像装置404bは、ボートレース場401の側方からボート402a~402fを視界に収める。撮像装置404a~404bによって撮像されたボート402a~402fの画像は、第2サーバ装置40へ送信される。第2サーバ装置40では、例えば、各画像の画像解析を行い、各画像の撮影時間におけるボート402a~402fそれぞれの位置を示す位置情報を算出する。算出された位置情報と、当該位置情報に対応する撮影時間に関する時間情報は、第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。なお、位置情報の算出は、第1サーバ装置20において実施してもよい。 The boat race track 401 is provided with imaging devices (cameras) 404a to 404b. The imaging device 404a captures the boats 402a to 402f in view from above the boat race track 401. The imaging device 404b captures the boats 402a to 402f in view from the side of the boat race track 401. The images of the boats 402a to 402f captured by the imaging devices 404a to 404b are transmitted to the second server device 40. The second server device 40, for example, performs image analysis of each image and calculates position information indicating the position of each of the boats 402a to 402f at the time when each image was taken. The calculated position information and time information regarding the photographing time corresponding to the position information are transmitted to the first server device 20, and from the first server device 20 to the user terminal 10. Note that the calculation of the position information may be performed in the first server device 20.

また、撮像装置404a~404bに代えて、又は加えて、ボート402a~402fに、GPSセンサ等の位置センサを設置してもよい。位置センサによって取得されたボート402a~402fの位置情報と、当該位置情報が取得された時間を示す時間情報とは、最終的にユーザ端末10へと送信される。 Further, in place of or in addition to the imaging devices 404a to 404b, position sensors such as GPS sensors may be installed on the boats 402a to 402f. The position information of the boats 402a to 402f acquired by the position sensors and time information indicating the time when the position information was acquired are finally transmitted to the user terminal 10.

図5は、ユーザ端末10に表示される仮想オブジェクトの一例を示す模式図である。図5の例では、仮想オブジェクトとして、レース場オブジェクト501と、移動オブジェクト502a~502fと、2つのターンマークオブジェクト503と、仮想表示板505と、が示されている。 FIG. 5 is a schematic diagram showing an example of a virtual object displayed on the user terminal 10. In the example of FIG. 5, a racetrack object 501, moving objects 502a to 502f, two turn mark objects 503, and a virtual display board 505 are shown as virtual objects.

レース場オブジェクト501は、ボートレース場401を仮想的に表示したオブジェクトである。レース場オブジェクト501やターンマークオブジェクト503は、例えば、ボートレース場401のコース情報等のレース場データに基づいて作製されることが好ましく、ボートレース場401と対応する形状であることが好ましい。 The race track object 501 is an object that virtually displays the boat race track 401. The race track object 501 and the turn mark object 503 are preferably created based on race track data such as course information of the boat race track 401, and preferably have a shape corresponding to the boat race track 401.

移動オブジェクト502a~502fは、ボート402a~402fをそれぞれ仮想的に表示したオブジェクトであり、ボートを模した形状である。移動オブジェクト502a~502fは、レースタイム情報や、ボート402a~402fの位置情報及び当該位置情報に対応する時間情報に基づいて、レース場オブジェクト501を移動する。すなわち、レース場オブジェクト501及び移動オブジェクト502a~502fによって、現実世界のレースが仮想的なレースとしてユーザ端末10上で表示される。 The moving objects 502a to 502f are objects that virtually display the boats 402a to 402f, respectively, and have shapes imitating boats. The moving objects 502a to 502f move the racetrack object 501 based on race time information, position information of the boats 402a to 402f, and time information corresponding to the position information. That is, a race in the real world is displayed on the user terminal 10 as a virtual race by the racetrack object 501 and the moving objects 502a to 502f.

なお、ボート402a~402fの位置情報及び時間情報がなくとも、レースタイム情報のみによって仮想レースを表示することも可能である。ただ、この場合、最終的な着順は現実世界のレースと同じものになるが、レース中の順位などのレース経過を再現することが困難である。 Note that it is also possible to display a virtual race using only race time information even without the position information and time information of the boats 402a to 402f. However, in this case, although the final finishing order will be the same as in the real world race, it is difficult to reproduce the race progress such as the ranking during the race.

仮想表示板505は、テキスト情報を表示するオブジェクトである。仮想表示板505は、例えば、ボートレース場401において対応する存在のないオブジェクトである。仮想表示板505に表示するテキスト情報は、特に制限はされず、例えば、順位情報やオッズ情報等であってもよい。また、仮想表示板505に表示するテキスト情報は、ユーザの操作入力に基づいて変更可能であってもよい。 Virtual display board 505 is an object that displays text information. The virtual display board 505 is, for example, an object that does not have a corresponding counterpart in the boat race track 401. The text information displayed on the virtual display board 505 is not particularly limited, and may be rank information, odds information, etc., for example. Furthermore, the text information displayed on the virtual display board 505 may be changeable based on the user's operational input.

図6及び図7は、表示制御処理の一例を示すフローチャートである。なお、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。また、各装置が実行する処理は、矛盾の生じない範囲で、他の装置によって実行されてもよい。 6 and 7 are flowcharts illustrating an example of display control processing. Note that the order of each process constituting the flowchart described below is random as long as no contradiction or inconsistency occurs in the process contents. Further, the processing executed by each device may be executed by another device as long as no contradiction occurs.

図6及び図7に示される処理は、制御部190がアプリケーションプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現される。 The processes shown in FIGS. 6 and 7 are realized by the control unit 190 executing the application program 151 and the control unit 290 executing the program 251, respectively.

まず、ステップS610において、制御部190は、アバターオブジェクトのベースとなるベースアバターを生成する。ステップS620において、制御部190は、ユーザの操作入力に基づいて、アバターオブジェクトの編集情報を取得する。ステップS630において、制御部190は、ステップS620で取得した編集情報に基づいて、記憶部150に記憶されているアバター情報152Cを更新する。 First, in step S610, the control unit 190 generates a base avatar that is the base of the avatar object. In step S620, the control unit 190 obtains editing information of the avatar object based on the user's operation input. In step S630, control unit 190 updates avatar information 152C stored in storage unit 150 based on the editing information acquired in step S620.

ここで、図8及び図9を用いて、ステップS610~S630の処理について具体的に説明する。図8は、生成されたベースアバターに基づいて、ユーザがアバターオブジェクトを編集するためのアバター編集画面800の一例を示す図である。図8に示すアバター編集画面800は、ベースアバター801と、ベースアバター801の性別を変更するための性別ボタン802と、ベースアバター801の性別以外の各種属性を変更するための属性変更欄803とを含んでいる。図8に示す例では、ベースアバター801は、男性の姿で生成されるが、性別ボタン802をタップ等することにより、女性に変更可能である。属性変更欄803においては、例えば、アバターオブジェクトの「タイプ(職業)」、「肌色」、「勝利アクション」、「負けアクション」などの各属性について、複数の選択肢が表示される。 Here, the processing in steps S610 to S630 will be specifically explained using FIGS. 8 and 9. FIG. 8 is a diagram showing an example of an avatar editing screen 800 for the user to edit an avatar object based on the generated base avatar. The avatar editing screen 800 shown in FIG. 8 includes a base avatar 801, a gender button 802 for changing the gender of the base avatar 801, and an attribute change field 803 for changing various attributes other than the gender of the base avatar 801. Contains. In the example shown in FIG. 8, the base avatar 801 is generated as a male, but it can be changed to a female by tapping a gender button 802 or the like. In the attribute change field 803, a plurality of options are displayed for each attribute of the avatar object, such as "type (occupation)," "skin color," "winning action," and "losing action."

図9は、各属性の選択肢を示す選択テーブル900を示す図である。図9に示す選択テーブル900は、例えば、記憶部150に記憶されているアバター情報152Cに含まれうる。図9の例では、選択テーブル900には、例えば、属性として「タイプ」、「肌色」、「勝利アクション」、「負けアクション」、「乗り物」が含まれ、各属性において例1~例4までの選択肢が登録されている。制御部190は、この選択テーブル900に基づいて、アバター編集画面800の属性変更欄803を表示する。これにより、ユーザは属性ごとの複数の選択肢から好みの選択肢を選ぶことができる。 FIG. 9 is a diagram showing a selection table 900 showing options for each attribute. The selection table 900 shown in FIG. 9 may be included in the avatar information 152C stored in the storage unit 150, for example. In the example of FIG. 9, the selection table 900 includes, for example, "type", "skin color", "winning action", "losing action", and "vehicle" as attributes, and examples 1 to 4 are included in each attribute. options are registered. Control unit 190 displays attribute change field 803 of avatar editing screen 800 based on this selection table 900. This allows the user to select a preferred option from a plurality of options for each attribute.

性別ボタン802及び属性変更欄803に対するユーザの操作入力に基づいて、制御部190は、アバターオブジェクトの編集情報として、アバターオブジェクトの性別、タイプ、肌色、アクションなどの情報を取得する。例えば、ユーザが、性別ボタン802をタップ等してベースアバター801の性別を「男性」と選択するとともに、属性変更欄803をタップ等してタイプ「勇者」を選択し、勝利アクション「ガッツポーズ」を選択し、負けアクション「ボート爆破」を選択したとする。制御部190は、ステップS620にて、ユーザのこれらの操作入力に基づいて、アバターオブジェクトを変更するための情報を編集情報として取得する。その後、制御部190は、ステップS620で取得した編集情報に基づいて、ステップS630にて、アバターオブジェクトが「男性」の「勇者」の姿であって、レースに勝利した場合には「ガッツポーズ」のアクションを実行し、レースに負けた場合には「ボート爆破」のアクションを実行するようにアバター情報152Cを更新する。 Based on the user's operation input to the gender button 802 and attribute change field 803, the control unit 190 acquires information such as the gender, type, skin color, action, etc. of the avatar object as editing information of the avatar object. For example, the user selects the gender of the base avatar 801 as "male" by tapping the gender button 802, selects the type "brave" by tapping the attribute change field 803, and performs the victory action "fist pose". Assume that you select the losing action ``Blow up the boat.'' In step S620, control unit 190 acquires information for changing the avatar object as editing information based on these operation inputs from the user. Thereafter, based on the editing information acquired in step S620, the control unit 190 performs a "fist pose" in step S630 if the avatar object is a "male" "hero" and has won the race. The avatar information 152C is updated to perform the action "Blow up the boat" if the player loses the race.

なお、上記の例では、ステップS620及びS630において、単一のアバターオブジェクトの編集及び登録を行う処理を説明しているが、この例に限られない。本ステップにおいて、複数のアバターオブジェクトの編集及び登録が可能である。また、アバターオブジェクトを編集するための選択肢は、図8に示すアバター編集画面800や図9で示す選択テーブル900で表示される選択肢に限られるものではなく、例えば、ユーザ自身が好みの画像(ユーザ自身の写真など)を取り込んで、取り込まれた当該画像に基づいてアバターオブジェクトを編集可能としてもよい。 Note that although the above example describes the process of editing and registering a single avatar object in steps S620 and S630, the present invention is not limited to this example. In this step, multiple avatar objects can be edited and registered. Further, the options for editing the avatar object are not limited to the options displayed on the avatar editing screen 800 shown in FIG. 8 or the selection table 900 shown in FIG. The avatar object may be editable based on the captured image.

ステップS640において、制御部190は、第1サーバ装置20から所定のレースの出場者又は移動体に関する情報(以下、出場者情報と称する)を取得する。ステップS640の処理は、所定の頻度で実行される、または特定のイベントが発生した場合に実行されうる。すなわち、出場者情報は、ステップS640の処理が実行される毎に更新されうる。なお、特定のイベントとは、特に制限はされないが、例えば、出場者情報が変更された場合(例えば、オッズに変動があった場合など)や、レースの開始や終了、順位の確定等があった場合が挙げられる。 In step S<b>640 , the control unit 190 acquires information regarding participants or mobile objects in a predetermined race (hereinafter referred to as participant information) from the first server device 20 . The process of step S640 may be executed at a predetermined frequency or when a specific event occurs. That is, the contestant information may be updated every time the process of step S640 is executed. A specific event is not limited to any particular event, but may include, for example, when participant information changes (for example, when there is a change in odds), when a race starts or ends, or when rankings are determined. One example is the case.

ステップS650において、制御部190は、取得した出場者情報に対してアバター情報を関連付けて登録する。すなわち、制御部190は、第1サーバ装置20から取得されて記憶部150に記憶されている第1情報152Aに含まれる出場者情報とアバター情報152Cとを関連付けて登録する。出場者情報とアバター情報152Cとの関連付けは、例えば、出場者等を選択するための画面上でのユーザの操作入力に基づいて取得された選択情報に基づいて行われてもよい。すなわち、制御部190は、ユーザが舟券や馬券を購入した出場者の出場者情報とアバター情報152Cとを結合してもよい。 In step S650, control unit 190 associates and registers avatar information with the acquired contestant information. That is, the control unit 190 associates and registers the contestant information included in the first information 152A acquired from the first server device 20 and stored in the storage unit 150 and the avatar information 152C. The association between the contestant information and the avatar information 152C may be performed, for example, based on selection information acquired based on a user's operational input on a screen for selecting a contestant or the like. That is, the control unit 190 may combine the contestant information and the avatar information 152C of the contestants for whom the user has purchased boat tickets or horse racing tickets.

ステップS660において、制御部190は、カメラである撮像部170を起動する。撮像部170によって、ユーザ端末10の周囲の現実画像が撮像される。 In step S660, the control unit 190 activates the imaging unit 170, which is a camera. The imaging unit 170 captures a real image of the surroundings of the user terminal 10 .

ステップS670において、制御部190は、撮像部170によって撮像された画像内における平坦面を検出する。ステップS680において、制御部190は、検出した平坦面に仮想オブジェクトを配置する。 In step S670, the control unit 190 detects a flat surface in the image captured by the imaging unit 170. In step S680, the control unit 190 places the virtual object on the detected flat surface.

ここで、図10から図12を用いて、ステップS660、S670、及びS680の処理について具体的に説明する。図10は、撮像部170により撮像された現実画像の一例を示す模式図である。図10の例では、平坦なデスク1001上に、キーボード1002と、モニタ装置1003と、が置かれている。 Here, the processing in steps S660, S670, and S680 will be specifically explained using FIGS. 10 to 12. FIG. 10 is a schematic diagram showing an example of a real image captured by the imaging unit 170. In the example of FIG. 10, a keyboard 1002 and a monitor device 1003 are placed on a flat desk 1001.

ステップS670において撮像部170が起動されると、ディスプレイ132上に、撮像部170によって撮像されている現実画像が表示される。次に、ステップS680において、制御部190は、撮像部170によって撮像された画像内、すなわちディスプレイ132に表示された画像内における平坦面を検出する。 When the imaging unit 170 is activated in step S670, the actual image captured by the imaging unit 170 is displayed on the display 132. Next, in step S680, the control unit 190 detects a flat surface within the image captured by the imaging unit 170, that is, within the image displayed on the display 132.

図10では、領域1004が平坦面として検出されている。領域1004内にはキーボード1002があるが、キーボード1002はレース場オブジェクト501によって隠れる程度のサイズなので、制御部190は、領域1004を平坦面として検出する。 In FIG. 10, region 1004 is detected as a flat surface. Although there is a keyboard 1002 within the area 1004, the keyboard 1002 is of a size that is hidden by the racetrack object 501, so the control unit 190 detects the area 1004 as a flat surface.

図10に示す状態で、撮像部170によって撮像される位置を変更すれば、領域1004の位置も変更されうる。領域1004は、ディスプレイ132上において、例えば、所定の色を付加されて、他の部分とは区別可能に表示される。ユーザが領域1004に対してタップ操作等を実行した場合、ステップS690において、制御部190は、領域1004上にレース場オブジェクト501、移動オブジェクト502a~502f等の仮想オブジェクトを配置する。 If the position imaged by the imaging unit 170 is changed in the state shown in FIG. 10, the position of the area 1004 can also be changed. The area 1004 is displayed on the display 132, for example, by adding a predetermined color so as to be distinguishable from other parts. When the user performs a tap operation or the like on the area 1004, the control unit 190 arranges virtual objects such as the racetrack object 501 and the moving objects 502a to 502f on the area 1004 in step S690.

図11は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。図11において、モニタ装置1003を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。仮想オブジェクトが表示されていない領域には、例えば、広告画像を表示してもよい。 FIG. 11 is a schematic diagram showing an example of a screen in which a virtual object is displayed superimposed on a real image. In FIG. 11, the area with the dot pattern including the monitor device 1003 is the real image, and the other areas are areas where virtual objects are displayed. For example, an advertisement image may be displayed in the area where the virtual object is not displayed.

図11では、仮想オブジェクトとして、レース場オブジェクト501と、複数の移動オブジェクト502と、2つのターンマークオブジェクト503と、大型モニタオブジェクト506と、建物オブジェクト507a~507bと、その他の符号を付していない多数のオブジェクト(木オブジェクト、時計オブジェクト等)と、が表示されている。これらのオブジェクトは、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。 In FIG. 11, virtual objects include a racetrack object 501, a plurality of moving objects 502, two turn mark objects 503, a large monitor object 506, building objects 507a to 507b, and other symbols are not attached. A large number of objects (tree object, clock object, etc.) are displayed. These objects are created based on the first information 152A received from the first server device 20, for example.

図12は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図であり、図11に示すレース場オブジェクト501の別態様を示したものである。具体的には、図12は、所定のレースが競馬の場合の例である。 FIG. 12 is a schematic diagram showing an example of a screen displaying a virtual object superimposed on a real image, and shows another aspect of the racetrack object 501 shown in FIG. 11. Specifically, FIG. 12 is an example in which the predetermined race is a horse race.

図12においても、モニタ装置1003を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。図12では、仮想オブジェクトとして、レース場オブジェクト511と、複数の移動オブジェクト512と、大型モニタオブジェクト513と、池オブジェクト514と、複数の木オブジェクト515と、がディスプレイ132に表示されている。これらのオブジェクトも、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。 Also in FIG. 12, the area with the dot pattern including the monitor device 1003 is the real image, and the other areas are areas where virtual objects are displayed. In FIG. 12, a racetrack object 511, a plurality of moving objects 512, a large monitor object 513, a pond object 514, and a plurality of tree objects 515 are displayed on the display 132 as virtual objects. These objects are also created, for example, based on the first information 152A received from the first server device 20.

レース場オブジェクト511、大型モニタオブジェクト513、池オブジェクト514、及び複数の木オブジェクト515は、例えば、現実世界における所定の競馬場のコース情報等のレース場データに基づいて作製されることが好ましい。複数の移動オブジェクト512は、例えば、競馬に出走する馬および騎手をそれぞれ仮想的に表示したオブジェクトである。 The racetrack object 511, the large monitor object 513, the pond object 514, and the plurality of tree objects 515 are preferably created based on racetrack data such as course information of a predetermined racetrack in the real world, for example. The plurality of moving objects 512 are, for example, objects that virtually display horses and jockeys running in a horse race.

ステップS690において、制御部190は、複数の移動オブジェクト502に対して出場者情報を関連付ける。このとき、アバター情報152Cが結合されている出場者情報については、出場者情報とともにアバター情報152Cを移動オブジェクト502に関連付けて記憶部150に登録される。 In step S690, the control unit 190 associates contestant information with the plurality of moving objects 502. At this time, regarding the contestant information to which the avatar information 152C is combined, the avatar information 152C and the contestant information are registered in the storage unit 150 in association with the moving object 502.

次に、図7のステップS710において、制御部190は、現実世界のボートレース場401におけるボート402a~402fの位置情報を取得する。すなわち、現実世界においてボート402a~402fによるレースが開始された場合、制御部190は、第1サーバ装置20から、ボート402a~402fの位置情報及び時間情報を取得する。位置情報及び時間情報の取得方法は、図4を用いて説明したとおりである。 Next, in step S710 of FIG. 7, the control unit 190 acquires position information of the boats 402a to 402f at the boat race track 401 in the real world. That is, when a race by boats 402a to 402f starts in the real world, control unit 190 acquires position information and time information of boats 402a to 402f from first server device 20. The method for acquiring position information and time information is as described using FIG. 4.

ステップS720において、制御部190は、ステップS710において取得した位置情報と移動オブジェクトとが連動するよう制御する。具体的には、時間情報と位置情報とを用いて、レース場オブジェクト501上におけるボート402a~402fそれぞれの動きが、ボートレース場401上における移動オブジェクト502a~502fと同様になるように制御する。 In step S720, the control unit 190 controls the position information acquired in step S710 and the moving object to be linked. Specifically, the time information and position information are used to control the movement of each of the boats 402a to 402f on the racetrack object 501 to be similar to the movement of the moving objects 502a to 502f on the boat racetrack 401.

ステップS730において、制御部190が複数の移動オブジェクト502a~502fのうち特定の移動オブジェクトに対するユーザの選択操作を受け付けた場合、ステップS740の処理が実行される。 In step S730, when the control unit 190 receives the user's selection operation for a specific moving object among the plurality of moving objects 502a to 502f, the process of step S740 is executed.

ステップS740において、制御部190は、ステップS730においてユーザの選択操作がなされた移動オブジェクト502に対応する詳細な出場者情報をアバター情報とともに表示する。次に、詳細な出場者情報及びアバター情報の表示を終了するための操作入力を制御部190が受け付けた場合、ステップS750において、これらの情報の詳細表示を終了する。制御部190は、アプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の表示制御処理を終了する。 In step S740, the control unit 190 displays detailed contestant information corresponding to the moving object 502 for which the user's selection operation was performed in step S730, together with the avatar information. Next, when the control unit 190 receives an operation input for ending the display of detailed contestant information and avatar information, the detailed display of these information is ended in step S750. The control unit 190 ends a series of display control processing in response to receiving an operation input to end the application program 151.

ここで、図13及び図14を用いて、ステップS740及びS750の処理を具体的に説明する。図13は、詳細な出場者情報をアバター情報とともに表示する方法の一例を示す模式図である。図13は、例えば、図11の状態においてユーザが移動オブジェクト502aを選択する操作(例えば、タップ操作)をした場合にディスプレイ132に表示される画面である。図13は、詳細情報が表示された状態の画面の一例を示す模式図である。 Here, the processing in steps S740 and S750 will be specifically explained using FIGS. 13 and 14. FIG. 13 is a schematic diagram showing an example of a method for displaying detailed contestant information together with avatar information. FIG. 13 is a screen displayed on the display 132, for example, when the user performs an operation (for example, a tap operation) to select the moving object 502a in the state shown in FIG. 11. FIG. 13 is a schematic diagram showing an example of a screen on which detailed information is displayed.

図13では、レース場オブジェクト501上に、移動オブジェクト502a~502bが表示されている。さらに、図13では、移動オブジェクト502aの周囲に、詳細情報オブジェクト1310が表示されている。移動オブジェクト502aが移動した場合、詳細情報オブジェクト1310も移動オブジェクト502aに追従するように移動してもよい。 In FIG. 13, moving objects 502a to 502b are displayed on a racetrack object 501. Furthermore, in FIG. 13, a detailed information object 1310 is displayed around the moving object 502a. When the moving object 502a moves, the detailed information object 1310 may also move to follow the moving object 502a.

詳細情報オブジェクト1310には、氏名欄1320、アバター表示欄1330、チャート表示欄1340、及び終了ボタン1350が含まれている。氏名欄1320には、移動オブジェクト502aに搭乗するレーサーの氏名が表示されている。アバター表示欄1330には、例えば、移動オブジェクト502aに搭乗するレーサー(出場者情報)に関連付けて登録されているアバターオブジェクトの画像が表示される。アバター表示欄1330に表示されるアバターオブジェクトの画像は、2次元画像であってもよく、3次元画像であってもよい。また、出場者情報が変更された場合、特に、現在の順位に応じて、アバター表示欄1330に表示されるアバターオブジェクトの表示態様を変更させてもよい。例えば、上位の順位の場合には、笑顔のアバターオブジェクトを表示し、下位の順位の場合には泣き顔のアバターオブジェクトを表示するようにしてもよい。 The detailed information object 1310 includes a name field 1320, an avatar display field 1330, a chart display field 1340, and an end button 1350. The name field 1320 displays the names of racers riding the moving object 502a. In the avatar display field 1330, for example, an image of an avatar object registered in association with a racer (contestant information) riding the moving object 502a is displayed. The image of the avatar object displayed in the avatar display field 1330 may be a two-dimensional image or a three-dimensional image. Furthermore, when the contestant information is changed, the display mode of the avatar object displayed in the avatar display field 1330 may be changed, particularly in accordance with the current ranking. For example, if the ranking is high, a smiling avatar object may be displayed, and if the ranking is low, an avatar object with a crying face may be displayed.

チャート表示欄1340には、移動オブジェクト502aに搭乗するレーサーの特性を表示するためのグラフ(例えば、レーダーチャート)が表示される。チャート表示欄1340には、例えば、「勝率」、「2連率」、「出走」、「スピード」、「ターン」という複数の項目におけるレーサーの特性データが表示される。チャート表示欄1340に表示される情報は、テキスト情報として入手した出場者情報を制御部190がグラフ化したものであってもよいし、ステップS640において取得した当初からグラフ化されていた出場者情報であってもよい。 The chart display field 1340 displays a graph (for example, a radar chart) for displaying the characteristics of the racer riding the moving object 502a. The chart display field 1340 displays racer characteristic data in a plurality of items, such as "winning rate," "double rate," "starting," "speed," and "turn." The information displayed in the chart display field 1340 may be graphed by the control unit 190 from the contestant information obtained as text information, or may be the contestant information obtained in step S640 and graphed from the beginning. It may be.

終了ボタン1350は、ステップS750において、詳細情報オブジェクト1310を非表示とするための仮想ボタンである。なお、詳細情報オブジェクト1310の外部をタップ操作されたこと等によって、詳細情報オブジェクト1310を非表示としてもよい。 End button 1350 is a virtual button for hiding detailed information object 1310 in step S750. Note that the detailed information object 1310 may be hidden due to a tap operation performed outside the detailed information object 1310, for example.

図13では、詳細情報オブジェクト1310に、レーダーチャートが表示されるチャート表示欄1340が設けられているがこの例に限られない。図14は、詳細情報オブジェクトの別の例が示された状態の画面の一例を示す模式図である。
図14に示す例においては、詳細情報オブジェクト1410は、氏名欄1320と、アバター表示欄1330と、終了ボタン1350に加えて、チャート表示欄1340の代わりに、詳細情報表示欄1440が表示されている。詳細情報表示欄1440には、詳細な出場者情報がテキスト情報として表示されている。なお、図13の例と図14の例とを組み合わせて、詳細情報オブジェクトにアバター表示欄1330に加えて、チャート表示欄1340と詳細情報表示欄1440とをまとめて表示してもよい。
In FIG. 13, the detailed information object 1310 is provided with a chart display field 1340 in which a radar chart is displayed, but the present invention is not limited to this example. FIG. 14 is a schematic diagram showing an example of a screen showing another example of a detailed information object.
In the example shown in FIG. 14, the detailed information object 1410 displays a detailed information display field 1440 in place of the chart display field 1340 in addition to a name field 1320, an avatar display field 1330, and an end button 1350. . In the detailed information display column 1440, detailed contestant information is displayed as text information. Note that by combining the example in FIG. 13 and the example in FIG. 14, in addition to the avatar display field 1330, the chart display field 1340 and the detailed information display field 1440 may be displayed together in the detailed information object.

ステップS710~S750の処理は、少なくとも現実世界におけるレースの開始時点から終了時点まで繰り返されるが、現実世界におけるレースの開始前及び終了後においても繰り返されてもよい。 The processes of steps S710 to S750 are repeated at least from the start to the end of the race in the real world, but may also be repeated before and after the race in the real world.

なお、仮想レースとして表示するレースが過去のレースである場合、仮想レースの開始前に、レースの開始から終了までのボート402a~402fの位置情報等をまとめて取得してもよい。また、位置情報等は取得せずに、レースタイム情報のみを取得して、仮想レースを表示してもよい。仮想レースとして表示するレースは、展示レースであってもよい。 Note that when the race to be displayed as a virtual race is a past race, the position information of the boats 402a to 402f from the start to the end of the race may be acquired all at once before the start of the virtual race. Alternatively, the virtual race may be displayed by acquiring only race time information without acquiring position information or the like. The race displayed as a virtual race may be an exhibition race.

現実世界におけるレースの終了後、ステップS760において、制御部190は、結果表示処理を実行し、アプリケーションプログラム151を終了する操作入力を受け付けたこと等に応じて、一連の表示制御処理を終了する。 After the race in the real world ends, in step S760, the control unit 190 executes a result display process, and in response to receiving an operation input to terminate the application program 151, ends the series of display control processes.

(第二動作例)
次に、図15~図17を参照して、システム1における第二動作例について説明する。図15は、第二動作例における表示制御処理の一例を示すフローチャートである。図15のステップS710及びS720は、図7に示すステップS710及びS720と同一であるため、詳細な説明は省略する。
(Second operation example)
Next, a second operation example in the system 1 will be described with reference to FIGS. 15 to 17. FIG. 15 is a flowchart illustrating an example of display control processing in the second operation example. Steps S710 and S720 in FIG. 15 are the same as steps S710 and S720 shown in FIG. 7, so a detailed explanation will be omitted.

ステップS1510において、制御部190は、選択情報を取得する。具体的には、制御部190は、ユーザが購入した舟券や馬券を示す情報を選択情報として取得する。 In step S1510, control unit 190 acquires selection information. Specifically, the control unit 190 acquires information indicating a boat ticket or horse racing ticket purchased by the user as selection information.

ステップS1520において、制御部190は、取得した選択情報に基づいて、選択対象の移動オブジェクトにアバター情報を登録する。ステップS1530において、制御部190は、登録されたアバター情報に基づいて、移動オブジェクトの表示を変更する。 In step S1520, the control unit 190 registers avatar information in the selected moving object based on the acquired selection information. In step S1530, control unit 190 changes the display of the moving object based on the registered avatar information.

以下、図16を用いて、ステップS1530の表示処理を具体的に説明する。図16は、ステップS1530における表示画面の一例を示す模式図である。図16に示す例において、ユーザが移動オブジェクト502aに相当する現実世界のボート402aの舟券を購入したとする。制御部190は、ユーザがボート402aの舟券を購入したことを選択情報として取得し、ボート402aに対応する移動オブジェクト502aに関連付けてユーザのアバター情報を登録する。登録されるアバター情報は、例えば、ステップS620において取得された編集情報に基づいてステップS630で更新されたアバター情報である。次いで、制御部190は、移動オブジェクト502a上に表示されるレーサーの画像を、移動オブジェクト502aに関連付けて登録されたアバター情報に基づくアバターオブジェクトに表示変更する。図16の例では、移動オブジェクト502a上のレーサーが、ユーザにより更新された編集情報に基づいて、怪獣の姿のアバターオブジェクト1620(第1アバターオブジェクトの一例)に変更されて表示されている。一方で、ユーザが舟券を購入していないボート402bに対応する移動オブジェクト502b上には、通常のレーサーの姿のアバターオブジェクト1610(第2アバターオブジェクトの一例)が表示されている。すなわち、取得した選択情報に基づいて、ユーザが選択した出場者等を表す移動オブジェクト502aが、ユーザが選択していない出場者等を表す移動オブジェクト502bとは異なる表示態様で表示される。移動オブジェクト502a,502bが移動した場合、移動オブジェクト502a上のアバターオブジェクト1620及び移動オブジェクト502b上のアバターオブジェクト1610が移動オブジェクト502a,502bとともに移動する。 Hereinafter, the display processing in step S1530 will be specifically explained using FIG. 16. FIG. 16 is a schematic diagram showing an example of the display screen in step S1530. In the example shown in FIG. 16, it is assumed that the user has purchased a boat ticket for a boat 402a in the real world, which corresponds to the moving object 502a. The control unit 190 acquires as selection information that the user has purchased a boat ticket for the boat 402a, and registers the user's avatar information in association with the moving object 502a corresponding to the boat 402a. The avatar information to be registered is, for example, the avatar information updated in step S630 based on the editing information acquired in step S620. Next, the control unit 190 changes the display of the racer image displayed on the moving object 502a to an avatar object based on the avatar information registered in association with the moving object 502a. In the example of FIG. 16, the racer on the moving object 502a is changed and displayed as an avatar object 1620 (an example of a first avatar object) in the form of a monster based on the editing information updated by the user. On the other hand, an avatar object 1610 (an example of a second avatar object) in the form of a normal racer is displayed on the moving object 502b corresponding to the boat 402b for which the user has not purchased a boat ticket. That is, based on the acquired selection information, a moving object 502a representing a contestant etc. selected by the user is displayed in a different display manner from a moving object 502b representing a contestant etc. not selected by the user. When the moving objects 502a, 502b move, the avatar object 1620 on the moving object 502a and the avatar object 1610 on the moving object 502b move together with the moving objects 502a, 502b.

図15に戻り、S1540において、制御部190は、所定のレースにおける所定のイベントの発生を検出する。現実世界の所定のレースにおいて所定のイベントが発生した場合、例えば、制御部290は、レースの画像解析や第2サーバ装置40から受信した情報と、イベント情報252Bに記憶された情報とに基づいて、イベントの発生を検知し、イベントの発生を検知したことを示すイベント情報をユーザ端末10に送信する。ステップS730において、制御部190は、例えば、レース中に該イベント情報を受信したことに基づいて、イベントの発生を検出する。 Returning to FIG. 15, in S1540, control unit 190 detects the occurrence of a predetermined event in a predetermined race. When a predetermined event occurs in a predetermined race in the real world, for example, the control unit 290 performs an event based on image analysis of the race, information received from the second server device 40, and information stored in the event information 252B. , detects the occurrence of an event, and transmits event information indicating that the occurrence of the event has been detected to the user terminal 10. In step S730, the control unit 190 detects the occurrence of an event based on, for example, receiving the event information during the race.

また、ステップS1540において、制御部190は、レース中における第1サーバ装置20からのイベント情報の送信に依らずに、例えば、第1情報152Aやユーザ情報153に基づいて、所定のイベントの発生を検出してもよい。例えば、制御部190は、出場者等の位置情報及び当該位置情報に対応する時間情報に基づいて、所定のイベントの発生を検出してもよい。 Furthermore, in step S1540, the control unit 190 controls the occurrence of a predetermined event based on, for example, the first information 152A and the user information 153, without depending on the transmission of event information from the first server device 20 during the race. May be detected. For example, the control unit 190 may detect the occurrence of a predetermined event based on position information of the contestants and the like and time information corresponding to the position information.

ステップS1550において、制御部190は、移動オブジェクト502に登録されたアバター情報に特定のアクションを追加する。ステップS1540において第1サーバ装置20からイベント情報を受信しており、該イベント情報に対応するアバター情報が登録されている場合、ステップS1550では、例えば、当該アバター情報に基づいて、アクションオブジェクトの表示が実行される。なお、第1サーバ装置20からはイベントID等のイベントを識別する情報のみを受信し、例えば、取得したイベントID等に対応する情報をイベント情報152Bから取得し、当該イベント情報152Bに基づいてアクションオブジェクトが表示されてもよい。 In step S1550, the control unit 190 adds a specific action to the avatar information registered in the moving object 502. If event information is received from the first server device 20 in step S1540 and avatar information corresponding to the event information is registered, in step S1550, for example, the action object is displayed based on the avatar information. executed. Note that only information identifying an event such as an event ID is received from the first server device 20, and, for example, information corresponding to the acquired event ID etc. is acquired from the event information 152B, and an action is taken based on the event information 152B. Objects may be displayed.

以下、図17を用いて、ステップS1550のアクションオブジェクトの表示処理を具体的に説明する。図17は、ステップS1550における表示画面の一例を示す模式図である。 The action object display process in step S1550 will be specifically described below using FIG. 17. FIG. 17 is a schematic diagram showing an example of the display screen in step S1550.

図17に示す例では、ユーザが舟券(投票権)を購入したボート402aに対応する移動オブジェクト502aに対してアクションオブジェクト(アクション画像)が表示されている。具体的には、ディスプレイ132には、移動オブジェクト502a上に表示される怪獣オブジェクト1620に対して炎を模したアクションオブジェクト1710が表示されている。このアクションオブジェクト1710は、例えば、最終直線イベントの発生に伴って、ユーザが購入している投票権の対象である出場者に付加されたものである。 In the example shown in FIG. 17, an action object (action image) is displayed for a moving object 502a corresponding to a boat 402a for which the user has purchased a boat ticket (voting right). Specifically, on the display 132, an action object 1710 imitating a flame is displayed in contrast to a monster object 1620 displayed on the moving object 502a. This action object 1710 is, for example, added to the contestant for whom the user has purchased voting rights upon the occurrence of the final straight event.

アクションオブジェクト1710の付加は、上記の例に限定されず、例えば、最終直線イベントではない他のイベントの発生の検出(例えば、投票権の対象である出場者が勝利したこと、当該出場者が負けたこと、加速が増大したこと、他の出場者よりも速度が速いこと等を検出した場合など)に応じて付加してもよい。例えば現在の順位に応じて、アバターオブジェクトに付加されるアクションを変更させてもよい。 The addition of the action object 1710 is not limited to the above example, and includes, for example, the detection of the occurrence of other events other than the final linear event (e.g., the contestant who is eligible for voting rights wins, the contestant loses) It may also be added in response to detections such as an increase in acceleration, an increase in acceleration, a faster speed than other contestants, etc.). For example, the action added to the avatar object may be changed depending on the current ranking.

イベント発生時に付加されるアクションオブジェクトは、ユーザが図8のアバター編集画面800で選択可能である。例えば、投票権の対象である出場者が勝利した場合には、図9に示す選択テーブル900の「勝利アクション」の欄に表示される複数の選択肢のうち、ユーザが図8のアバター編集画面800で選択した勝利アクションを表すアクションオブジェクトが表示される。同様に、投票権の対象である出場者が負けた場合には、図9に示す選択テーブル900の「負けアクション」の欄に表示される複数の選択肢のうち、ユーザが図8のアバター編集画面800で選択した負けアクションを表すアクションオブジェクトが表示される。また、アクションオブジェクトは、移動オブジェクト502ではなく、レース場オブジェクト501等の他の仮想オブジェクトに対して付加してもよい。 The user can select an action object to be added when an event occurs on the avatar editing screen 800 in FIG. 8 . For example, if a contestant eligible for voting rights wins, the user selects the avatar editing screen 800 of FIG. An action object representing the winning action selected in is displayed. Similarly, if a contestant eligible for voting rights loses, the user selects one of the multiple options displayed in the "Losing Action" column of the selection table 900 shown in FIG. An action object representing the losing action selected at 800 is displayed. Further, the action object may be added to other virtual objects such as the racetrack object 501 instead of the moving object 502.

図17の例では、イベントの発生時にのみアクションオブジェクト1710が表示されるが、アクションの種別によっては、ユーザが購入している投票権の対象である出場者の移動オブジェクトの近傍にアクションオブジェクトが常時表示されてもよい。すなわち、ステップS730において、ユーザが所定の出場者の投票権を購入したことに基づいてイベントの発生が検出されてもよい。 In the example of FIG. 17, the action object 1710 is displayed only when an event occurs, but depending on the type of action, the action object is always displayed near the moving object of the contestant whose voting rights the user has purchased. May be displayed. That is, in step S730, the occurrence of an event may be detected based on the user purchasing voting rights for a predetermined contestant.

移動オブジェクト502とアクションオブジェクトとの対応付けは、上記の例に限定されず、例えば、ユーザが購入している投票権の対象外である出場者に付加してもよい。この場合、移動オブジェクト502とアクションオブジェクトとの対応付けは、第1サーバ装置20の管理者等が予め設定してもよいし、ユーザ端末10のユーザが設定してもよい。例えば、ユーザ端末10のユーザが、「お気に入り」と設定した移動オブジェクトに対応してアクションオブジェクトを表示させるようにしてもよい。
また、移動オブジェクト502に対応させて表示されるアクションオブジェクトを、選択候補として設定された複数のオブジェクトの中からユーザが選択可能なように構成してもよい。また、選択候補となるオブジェクトの種類は、ユーザの課金等に応じて増加してもよい。
The association between the moving object 502 and the action object is not limited to the above example, and may be added to a contestant who is not eligible for voting rights purchased by the user, for example. In this case, the association between the moving object 502 and the action object may be set in advance by the administrator of the first server device 20 or by the user of the user terminal 10. For example, an action object may be displayed in correspondence with a moving object that the user of the user terminal 10 has set as a "favorite."
Further, the action object displayed in correspondence with the moving object 502 may be configured so that the user can select it from among a plurality of objects set as selection candidates. Furthermore, the types of objects that can be selected may be increased depending on the user's charge or the like.

図7と同様に、図15におけるステップS710~S1550の処理は、少なくとも現実世界におけるレースの開始時点から終了時点まで繰り返されるが、現実世界におけるレースの開始前及び終了後においても繰り返されてもよい。図15におけるステップS760の処理は、図7におけるステップS760の処理と同一であるため、詳細な説明は省略する。 Similar to FIG. 7, the processes in steps S710 to S1550 in FIG. 15 are repeated at least from the start to the end of the race in the real world, but may also be repeated before and after the race in the real world. . The process in step S760 in FIG. 15 is the same as the process in step S760 in FIG. 7, so detailed explanation will be omitted.

上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above embodiments are merely illustrative to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. It goes without saying that the present invention can be modified and improved without departing from its spirit, and that the present invention includes equivalents thereof.

[付記事項]
本開示の内容を列記すると以下の通りである。
[Additional notes]
The contents of the present disclosure are listed below.

(項目1)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記所定のレースに関する第2情報を前記第1コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、を実行させ、
前記第1情報は、前記所定のレースにおける出場者および移動体の少なくとも一方に関する出場者情報を少なくとも含み、
前記仮想オブジェクトは、前記出場者または前記移動体に対応する移動オブジェクトを少なくとも含み、
前記表示するステップは、対応する前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示することを含む、
プログラム。
これにより、コンピュータに表示される仮想レースを通じて、当該仮想レースに対応する現実世界のレースの出場者の認知度を向上させることができる。また、ユーザの出場者に対する親近感をも高められるため、特に、観戦初心者のユーザの満足度を向上させることができ、レース観戦のファン層を若年層にまで広げることも可能となる。
(Item 1)
A program executed on a first computer including a processor and an imaging unit,
The program causes the processor to:
receiving first information about a predetermined race in the real world from a second computer;
generating a virtual object for presenting second information regarding the predetermined race to a user of the first computer based on the first information;
superimposing and displaying the virtual object on a real image of the surroundings of the first computer captured by the imaging unit;
The first information includes at least contestant information regarding at least one of a contestant and a moving object in the predetermined race,
The virtual object includes at least a moving object corresponding to the contestant or the moving object,
The displaying step includes displaying at least a part of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input for the corresponding moving object.
program.
Thereby, through the virtual race displayed on the computer, it is possible to improve the recognition level of the participants in the real world race corresponding to the virtual race. Furthermore, since the user's sense of familiarity with the contestants can be increased, it is possible to particularly improve the satisfaction level of users who are new to watching races, and it is also possible to expand the fan base of race watching to include younger people.

(項目2)
前記第1情報は、前記所定のレースの実施中における前記出場者または前記移動体の位置情報と、前記位置情報に対応する時間情報と、をさらに含み、
前記表示するステップは、前記位置情報および前記時間情報に基づいて前記移動オブジェクトを移動させて前記所定のレースを仮想的に表現する仮想レースを表示するとともに、前記仮想レースにおいて、前記移動オブジェクトの少なくとも一部が前記所定のアバターを含むように表示することを含む、
項目1に記載のプログラム。
これにより、仮想レースの視認性や興趣性を向上させて、ユーザの満足度をさらに向上させることができる。
(Item 2)
The first information further includes location information of the contestant or the moving body during the execution of the predetermined race, and time information corresponding to the location information,
The step of displaying displays a virtual race that virtually represents the predetermined race by moving the moving object based on the position information and the time information, and in the virtual race, at least one of the moving objects displaying a portion of the avatar so as to include the predetermined avatar;
The program described in item 1.
Thereby, the visibility and interest of the virtual race can be improved, and user satisfaction can be further improved.

(項目3)
前記プログラムは、前記プロセッサに、さらに、
前記ユーザが選択した1以上の前記出場者または前記移動体を示す1以上の選択情報を取得するステップを実行させるものであり、
前記表示するステップは、前記選択情報に基づいて、前記所定のアバターのうち、前記ユーザが選択した1以上の前記出場者または前記移動体を表す第1アバターを、前記ユーザが選択していない1以上の前記出場者または前記移動体を表す第2アバターとは異なる表示態様で表示することを含む、
項目1または項目2に記載のプログラム。
ユーザが選択したアバターの表示態様と、ユーザが選択していないアバターの表示態様とを異ならせることで、仮想レースの視認性や興趣性をさらに向上させることができる。
(Item 3)
The program further causes the processor to:
the step of acquiring one or more selection information indicating one or more of the contestants or the mobile object selected by the user;
The displaying step includes displaying a first avatar representing one or more of the contestants or the mobile object selected by the user from among the predetermined avatars based on the selection information, and displaying a first avatar representing one or more of the contestants or the mobile object selected by the user, based on the selection information. Displaying in a display mode different from a second avatar representing the above-mentioned contestant or the moving body;
The program described in item 1 or item 2.
By making the display mode of the avatar selected by the user different from the display mode of avatars not selected by the user, it is possible to further improve the visibility and interest of the virtual race.

(項目4)
前記表示するステップは、前記所定のレースにおける現在の順位に応じて、前記所定のアバターの表示態様を変更することを含む、
項目2または項目3に記載のプログラム。
これにより、仮想レースの視認性や興趣性をさらに向上させることができる。
(Item 4)
The displaying step includes changing the display mode of the predetermined avatar according to the current ranking in the predetermined race.
The program described in item 2 or item 3.
Thereby, the visibility and interest of the virtual race can be further improved.

(項目5)
前記第1コンピュータは、前記所定のアバターに関するデータベースを記憶する記憶部をさらに備え、
前記プログラムは、前記プロセッサに、さらに、
前記ユーザの第2操作入力に応じて、前記データベースに予め設定された複数の項目に基づいて前記所定のアバターを編集するステップを実行させるものである、
項目1から項目4のいずれかに記載のプログラム。
これにより、ユーザがアバターを好みに応じて編集することで、ユーザの出場者等に対する親近感を向上させることができる。
(Item 5)
The first computer further includes a storage unit that stores a database regarding the predetermined avatar,
The program further causes the processor to:
A step of editing the predetermined avatar based on a plurality of items preset in the database in response to a second operation input by the user;
The program described in any one of items 1 to 4.
This allows the user to edit the avatar according to his/her preference, thereby improving the user's sense of familiarity with the contestants and the like.

(項目6)
前記表示するステップにおいて表示される出場者情報は、前記出場者または前記移動体の特性チャートを少なくとも含む、
項目1から項目5のいずれかに記載のプログラム。
これにより、ユーザは、各移動オブジェクトの特性を把握することが可能になる。また、通常、特性情報は、ユーザの関心が高い情報の一つなので、特性情報を移動体オブジェクトと併せて表示することで、ユーザの満足度を向上させることができる。
(Item 6)
The contestant information displayed in the displaying step includes at least a characteristic chart of the contestant or the mobile object.
The program described in any of items 1 to 5.
This allows the user to understand the characteristics of each moving object. Furthermore, since characteristic information is usually one of the pieces of information in which the user is highly interested, user satisfaction can be improved by displaying the characteristic information together with the moving object.

(項目7)
前記受信するステップは、所定の頻度で実行される、または特定のイベントが発生した場合に実行されるものであり、
前記出場者情報は、前記受信するステップが実行されることによって更新され得る、項目1から項目6のいずれかに記載のプログラム。
これにより、時間の経過に応じて出場者情報が変わった場合においても、変更後の出場者情報をユーザに届けることができる。
(Item 7)
The receiving step is performed at a predetermined frequency or when a specific event occurs,
The program according to any one of items 1 to 6, wherein the contestant information can be updated by executing the receiving step.
Thereby, even if the contestant information changes over time, the changed contestant information can be delivered to the user.

(項目8)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記所定のレースに関する第2情報を前記第1コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するステップと、
を実行させることを含み、
前記第1情報は、前記所定のレースにおける出場者および移動体の少なくとも一方に関する出場者情報を少なくとも含み、
前記仮想オブジェクトは、前記出場者または前記移動体に対応する移動オブジェクトを少なくとも含み、
前記表示するステップは、対応する前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示することを含む、
情報処理方法。
これにより、コンピュータに表示される仮想レースを通じて、当該仮想レースに対応する現実世界のレースの出場者の認知度を向上させることができる。また、ユーザの出場者に対する親近感をも高められるため、特に、観戦初心者のユーザの満足度を向上させることができ、レース観戦のファン層を若年層にまで広げることも可能となる。
(Item 8)
An information processing method executed in a first computer including a processor and an imaging unit,
The information processing method includes:
receiving first information about a predetermined race in the real world from a second computer;
generating a virtual object for presenting second information regarding the predetermined race to a user of the first computer based on the first information;
superimposing and displaying the virtual object on a real image of the surroundings of the first computer captured by the imaging unit;
including causing the execution of
The first information includes at least contestant information regarding at least one of a contestant and a moving object in the predetermined race,
The virtual object includes at least a moving object corresponding to the contestant or the moving object,
The displaying step includes displaying at least a part of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input for the corresponding moving object.
Information processing method.
Thereby, through the virtual race displayed on the computer, it is possible to improve the recognition level of the participants in the real world race corresponding to the virtual race. Furthermore, since the user's sense of familiarity with the contestants can be increased, it is possible to particularly improve the satisfaction level of users who are new to watching races, and it is also possible to expand the fan base of race watching to include younger people.

(項目9)
プロセッサ及び撮像部を備えた情報処理装置であって、前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記所定のレースに関する第2情報を前記第1コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するものであり、
前記第1情報は、前記所定のレースにおける出場者および移動体の少なくとも一方に関する出場者情報を少なくとも含み、
前記仮想オブジェクトは、前記出場者または前記移動体に対応する移動オブジェクトを少なくとも含み、
前記表示するステップは、対応する前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示することを含む、
情報処理装置。
これにより、コンピュータに表示される仮想レースを通じて、当該仮想レースに対応する現実世界のレースの出場者の認知度を向上させることができる。また、ユーザの出場者に対する親近感をも高められるため、特に、観戦初心者のユーザの満足度を向上させることができ、レース観戦のファン層を若年層にまで広げることも可能となる。
(Item 9)
An information processing device including a processor and an imaging unit, the processor comprising:
receiving first information regarding a predetermined race in the real world from a second computer;
generating a virtual object for presenting second information regarding the predetermined race to a user of the first computer based on the first information;
The virtual object is superimposed and displayed on a real image of the surroundings of the first computer captured by the imaging unit,
The first information includes at least contestant information regarding at least one of a contestant and a moving object in the predetermined race,
The virtual object includes at least a moving object corresponding to the contestant or the moving object,
The displaying step includes displaying at least a part of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input for the corresponding moving object.
Information processing device.
Thereby, through the virtual race displayed on the computer, it is possible to improve the recognition level of the participants in the real world race corresponding to the virtual race. Furthermore, since the user's sense of familiarity with the contestants can be increased, it is possible to particularly improve the satisfaction level of users who are new to watching races, and it is also possible to expand the fan base of race watching to include younger people.

(項目10)
第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、において実現されるシステムであって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、前記第1情報を前記第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記所定のレースに関する第2情報を前記第1コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成し、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に、前記仮想オブジェクトを重畳させて表示するものであり、
前記第1情報は、前記所定のレースにおける出場者および移動体の少なくとも一方に関する出場者情報を少なくとも含み、
前記仮想オブジェクトは、前記出場者または前記移動体に対応する移動オブジェクトを少なくとも含み、
前記重畳させて表示することは、対応する前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示することを含む、システム。
これにより、コンピュータに表示される仮想レースを通じて、当該仮想レースに対応する現実世界のレースの出場者の認知度を向上させることができる。また、ユーザの出場者に対する親近感をも高められるため、特に、観戦初心者のユーザの満足度を向上させることができ、レース観戦のファン層を若年層にまで広げることも可能となる。
(Item 10)
A system realized in a first computer including a first processor and an imaging device, and a second computer including a second processor and communicatively connectable to the first computer,
The second processor is
obtaining first information regarding a predetermined race in the real world, and transmitting the first information to the first computer;
The first processor is
receiving the first information from the second computer;
generating a virtual object for presenting second information regarding the predetermined race to a user of the first computer based on the first information;
The virtual object is superimposed and displayed on a real image of the surroundings of the first computer captured by the imaging unit,
The first information includes at least contestant information regarding at least one of a contestant and a moving object in the predetermined race,
The virtual object includes at least a moving object corresponding to the contestant or the moving object,
The superimposed display may include displaying at least a part of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input to the corresponding moving object. system, including.
Thereby, through the virtual race displayed on the computer, it is possible to improve the recognition level of the participants in the real world race corresponding to the virtual race. Furthermore, since the user's sense of familiarity with the contestants can be increased, it is possible to particularly improve the satisfaction level of users who are new to watching races, and it is also possible to expand the fan base of race watching to include younger people.

(項目11)
前記第1プロセッサは、さらに、
前記ユーザが選択した1以上の前記出場者または前記移動体を示す1以上の選択情報を取得し、
前記第1情報は、前記所定のレースの実施中における前記出場者または前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップは、前記移動オブジェクトを移動させて前記所定のレースを仮想的に表現する仮想レースを表示するとともに、前記仮想レースにおいて、前記移動オブジェクトの少なくとも一部が前記所定のアバターを含むように表示することを含み、
前記位置情報は、前記出場者または前記移動体に設けられた位置センサ、または前記所定のレースの実施中に撮像装置によって撮像された前記所定のレースの画像に基づいて取得される、
項目10に記載のシステム。
これにより、出場者等の位置情報を得ることが容易になる。結果として、現実世界のレース中の順位や攻防なども仮想レース上で再現可能になるため、ユーザの満足度を向上させることができる。
(Item 11)
The first processor further includes:
obtaining one or more selection information indicating one or more of the contestants or the mobile object selected by the user;
The first information includes location information of the contestant or the moving body during the predetermined race, and time information corresponding to the location information,
The displaying step includes displaying a virtual race that virtually represents the predetermined race by moving the moving object, and in the virtual race, at least a part of the moving object includes the predetermined avatar. including displaying on
The position information is acquired based on a position sensor provided on the contestant or the moving body, or an image of the predetermined race captured by an imaging device during the execution of the predetermined race.
The system described in item 10.
This makes it easy to obtain location information of contestants and the like. As a result, it becomes possible to reproduce rankings, battles, etc. during races in the real world on a virtual race, thereby improving user satisfaction.

1:システム、10:ユーザ端末、20:第1サーバ装置、30:ネットワーク、40:第2サーバ装置、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、191:操作入力受付部、192:送受信部、193:オブジェクト生成部、194:表示制御部、195:平坦面検出部、196:イベント検出部、197:選択情報取得部、250:(第1サーバ装置の)記憶部、290:(第1サーバ装置の)制御部、401:ボートレース場、402a~402f:ボート、501:レース場オブジェクト、502(502a~502f):移動オブジェクト、1310:詳細情報オブジェクト、1330:アバター表示欄、1340:チャート表示欄、1610,1620:アバターオブジェクト、1710:アクションオブジェクト 1: System, 10: User terminal, 20: First server device, 30: Network, 40: Second server device, 130: Touch screen, 150: Storage unit (of user terminal), 190: Control (of user terminal) 191: Operation input reception unit, 192: Transmission/reception unit, 193: Object generation unit, 194: Display control unit, 195: Flat surface detection unit, 196: Event detection unit, 197: Selection information acquisition unit, 250: (No. storage unit (of the first server device), 290: control unit (of the first server device), 401: boat race track, 402a to 402f: boat, 501: race track object, 502 (502a to 502f): moving object, 1310: Detailed information object, 1330: Avatar display field, 1340: Chart display field, 1610, 1620: Avatar object, 1710: Action object

Claims (9)

ンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記コンピュータを
現実世界における所定のレースに関する第1情報を受信する受信処理を実行する受信手段
前記所定のレースに関する第2情報を前記コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成する生成手段
前記仮想オブジェクトを表示する表示手段、として機能させ、
前記第1情報は、前記所定のレースにおける出場者情報を少なくとも含み、
前記仮想オブジェクトは、出場者または移動体に対応する移動オブジェクトを少なくとも含み、
前記表示手段、前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示する、
プログラム。
A program executed on a computer ,
The program causes the computer to
receiving means for performing a receiving process of receiving first information regarding a predetermined race in the real world;
generation means for generating a virtual object for presenting second information regarding the predetermined race to a user of the computer based on the first information;
functioning as a display means for displaying the virtual object;
The first information includes at least participant information in the predetermined race,
The virtual object includes at least a moving object corresponding to a contestant or a moving object,
The display means displays at least a part of the contestant information in association with a predetermined avatar corresponding to the moving object in response to a first operation input by the user with respect to the moving object .
program.
前記第1情報は、前記所定のレースにおける前記出場者または前記移動体の位置情報と、前記位置情報に対応する時間情報と、をさらに含み、
前記表示手段は、前記位置情報および前記時間情報に基づいて前記移動オブジェクトを移動させて前記所定のレースを仮想的に表現する仮想レースを表示するとともに、前記仮想レースにおいて、前記移動オブジェクトの少なくとも一部が前記所定のアバターを含むように表示する、
請求項1に記載のプログラム。
The first information further includes position information of the contestant or the mobile object in the predetermined race , and time information corresponding to the position information,
The display means displays a virtual race that virtually represents the predetermined race by moving the moving objects based on the position information and the time information, and displays at least one of the moving objects in the virtual race. displaying the part so as to include the predetermined avatar;
The program according to claim 1.
前記プログラムは、前記コンピュータに、
前記ユーザが選択した1以上の前記出場者または前記移動体を示す1以上の選択情報を取得させ、
前記表示手段は、前記選択情報に基づいて、前記所定のアバターのうち、前記ユーザが選択した1以上の前記出場者または前記移動体を表す第1アバターを、前記ユーザが選択していない1以上の前記出場者または前記移動体を表す第2アバターとは異なる表示態様で表示する、
請求項1または請求項2に記載のプログラム。
The program causes the computer to
acquiring one or more selection information indicating one or more of the contestants or the mobile object selected by the user;
The display means , based on the selection information, selects one or more first avatars representing one or more of the contestants or the mobile object selected by the user from among the predetermined avatars, and one or more first avatars that are not selected by the user. Displaying in a display mode different from a second avatar representing the contestant or the moving body ;
The program according to claim 1 or claim 2.
前記表示手段は、前記所定のレースにおける現在の順位に応じて、前記所定のアバターの表示態様を変更する、
請求項2または請求項3に記載のプログラム。
The display means changes the display mode of the predetermined avatar according to the current ranking in the predetermined race.
The program according to claim 2 or 3.
記コンピュータは、前記所定のアバターに関するデータベースを記憶する記憶部をさらに備え、
前記プログラムは、前記コンピュータを、さらに、
前記ユーザの第2操作入力に応じて、前記データベースに予め設定された複数の項目に基づいて前記所定のアバターを編集する編集手段として機能させるものである、
請求項1から請求項4のいずれか一項に記載のプログラム。
The computer further includes a storage unit that stores a database regarding the predetermined avatar,
The program further causes the computer to
The avatar is configured to function as an editing means for editing the predetermined avatar based on a plurality of items preset in the database in response to a second operation input by the user;
The program according to any one of claims 1 to 4.
前記表示手段において表示される出場者情報は、前記出場者または前記移動体の特性チャートを少なくとも含む、
請求項1から請求項5のいずれか一項に記載のプログラム。
The contestant information displayed on the display means includes at least a characteristic chart of the contestant or the mobile object.
The program according to any one of claims 1 to 5.
前記受信処理は、所定の頻度で実行される、または特定のイベントが発生した場合に実行されるものであり、
前記出場者情報は、前記受信処理が実行されることによって更新され得る、
請求項1から請求項6のいずれか一項に記載のプログラム。
The reception process is executed at a predetermined frequency or when a specific event occurs,
The contestant information may be updated by executing the reception process ,
The program according to any one of claims 1 to 6.
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
現実世界における所定のレースに関する第1情報を受信し、
前記所定のレースに関する第2情報を前記情報処理装置のユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成し、
前記仮想オブジェクトを表示するものであり、
前記第1情報は、前記所定のレースにおける出場者情報を少なくとも含み、
前記仮想オブジェクトは、出場者または移動体に対応する移動オブジェクトを少なくとも含み、
前記プロセッサ、前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示する、
情報処理装置。
An information processing device including a processor,
The processor includes:
receiving first information regarding a predetermined race in the real world;
generating a virtual object for presenting second information regarding the predetermined race to a user of the information processing device based on the first information;
displaying the virtual object;
The first information includes at least participant information in the predetermined race,
The virtual object includes at least a moving object corresponding to a contestant or a moving object,
The processor displays at least a portion of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input with respect to the moving object .
Information processing device.
第1プロセッサを備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、において実現されるシステムであって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、
前記第1情報を前記第1コンピュータへ送信し、
前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記所定のレースに関する第2情報を前記第1コンピュータのユーザに提示するための仮想オブジェクトを、前記第1情報に基づいて生成し、
前記仮想オブジェクトを表示するものであり、
前記第1情報は、前記所定のレースにおける出場者情報を少なくとも含み、
前記仮想オブジェクトは、出場者または移動体に対応する移動オブジェクトを少なくとも含み、
前記第1プロセッサ、前記移動オブジェクトに対する前記ユーザの第1操作入力に応じて、前記出場者情報の少なくとも一部を前記移動オブジェクトに対応する所定のアバターと関連付けて表示する、
システム。
A system realized in a first computer including a first processor, and a second computer including a second processor and communicatively connectable to the first computer,
The second processor is
obtaining first information regarding a predetermined race in the real world;
transmitting the first information to the first computer;
The first processor is
receiving the first information from the second computer;
generating a virtual object for presenting second information regarding the predetermined race to a user of the first computer based on the first information;
displaying the virtual object;
The first information includes at least participant information in the predetermined race,
The virtual object includes at least a moving object corresponding to a contestant or a moving object,
The first processor displays at least a portion of the contestant information in association with a predetermined avatar corresponding to the moving object in response to the user's first operation input with respect to the moving object .
system.
JP2021044313A 2020-12-04 2021-03-18 Program, information processing method, information processing device, and system Active JP7434202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021044313A JP7434202B2 (en) 2020-12-04 2021-03-18 Program, information processing method, information processing device, and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020201882A JP6857774B1 (en) 2020-12-04 2020-12-04 Programs, information processing methods, information processing devices, and systems
JP2021044313A JP7434202B2 (en) 2020-12-04 2021-03-18 Program, information processing method, information processing device, and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020201882A Division JP6857774B1 (en) 2020-12-04 2020-12-04 Programs, information processing methods, information processing devices, and systems

Publications (3)

Publication Number Publication Date
JP2022089736A JP2022089736A (en) 2022-06-16
JP2022089736A5 JP2022089736A5 (en) 2023-01-18
JP7434202B2 true JP7434202B2 (en) 2024-02-20

Family

ID=75378005

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020201882A Active JP6857774B1 (en) 2020-12-04 2020-12-04 Programs, information processing methods, information processing devices, and systems
JP2021044313A Active JP7434202B2 (en) 2020-12-04 2021-03-18 Program, information processing method, information processing device, and system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020201882A Active JP6857774B1 (en) 2020-12-04 2020-12-04 Programs, information processing methods, information processing devices, and systems

Country Status (2)

Country Link
JP (2) JP6857774B1 (en)
WO (1) WO2022118652A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022174992A (en) * 2021-05-12 2022-11-25 株式会社コロプラ Program, information processing method, information processing device, and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308757A (en) 1999-04-27 2000-11-07 Namco Ltd Game device, host device and data memory medium
JP2002210060A (en) 2001-01-16 2002-07-30 Nippon Hoso Kyokai <Nhk> Contest participation type exercising apparatus and center system therefor
JP2007089648A (en) 2005-09-27 2007-04-12 Nec Corp Distribution system of race information, portable device, distribution method, and program
WO2019021375A1 (en) 2017-07-25 2019-01-31 富士通株式会社 Video generation program, video generation method, and video generation device
US20190333320A1 (en) 2018-04-30 2019-10-31 Igt Augmented reality systems and methods for sports racing

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001251671A (en) * 2000-03-03 2001-09-14 Matsushita Electric Ind Co Ltd Mutual position information notice system and mutual position information notice method
JP2003204481A (en) * 2001-08-16 2003-07-18 Space Tag Inc Image-information distribution system
JP2012157510A (en) * 2011-01-31 2012-08-23 Fujitsu Frontech Ltd Passage position display system, terminal device for the same, and program
JP7010456B2 (en) * 2017-06-13 2022-01-26 株式会社Mgrシステム企画 Activity support method and activity support device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308757A (en) 1999-04-27 2000-11-07 Namco Ltd Game device, host device and data memory medium
JP2002210060A (en) 2001-01-16 2002-07-30 Nippon Hoso Kyokai <Nhk> Contest participation type exercising apparatus and center system therefor
JP2007089648A (en) 2005-09-27 2007-04-12 Nec Corp Distribution system of race information, portable device, distribution method, and program
WO2019021375A1 (en) 2017-07-25 2019-01-31 富士通株式会社 Video generation program, video generation method, and video generation device
US20190333320A1 (en) 2018-04-30 2019-10-31 Igt Augmented reality systems and methods for sports racing

Also Published As

Publication number Publication date
JP2022089466A (en) 2022-06-16
WO2022118652A1 (en) 2022-06-09
JP2022089736A (en) 2022-06-16
JP6857774B1 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
JP2020044136A (en) Viewing program, distribution program, method for executing viewing program, method for executing distribution program, information processing device, and information processing system
JP2022080645A (en) Program, information processing method, information processing device and system
JP7434202B2 (en) Program, information processing method, information processing device, and system
WO2022107639A1 (en) Program, information processing method, information processing device, and system
JP7212721B2 (en) Program, information processing method, information processing apparatus, and system
US20230042269A1 (en) In-game asset tracking using nfts that track impressions across multiple platforms
JP7303845B2 (en) Program, information processing method, information processing apparatus, and system
JP2022111015A (en) Program, information processing method, information processing device and system
JP7398408B2 (en) Program, information processing method, information processing device, and system
JP7324801B2 (en) Program, information processing method, information processing apparatus, and system
JP6903806B1 (en) Programs, information processing methods, information processing devices, and systems
JP7303846B2 (en) Program, information processing method, information processing apparatus, and system
WO2022239403A1 (en) Program, information processing method, information processing device, and system
JP6934547B1 (en) Programs, information processing methods, information processing devices, and systems
JP6934552B1 (en) Programs, information processing methods, information processing devices, and systems
JP7219792B2 (en) Program, information processing method, information processing apparatus, and system
JP7482821B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS, AND SYSTEM
WO2022137376A1 (en) Method, computer-readable medium, and information processing device
JP2022138681A (en) Program, information processing method, information processing device and system
JP2021104158A (en) Program, method, and information processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230110

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7434202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150