WO2022239403A1 - プログラム、情報処理方法、情報処理装置、及びシステム - Google Patents

プログラム、情報処理方法、情報処理装置、及びシステム Download PDF

Info

Publication number
WO2022239403A1
WO2022239403A1 PCT/JP2022/009278 JP2022009278W WO2022239403A1 WO 2022239403 A1 WO2022239403 A1 WO 2022239403A1 JP 2022009278 W JP2022009278 W JP 2022009278W WO 2022239403 A1 WO2022239403 A1 WO 2022239403A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
advertisement
race
racetrack
displaying
Prior art date
Application number
PCT/JP2022/009278
Other languages
English (en)
French (fr)
Inventor
功淳 馬場
聡志 松山
Original Assignee
株式会社コロプラ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社コロプラ filed Critical 株式会社コロプラ
Publication of WO2022239403A1 publication Critical patent/WO2022239403A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for

Definitions

  • the present disclosure relates to programs, information processing methods, information processing apparatuses, and systems.
  • Patent Literature 1 discloses a technology related to AR (Augmented Reality) advertisement. Specifically, US Pat. A computer-implemented method is disclosed that includes determining based on attributes associated with and causing the AR advertisement to be displayed at the determined placement within the camera view.
  • Patent Literature 1 does not disclose any method of providing AR content corresponding to races in the real world. Therefore, as a matter of course, Patent Literature 1 does not discuss an advertisement display method suitable for AR content corresponding to races in the real world.
  • One aspect of the present disclosure aims to provide AR content corresponding to races in the real world, and to provide advertisements to users in a manner suitable for the AR content.
  • a program executed in a first computer comprising a processor and an imaging unit, The program causes the processor to: receiving from a second computer first information about a given race in the real world; generating a virtual object including a racetrack object representing a racetrack and a moving object representing a contestant or moving object of the predetermined race based on the first information; displaying a superimposed image in which the virtual object is superimposed on a real image of the surroundings of the first computer captured by the imaging unit; and displaying an advertisement in the display area of the virtual object or in a peripheral area of the display area.
  • a program is provided.
  • FIG. 1 is a diagram showing a configuration example of a system according to an embodiment
  • FIG. 2 is a block diagram showing an example of functional configuration of a user terminal according to an embodiment
  • FIG. 3 is a block diagram showing an example of a functional configuration of a server according to one embodiment
  • FIG. 1 is a schematic diagram illustrating an example of a real-world race track according to an embodiment
  • FIG. 4 is a schematic diagram showing an example of a virtual object displayed on a user terminal according to an embodiment
  • FIG. 4 is a flowchart illustrating an example of operational processing according to an embodiment
  • FIG. 4 is a schematic diagram showing an example of a real image captured by an imaging unit according to an embodiment
  • FIG. 10 is a schematic diagram showing an example of a screen displaying a virtual object superimposed on a real image according to an embodiment
  • FIG. 10 is a schematic diagram showing an example of a screen displaying a virtual object superimposed on a real image according to an embodiment
  • 9 is a flowchart showing an example of advertisement display processing according to an embodiment
  • FIG. 4 is a schematic diagram showing an example of an advertisement display area according to an embodiment
  • FIG. 4 is a schematic diagram showing an example of an advertisement display area according to an embodiment
  • FIG. 4 is a schematic diagram showing an example of advertisement display according to an embodiment
  • 14 is an enlarged view of the moving object shown in FIG. 13
  • FIG. FIG. 4 is a schematic diagram showing an example of advertisement display according to an embodiment
  • FIG. 1 is a diagram showing the configuration of system 1 according to the present embodiment.
  • the system 1 can display, for example, a predetermined race held in the real world as a virtual race using virtual objects on the information processing device used by the user.
  • the "predetermined race” is not particularly limited as long as it is a race that is held in the real world. Examples include car races such as F1, drone races, dog races, marathons, and relay road races.
  • Virtual content is not particularly limited as long as it is content using virtual objects including a racetrack object representing a racetrack in the real world and a moving object representing a participant in a predetermined race in the real world or a moving object. .
  • the system 1 includes a user terminal 10A, a user terminal 10B, and a user terminal 10C (hereinafter referred to as user terminals 10A, 10B, 10C, etc.), which are information processing apparatuses (first computers) used by users. a plurality of user terminals 10 , a first server device (second computer) 20 , a second server device 40 , and a network 30 .
  • the user terminals 10A and 10B are connected to the network 30 by communicating with the radio base station 31 .
  • the user terminal 10C connects to the network 30 by communicating with a wireless router 32 installed in a facility such as a house.
  • the user terminal 10 is, for example, a mobile terminal with a touch screen, and may be a smart phone, a phablet, a tablet, or the like.
  • the user terminal 10 executes, for example, a program installed via a platform that distributes applications or the like, or a program including pre-installed website browsing software.
  • the user terminal 10 communicates with the first server device 20 by executing the above program, and transmits/receives data related to a predetermined race, data related to the user, etc. to/from the first server device 20, thereby allowing the user It is possible to display a virtual race on the terminal 10. - ⁇
  • the first server device 20 receives data related to a given race from the second server device 40 .
  • the first server device 20 appropriately transmits data related to a predetermined race to the user terminal 10 .
  • the first server device 20 stores and manages data related to a predetermined race and data related to each user.
  • the first server device 20 includes a communication IF (Interface) 22, an input/output IF 23, a memory 25, a storage 26, and a processor (second processor) 29 as a hardware configuration. connected to each other through a communication IF (Interface) 22, an input/output IF 23, a memory 25, a storage 26, and a processor (second processor) 29 as a hardware configuration. connected to each other through
  • the communication IF 22 is compatible with various communication standards such as the LAN (Local Area Network) standard, and functions as an interface for transmitting and receiving data to and from the user terminal 10, the second server device 40, and the like.
  • LAN Local Area Network
  • the input/output IF 23 functions as an interface for receiving input of information to the first server device 20 and outputting information to the outside of the first server device 20 .
  • the input/output IF 23 can include an input receiving section that receives connection of information input devices such as a mouse and keyboard, and an output section that receives connection of information output devices such as a display for displaying images and the like.
  • the memory 25 is a storage device for storing data used for processing.
  • the memory 25 provides the processor 29 with a work area for temporary use when the processor 29 performs processing, for example.
  • the memory 25 includes storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory).
  • the storage 26 is a storage device for storing various programs and data for the processor 29 to read and execute.
  • the information stored by the storage 26 includes data related to predetermined races, data related to each user, and the like.
  • the storage 26 can be configured including a storage device such as an HDD (Hard Disk Drive) and flash memory. Note that the storage is not limited to being included in the server device, and a cloud service can also be used.
  • the processor 29 controls the operation of the first server device 20 by reading and executing programs and the like stored in the storage 26 .
  • the processor 29 may include, for example, a CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), and the like.
  • the second server device 40 stores and manages data related to predetermined races.
  • the second server device 40 is, for example, a server device managed by an organizer of a predetermined race, or a server device managed by an organization (publisher of a race magazine, etc.) that transmits information about a predetermined race to the outside.
  • the second server device 40 appropriately transmits data related to a predetermined race to the first server device 20 .
  • the second server device 40 may transmit data related to a given race to the user terminal 10 .
  • the hardware configuration of the second server device 40 may be the same as that of the first server device 20 as long as there is no contradiction.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the user terminal 10.
  • the user terminal 10 includes an antenna 110, a wireless communication IF 120, a touch screen 130, an input/output IF 140, a storage unit 150, an audio processing unit 160, a microphone 161, a speaker 162, It includes an imaging unit 170 , a sensor unit 180 , and a control unit (first processor) 190 .
  • the antenna 110 radiates the signal emitted by the user terminal 10 into space as radio waves. Antenna 110 also receives radio waves from space and provides a received signal to wireless communication IF 120 .
  • the wireless communication IF 120 performs modulation/demodulation processing and the like for transmitting and receiving signals via the antenna 110 and the like in order for the user terminal 10 to communicate with other communication devices.
  • the wireless communication IF 120 is a communication module for wireless communication including a tuner, a high-frequency circuit, and the like.
  • Touch screen 130 accepts input from a user and outputs information to display 132 for the user.
  • Touch screen 130 includes a touch panel 131 and a display 132 for accepting user operation input.
  • the touch panel 131 detects that a user's finger or the like approaches by using, for example, a capacitive touch panel.
  • the display 132 is implemented by, for example, an LCD (Liquid Crystal Display), an organic EL (electroluminescence), or other display device.
  • the input/output IF 140 receives input of information to the user terminal 10 and functions as an interface for outputting information to the outside of the user terminal 10 .
  • the storage unit 150 is configured by a flash memory, an HDD, or the like, and stores programs used by the user terminal 10 and various data received by the user terminal 10 from the first server device 20 or the like.
  • the audio processing unit 160 modulates and demodulates an audio signal. Audio processing section 160 modulates the signal supplied from microphone 161 and supplies the modulated signal to control section 190 . Also, the audio processing unit 160 provides an audio signal to the speaker 162 .
  • the audio processing unit 160 is implemented by, for example, a processor for audio processing.
  • Microphone 161 functions as an audio input unit for receiving input of an audio signal and outputting it to control unit 190 .
  • the speaker 162 functions as an audio output unit for outputting audio signals to the outside of the user terminal 10 .
  • the imaging unit 170 is a camera that captures a real image of the surroundings of the user terminal 10 .
  • An image captured by the imaging unit 170 is subjected to image processing by the control unit 190 and output to the display 132 .
  • the sensor unit 180 has a GPS sensor.
  • the sensor section 180 may include other sensors such as an acceleration sensor and a gyro sensor.
  • the control unit 190 controls the operation of the user terminal 10 by reading and executing programs stored in the storage unit 150 .
  • the control unit 190 is implemented by, for example, an application processor.
  • Storage unit 150 stores application program 151 , application information 152 , user information 153 , and advertisement information 154 .
  • the user terminal 10 downloads the application program 151 from the first server device 20 and stores it in the storage unit 150 . Also, the user terminal 10 communicates with the first server device 20 to transmit and receive various data such as application information 152 and user information 153 to and from the first server device 20 .
  • the application program 151 is a program for displaying virtual races on the user terminal 10 .
  • the application information 152 includes various data referred to by the application program 151 .
  • Application information 152 includes first information 152A.
  • the first information 152A is information regarding a predetermined race transmitted from the first server device 20 or the second server device 40 .
  • the first information 152A includes, for example, information about the racetrack where the predetermined race is held and the contestants or moving bodies (hereinafter also referred to as "participants, etc.") participating in the predetermined race.
  • the first information 152A can include, for example, positional information of the contestants, etc. during a predetermined race, and time information corresponding to the positional information.
  • the first information 152A may include race time information indicating race times (time required from the start to the finish line) of contestants and the like.
  • testant is a concept that includes not only humans but also animals such as horses and dogs.
  • a "moving object” is an object that moves in a given race, such as an animal or a machine that a contestant rides, or a machine that is remotely controlled by a contestant. In a marathon, a dog race, etc., the "participant” and the “moving object” are the same.
  • the first information 152A includes, for example, the name of a predetermined race, the date and time of the race, race field data, contestant data, mobile data, odds information, race forecast, race start chart, information immediately before the race, It may also include pit reports, race results, race videos, race still images, past race information, and other information that can be published in information magazines and information sites regarding predetermined races.
  • User information 153 includes information about the user of user terminal 10 .
  • the user information 153 includes, for example, information identifying the user, location information of the user terminal 10 (hereinafter also referred to as "terminal location information"), user's race purchase history and refund (for example, purchased boat ticket for boat race). , purchase price, refund amount of winning ticket, winning amount or losing amount within a predetermined period, total income and expenditure, etc.).
  • Advertisement information 154 includes information about advertisements.
  • the advertisement information 154 is information for displaying an advertisement by an advertisement unit 198, which will be described later.
  • Advertising information 154 includes, for example, one or more of image information and text information.
  • Advertising information 154 may include audio information.
  • Advertisement information 154 may include information regarding the display location of the advertisement.
  • the advertisement information 154 may be received from the first server device 20, or may be received from another computer device, for example.
  • control unit 190 By reading and executing the application program 151, the control unit 190 operates an operation input reception unit 191, a transmission/reception unit 192, an object generation unit 193, a display control unit 194, a detection unit 195, and a position acquisition unit 196. , a purchase reception unit 197, and an advertisement unit 198.
  • the operation input receiving unit 191 receives user's operation input based on the output of the touch screen 130 . Specifically, the operation input receiving unit 191 detects that a user's finger or the like touches or approaches the touch panel 131 as coordinates of a coordinate system having a horizontal axis and a vertical axis on the surface forming the touch screen 130 .
  • Operation input reception unit 191 determines a user's operation on touch screen 130 .
  • the operation input reception unit 191 performs, for example, “approach operation”, “release operation”, “tap operation”, “double tap operation”, “long press operation (long touch operation)”, “drag operation (swipe operation)”, User operations such as “move operation”, “flick operation”, “pinch-in operation”, and “pinch-out operation” are determined.
  • the operation input receiving unit 191 may receive, as an operation input, movement of the user terminal 10 detected by an acceleration sensor, a gyro sensor, or the like mounted on the user terminal 10 .
  • the transmission/reception unit 192 transmits and receives various types of information to and from external communication devices such as the first server device 20 and the second server device 40 via the wireless communication IF 120 and the network 30 .
  • the transmitter/receiver 192 receives the first information 152A from the first server device 20 or the second server device 40, for example. Further, the transmission/reception unit 192 transmits, for example, information corresponding to the operation input received by the operation input reception unit 191, information stored in the user information 153, and the like to the first server device 20 or the second server device 40. .
  • the object generator 193 Based on the first information 152A, the object generator 193 generates, as virtual objects, a racefield object representing a racetrack and moving objects representing contestants and the like.
  • the object generation unit 193 may generate a virtual display board that can display information about the race as text or images, or display advertisements.
  • the object generation unit 193 may generate various building objects, landscape objects such as trees that form landscapes, objects that serve as user avatars, and the like.
  • the racetrack object may have one or more surfaces that exist in the peripheral area of the racetrack object and are used to display advertisements. At least one of the racetrack object and the moving object may have an area for displaying an advertisement. Similarly, other virtual objects may have one or more surfaces for displaying advertisements in their peripheral areas, or the other virtual objects themselves may have areas for displaying advertisements. may
  • the display control unit 194 superimposes the virtual object generated by the object generation unit 193 on the real image of the surroundings of the user terminal 10 captured by the imaging unit 170 (hereinafter also referred to as a “superimposed image”). displayed on the display 132.
  • the display control unit 194 for example, based on the position information of the predetermined contestants during the execution of the predetermined race and the time information corresponding to the position information included in the first information 152A, on the racetrack object A virtual race that virtually reproduces a predetermined race is displayed on the display 132 by moving the moving object.
  • the display control unit 194 may reproduce the virtual race based on the race time information.
  • the display control unit 194 causes the display 132 to display various menu screens and a GUI (Graphical User Interface) or changes the display contents of the display 132 in accordance with the operation input received by the operation input reception unit 191.
  • GUI Graphic User Interface
  • the detection unit 195 detects flat surfaces in the real image captured by the imaging unit 170 . Detection of a flat surface is realized by conventionally known image recognition technology. For example, when the user performs an operation to select the flat surface detected by the detection unit 195, the display 132 displays a superimposed image in which the racetrack object is arranged on the flat surface.
  • the flat surface is a horizontal surface.
  • the angle formed by the flat surface and the bottom surface forming the racetrack object may be 0 degrees, but is preferably an acute angle, and can be in the range of 15 degrees to 45 degrees, for example.
  • the angle may be preset in the user terminal 10, or may be arbitrarily changed by the user.
  • even if there is a projection on a part of the flat surface in the real world, or even if there is an object on the flat surface, if the projection or the object is of a size that can be hidden by the racetrack object. may be detected as a flat surface on which racetrack objects can be placed. Note that the place where the virtual object is placed is not limited to the flat surface, and can be determined as appropriate according to the type of the virtual object.
  • the location acquisition unit 196 acquires terminal location information indicating the location of the user terminal 10 .
  • a GPS sensor included in the sensor unit 180 may be used, a mobile network of the user terminal 10 or the like may be used, or both of them may be used.
  • the "position of the user terminal 10" may be a planar position indicated by latitude and longitude, or may be a spatial position including height.
  • the purchase acceptance unit 197 accepts purchases of voting tickets for a predetermined race. Specifically, the purchase accepting unit 197 accepts a user's purchase instruction regarding various betting tickets related to a race, such as purchase of a boat ticket for a boat race or purchase of a betting ticket for a horse race.
  • the purchase instruction includes information on, for example, the type of betting ticket (for example, multiple wins, single wins, double wins, etc.), contestants who will vote (so-called buying options), amount of money used, and the like.
  • Information about the purchase instruction is transmitted to the first server device 20 via the transmission/reception unit 192 .
  • the advertising unit 198 displays an advertisement within the display area of the virtual object or in a peripheral area of the display area based on the advertisement information 154 .
  • Advertisements displayed by the advertising unit 198 include, for example, one or more of still images, moving images, and text.
  • the advertising unit 198 preferably displays, for example, an advertisement selected based on user information about the user of the user terminal 10 while the superimposed image is being displayed.
  • the advertising unit 198 is preferably capable of displaying the selected advertisement even when the display screen transitions from the superimposed image to a different image.
  • the selection of advertisements is performed by the advertisement unit 295 of the first server device, which will be described later, but the selection may be made by the advertisement unit 198.
  • the advertising unit 198 preferably determines the display location of the advertisement, for example, based on information regarding the advertisement to be displayed.
  • the advertising unit 198 extracts a real image area in which a real image is displayed from among the superimposed images, and determines at least part of the real image area as an advertisement display place.
  • the advertising unit 198 displays, for example, one or more surfaces capable of displaying advertisements set in a peripheral area of a virtual object such as a racetrack object, or an advertisement set in the virtual object itself such as a racetrack object.
  • One or more of the displayable areas may be determined as the display location of the advertisement.
  • the advertisement display location may be determined by the advertisement unit 295 .
  • FIG. 3 is a block diagram showing the functional configuration of the first server device 20. As shown in FIG. A detailed configuration of the first server device 20 will be described with reference to FIG.
  • the first server device 20 functions as a communication unit 220, a storage unit 250, and a control unit 290 by operating according to a program.
  • the communication unit 220 functions as an interface for the first server device 20 to communicate with external communication devices such as the user terminal 10 and the second server device 40 via the network 30 .
  • the storage unit 250 stores various programs and data for realizing the system 1 .
  • storage unit 250 stores program 251 , race information 252 , user information 253 , and advertisement information 254 .
  • the program 251 is a program for realizing the system 1 by the first server device 20 communicating with the user terminal 10 and the second server device 40 .
  • the program 251 is executed by the control unit 290 to perform processing for transmitting and receiving data to and from the user terminal 10 and the second server device 40, processing according to the operation content performed by the user of the user terminal 10, race information 252 and user
  • the first server device 20 is caused to perform processing such as updating the information 253 .
  • Race information 252 includes various data related to a given race. Race information 252 includes, for example, first information 252A.
  • the first information 252A is information from which the first information 152A is based, and the first information 152A can be part of the first information 252A.
  • the first information 252A is information acquired from the second server device 40, for example.
  • first information 252A may be configured to be directly input to first server device 20 instead of being obtained from second server device 40 . When configured in this manner, the system 1 does not need to include the second server device 40 .
  • User information 253 is information about the user of the user terminal 10 .
  • User information 253 includes a user management table 253A.
  • the user management table 253A stores, for each user, information for identifying users, terminal location information of the user terminal 10, user's race purchase history and refund information, for example.
  • User information 253 is information about the user of the user terminal 10 .
  • User information 253 includes a user management table 253A.
  • the user management table 253A stores, for each user, information for identifying users, terminal location information of the user terminal 10, user's race purchase history and refund information, for example.
  • Advertisement information 254 includes various information regarding a plurality of advertisements.
  • the advertisement information 254 is, for example, information from which the advertisement information 154 is based, and the advertisement information 154 can be part of the advertisement information 254 .
  • Advertisement information 254 may include, for example, information regarding the display location of the advertisement.
  • the information relating to the display location of the advertisement may specifically specify the location where the advertisement is displayed, or may define the shape, size, etc. of the location where the advertisement can be displayed.
  • the control unit 290 is realized by the processor 29, and by executing the program 251, a transmission/reception unit 291, a first information acquisition unit 292, a position acquisition unit 293, a purchase processing unit 294, an advertising unit 295, a data management unit 296, a clock
  • the function as the part 297 is demonstrated.
  • the transmission/reception unit 291 transmits and receives various types of information to and from external communication devices such as the user terminal 10 and the second server device 40 via the communication unit 220 and the network 30 .
  • the transmission/reception unit 291 transmits at least part of the first information 252 ⁇ /b>A and the advertisement information 254 to the user terminal 10 and receives at least part of the user information 153 from the user terminal 10 .
  • the transmission/reception unit 291 receives the first information 252A from the second server device 40, for example.
  • the first information acquisition unit 292 acquires the first information 252A from the second server device 40 via the transmission/reception unit 291 .
  • the location acquisition unit 293 acquires the terminal location information of the user terminal 10 from the user terminal 10 via the transmission/reception unit 291 .
  • the purchase processing unit 294 executes processing for purchasing a voting ticket based on the information regarding the purchase instruction transmitted from the user terminal 10 .
  • the race purchase history included in the user management table 253A can be updated in response to the purchase processing unit 294 completing the purchase process.
  • the purchase processing unit 294 may transmit information regarding purchase instructions to the second server device 40 via the transmission/reception unit 291 , and the voting ticket purchase process may be executed in the second server device 40 .
  • the purchase history included in user management table 253A can be updated based on information transmitted from second server device 40 .
  • the advertisement unit 295 transmits at least part of the advertisement information 254 to the user terminal 10 via the transmission/reception unit 291 .
  • the advertising unit 295 selects, for example, an advertisement to be displayed on each user terminal 10 from among a plurality of advertisements based on predetermined selection criteria.
  • the advertising unit 295 preferably selects an advertisement to be displayed on each user terminal 10 for each user terminal 10 based on information about each user stored in the user management table 253A, for example.
  • Information about each user that is used as a criterion for selecting advertisements is not particularly limited, but is preferably, for example, the terminal location information of the user terminal 10, the user's race purchase history, and the like.
  • the advertising unit 295 may select advertisements based on the user's sex, age, or the like.
  • the data management unit 296 updates various data stored in the storage unit 250 according to the processing results of the transmission/reception unit 291, the first information acquisition unit 292, the position acquisition unit 293, the purchase processing unit 294, the advertisement unit 295, and the like. I do.
  • the timer 297 performs processing for measuring time. Various times displayed on the user terminal 10 (for example, the time until the start of the race, etc.) can be controlled based on the time measured by the timer 297 .
  • FIG. Although the case where the predetermined race is a boat race will be mainly described below as an example, the following description can be applied even if the predetermined race is another race.
  • data is transmitted and received between the user terminal 10 and the first server device 20, and between the first server device 20 and the second server device 40.
  • the terminal 10 and the second server device 40 may be configured to directly transmit and receive data.
  • FIG. 4 is a schematic diagram showing an example of a boat race track in the real world.
  • Two turn marks 403 are installed in the boat race course 401, and races are carried out by boats 402a to 402f on which boat racers ride.
  • race time information indicating the race times of the boats 402a to 402f is transmitted from the second server device 40 to the first server device 20, and from the first server device 20 to the user terminal 10.
  • the boat race course 401 is provided with imaging devices (cameras) 404a to 404b.
  • the imaging device 404a captures the boats 402a to 402f from above the boat race course 401 in its field of view.
  • the imaging device 404b captures the boats 402a to 402f from the sides of the boat race course 401 in the field of view.
  • the images of the boats 402 a - 402 f captured by the imaging devices 404 a - 404 b are transmitted to the second server device 40 .
  • the second server device 40 for example, performs image analysis of each image, and calculates position information indicating the position of each of the boats 402a to 402f at the shooting time of each image.
  • the calculated position information and the time information regarding the shooting time corresponding to the position information are transmitted to the first server device 20 and transmitted from the first server device 20 to the user terminal 10 . Note that the position information may be calculated in the first server device 20 .
  • Position sensors such as GPS sensors may be installed on the boats 402a to 402f instead of or in addition to the imaging devices 404a to 404b.
  • the position information of the boats 402a to 402f obtained by the position sensors and the time information indicating the time when the position information was obtained are finally transmitted to the user terminal 10.
  • FIG. 5 is a schematic diagram showing an example of a virtual object displayed on the user terminal 10.
  • the virtual objects are a racetrack object 501, moving objects 502a to 502f (hereinafter collectively referred to as "moving objects 502"), two turn mark objects 503, a virtual display board 505, It is shown.
  • a racetrack object 501 is an object that is a virtual display of the boat racetrack 401 .
  • the race track object 501 and the turn mark object 503 are preferably created based on race track data such as course information of the boat race track 401 , and preferably have shapes corresponding to the boat race track 401 .
  • the moving objects 502a to 502f are objects that are virtual representations of the boats 402a to 402f, respectively, and have boat-like shapes.
  • the moving objects 502a-502f move on the racecourse object 501 based on the race time information, the positional information of the boats 402a-402f, and the time information corresponding to the positional information.
  • a race in the real world is displayed on the user terminal 10 as a virtual race using the racetrack object 501 and the moving objects 502a to 502f.
  • the virtual display board 505 is an object for displaying information about the race in text and images, and for displaying advertisements.
  • Virtual display board 505 is, for example, an object that does not have a corresponding existence in boat race track 401 .
  • Information displayed on the virtual display board 505 is not particularly limited, and may be, for example, ranking information or odds information. Further, the information displayed on the virtual display board 505 may be changeable based on the user's operation input.
  • FIG. 6 is a flowchart illustrating an example of display control processing.
  • the order of each process constituting each flowchart described in this specification may be random as long as there is no contradiction or inconsistency in the contents of the process, and the processes may be executed in parallel.
  • the processing shown in each flowchart can be realized by the control unit 190 executing the application program 151 and the control unit 290 executing the program 251, respectively. , may be performed by other devices.
  • step S610 the control unit 190 activates the imaging unit 170, which is a camera. A real image around the user terminal 10 is captured by the imaging unit 170 .
  • step S ⁇ b>620 the control unit 190 detects a flat surface within the image captured by the imaging unit 170 .
  • step S630 the control unit 190 arranges the virtual object on the detected flat surface.
  • FIG. 7 is a schematic diagram showing an example of a real image captured by the imaging unit 170. As shown in FIG. In the example of FIG. 7, a keyboard 702 and a monitor device 703 are placed on a flat desk 701 .
  • step S610 When the imaging unit 170 is activated in step S610, a real image captured by the imaging unit 170 is displayed on the display 132.
  • step S ⁇ b>620 the control unit 190 detects a flat surface within the image captured by the imaging unit 170 , that is, within the image displayed on the display 132 .
  • region 704 is detected as a flat surface.
  • the size of the keyboard 702 is such that it can be hidden by the racetrack object 501, so the control unit 190 detects the area 704 as a flat surface.
  • the position of the region 704 can also be changed.
  • the area 704 is displayed on the display 132 by adding a predetermined color, for example, so as to be distinguishable from other parts.
  • the control unit 190 arranges a virtual object such as the racetrack object 501 on the area 704 in step S630.
  • FIG. 8 is a schematic diagram showing an example of a screen displaying a virtual object superimposed on a real image.
  • the dot patterned area including the monitor device 703 is the real image, and the other area is the area where the virtual object is displayed.
  • the virtual objects include a racetrack object 501, a plurality of moving objects 502, two turn mark objects 503, a virtual display board 505, a large monitor object 506, building objects 507a-507b, and other objects.
  • a number of unlabeled objects (tree objects, clock objects, etc.) are displayed. These objects are created based on the first information 152A received from the first server device 20, for example.
  • the racetrack object 501 is placed on the area 704 such that the angle between the flat surface included in the area 704 and the bottom surface of the racetrack object 501 is 0 degrees.
  • an area in the depth direction such as the area X1 and the moving objects 502 may overlap each other and become difficult to see.
  • a blind spot where the moving object 502 cannot be seen may occur in a region on the depth direction side of the large monitor object 506 .
  • the user can change the viewpoint of the superimposed image displayed on display 132 .
  • the viewpoint position of the imaging unit 170 may move closer to or farther from the racetrack object 601 .
  • the viewpoint position of the imaging unit 170 may move closer to or further away from the racetrack object 601 .
  • the viewpoint position can move to the specified position.
  • the race field object 501 by arranging the race field object 501 so that the angle ⁇ formed between the flat surface and the bottom surface of the race field object 501 is an acute angle, the above-described problems related to visibility can be alleviated.
  • FIG. 9 is a schematic diagram showing an example of a screen in which a virtual object is superimposed on a real image, and shows another aspect of the racetrack object 501 shown in FIG. Specifically, FIG. 9 is an example in which the predetermined race is a horse race.
  • the area with the dot pattern including the monitor device 703 is the real image, and the other area is the area where the virtual object is displayed.
  • a racetrack object 911, a plurality of moving objects 912, a large monitor object 913, a pond object 914, and a plurality of tree objects 915 are displayed on the display 132 as virtual objects. These objects are also created based on the first information 152A received from the first server device 20, for example.
  • the racetrack object 911, the large monitor object 913, the pond object 914, and the plurality of tree objects 915 are preferably created based on racetrack data such as course information of a predetermined racetrack in the real world, for example.
  • the plurality of moving objects 912 are, for example, virtual objects representing horses and jockeys running in a horse race.
  • step S640 the control unit 190 displays the advertisement within the display area of the virtual object or in the peripheral area of the display area.
  • the processing of step S640 will be detailed in a later paragraph.
  • step S650 the control unit 190 acquires position information of the boats 402a to 402f on the boat race track 401 in the real world. That is, when the boats 402a-402f start a race in the real world, the control unit 190 acquires the position information and time information of the boats 402a-402f from the first server device 20.
  • FIG. The method of acquiring position information and time information is as described with reference to FIG.
  • step S660 the control unit 190 performs control so that the position information acquired in step S650 and the moving object 502 are linked. Specifically, using the time information and the position information, the moving objects 502a to 502f on the race course object 501 are controlled to move in the same way as the boats 402a to 402f on the boat race course 401.
  • FIG. 1 the control unit 190 performs control so that the position information acquired in step S650 and the moving object 502 are linked. Specifically, using the time information and the position information, the moving objects 502a to 502f on the race course object 501 are controlled to move in the same way as the boats 402a to 402f on the boat race course 401.
  • Each process of steps S650 and S660 is repeated at least from the start to the end of the race in the real world, but may be repeated before the start and after the end of the race in the real world.
  • the position information of the boats 502a to 502f from the start to the end of the race may be collectively acquired before the start of the virtual race. Further, the virtual race may be displayed by acquiring only the race time information without acquiring the position information and the like. A race displayed as a virtual race may be an exhibition race.
  • the control unit 190 terminates the series of display control processing in response to receiving an operation input for terminating the application program 151 or the like.
  • FIG. 10 is a flowchart showing an example of advertisement display processing in step S640.
  • at least part of the processing executed by control unit 190 may be executed by control unit 290 as long as there is no contradiction, and at least part of the processing executed by control unit 290 may be , may be executed by the control unit 190 as long as there is no contradiction.
  • step S ⁇ b>1010 the control unit 290 acquires information about the user of the user terminal 10 .
  • the control unit 290 refers to the user management table 253A and acquires information about the user of the user terminal 10.
  • step S1020 the control unit 290 selects one or more advertisements to be displayed on the user terminal 10 based on the user information acquired in step S1010.
  • control unit 290 may select an advertisement based on terminal location information of the user terminal 10 .
  • control unit 290 may select advertisements related to purchasable products or available services in the vicinity of the position indicated by the terminal position information of the user terminal 10 .
  • advertisement selected in this way it is preferable to display information regarding the sales location of the product indicated in the advertisement and the location of service provision.
  • control unit 290 may select advertisements based on the user's race purchase history and information on refunds. Specifically, the control unit 290 selects an advertisement based on the user's winning amount, losing amount, or purchase amount (hereinafter simply referred to as "winning amount, etc.") in the most recent race or within a predetermined period. may More specifically, the control unit 290 selects advertisements related to purchasable products and available services based on the winning amount or the like or the amount obtained by multiplying the winning amount by a predetermined ratio (for example, less than 100%). good.
  • a predetermined ratio for example, less than 100%
  • advertisements for expensive products such as cars and real estate may be selected.
  • the price of the product or the like related to the selected advertisement may exceed the predetermined price.
  • advertisements such as revolving payments and loans may be selected, but such advertisements are not selected and the user terminal 10 may be configured to display a warning about gambling addiction.
  • control unit 290 may select an advertisement based on other information about the user. For example, the control unit 290 may select advertisements based on the user's gender and age. Also, the control unit 290 may select an advertisement based on a combination of multiple pieces of information as described above. For example, the control unit 290 may select an advertisement regarding a product that can be purchased according to the user's winning amount or the like from among the products that can be purchased near the position indicated by the terminal position information.
  • the selection criteria may be the same or different.
  • the control unit 290 may select two or more advertisements based on the terminal location information of the user terminal 10, or may select one or more advertisements based on the terminal location information of the user terminal 10 to determine whether the user wins.
  • One or more advertisements may be selected based on amount or the like.
  • Information about the advertisement selected in step S1020 is transmitted to the user terminal 10.
  • FIG. The information transmitted here may include, for example, image information used for advertisement display.
  • the information transmitted here may be an advertisement ID or the like that can identify the advertisement. Note that image information and the like used for advertisement display may be transmitted in a streaming format.
  • step S1030 the control unit 190 determines a place to display the advertisement based on the information regarding the advertisement selected in step S1020, for example.
  • the control unit 190 determines the place where the advertisement is to be displayed, from the surrounding area of the virtual object such as the racetrack object 501 or the advertisement display area preset in the virtual object itself.
  • the control unit 190 extracts a real image area in which a real image is displayed from among the superimposed images, and determines a place to display the advertisement in the real image area.
  • step S1030 may be performed before the process of step S1010. That is, after the control unit 190 determines the place to display the advertisement, the control unit 290 may select advertisements that can be displayed at the determined place.
  • control unit 190 displays the advertisement selected in step S1020 at the location determined in step S1030, and ends the process.
  • FIG. 11 is a schematic diagram showing an example of an advertisement display area according to an embodiment.
  • the racetrack model 501' is a model in which the racetrack object 501 is simply defined by a plurality of surfaces.
  • a plane 501'a in the racetrack model 501' is, for example, a plane parallel to the flat plane detected in step S620.
  • a surface 501'b is a surface perpendicular to the surface 501'a and faces the front side in FIG.
  • Advertisement display surfaces 1101 to 1106 for displaying advertisements are set in the peripheral area of the racetrack model 501'.
  • the advertisement display surfaces 1101 and 1104 are surfaces parallel to the surface 501'b.
  • Advertisement display surfaces 1102 and 1106 are surfaces parallel to surface 501'a.
  • the advertisement display surfaces 1103 and 1105 are surfaces perpendicular to the surfaces 501'a and 501'b.
  • the sizes of the advertisement display surfaces 1101 to 1106 may be specified.
  • step S1030 for example, based on the display size and surface size specified for the selected advertisement, the place where the advertisement is to be displayed is determined from among the advertisement display surfaces 1101 to 1106.
  • FIG. The advertisements displayed on the advertisement display surfaces 1101 to 1106 may be displayed so as to face the direction in which the advertisement display surfaces 1101 to 1106 face, or the front side of the display 132 regardless of the orientation of the advertisement display surfaces 1101 to 1106. You may display it so that it may face.
  • FIG. 12 is a schematic diagram showing an example of an advertisement display area according to an embodiment.
  • areas around the racetrack object 501 are extracted as real image areas 1201-1204.
  • step S1030 for example, based on the display size specified for the selected advertisement and the sizes of the real image areas 1201 to 1204, the place where the advertisement is to be displayed is determined from among the real image areas 1201 to 1204. .
  • extraction of the real image regions 1201 to 1204 can be performed using conventionally known techniques such as image recognition.
  • FIG. 13 is a schematic diagram showing an example of advertisement display according to an embodiment.
  • FIG. 14 is an enlarged view of the moving object 502b shown in FIG.
  • advertisements 1301 to 1304 are displayed together with the display of the virtual race using the racetrack object 501, the moving object 502, and the like.
  • Advertisements 1301-1304 are advertisements selected in the manner described above. Note that the advertisements 1301 to 1304 may be switched to the next selected advertisement when the moving image ends or when the advertisement is displayed for a predetermined period of time or longer.
  • the display location of the advertisement 1301 is the virtual display board 505, which is one of the advertisement display areas preset in the virtual object.
  • Advertisement 1301 is an advertisement for a hotel, and is displayed as a moving image, for example.
  • the animation of advertisement 1301 may include sound.
  • the volume of the sound of the advertisement video can be turned off while the virtual race is being displayed or while the audio related to the virtual race (for example, commentary audio) is being output. preferable.
  • the advertisement of the moving image may not be selected.
  • the display location of the advertisement 1302 is the real image area 1203, which is part of the area where the real image extracted by the control unit 190 is displayed.
  • Advertisement 1302 is an advertisement for a certain beer and is displayed as a still image, for example.
  • the display location of the advertisement 1303 is one of the advertisement display areas preset in the racetrack object 501 .
  • Advertisement 1302 is an advertisement for a new product and is displayed as text, for example.
  • the display location of the advertisement 1304 shown in FIG. 14 is one of the advertisement display areas preset in the moving object 502b.
  • the advertisement 1304 is a PR advertisement of a certain company, and is an image displayed along the shape of the moving object 502b, for example.
  • FIG. 15 is a schematic diagram showing an example of advertisement display according to an embodiment. Specifically, FIG. 15 shows an example of advertisement display on another screen transitioned from the display screen of the superimposed image.
  • a balance column 1501 is displayed on the display 132 .
  • the information displayed in the balance column 1501 is the total purchase amount of the user's race voting ticket on that day (April 1, 2021 in the example of FIG. 15), the total refund amount, and total balance. It should be noted that the total period of the balance displayed in the balance column 1501 can be changed based on the user's operation input or the like.
  • An advertisement display field 1504 is displayed at the bottom of the display 132 .
  • An advertisement 1301 is displayed in the advertisement display column 1504 .
  • Advertisement 1301 is the same as the advertisement displayed on virtual display board 505 in FIG. That is, the advertisement selected in step S1020 is displayed on a screen other than the virtual race display screen. As can be seen from FIG. 15, the advertisement 1301 is an advertisement selected based on the user's winning amount on that day.
  • a purchase screen button 1502 is a virtual button for transitioning to a screen for purchasing race voting tickets.
  • a racetrack button 1503 is a virtual button for transitioning to a display screen of a superimposed image including the racetrack object 501, as in the example of FIG. Advertisement 1301, that is, the advertisement selected in step S1020, can be displayed even when the display screen is further transitioned by these virtual buttons.
  • a program executed in a first computer comprising a processor and an imaging unit, The program causes the processor to: receiving from a second computer first information about a given race in the real world; generating a virtual object including a racetrack object representing a racetrack and a moving object representing a contestant or moving object of the predetermined race based on the first information; displaying a superimposed image in which the virtual object is superimposed on a real image of the surroundings of the first computer captured by the imaging unit; displaying an advertisement within the display area of the virtual object or in a peripheral area of the display area; program.
  • This makes it possible to provide AR content corresponding to races in the real world, and to provide users with advertisements in a manner suitable for the AR content.
  • the racetrack object has one or more surfaces that exist in the peripheral area and are used to display the advertisement; 2.
  • the program according to item 1, wherein the step of displaying the advertisement displays an advertisement on the surface.
  • the advertisement can be displayed in an area that does not interfere with the display of the AR content.
  • the processing load on the first computer can be reduced compared to the case of extracting the area for displaying the advertisement.
  • the program further causes the processor to: executing a step of extracting a real image area in which the real image is displayed in the superimposed image; 2.
  • the program according to item 1 wherein, in displaying the advertisement, the advertisement is displayed in the real image area.
  • the advertisement can be displayed in an area that does not interfere with the display of the AR content.
  • the degree of freedom in selecting an area for displaying an advertisement is improved, and for example, it becomes easier to select a more suitable location for the advertisement.
  • (Item 4) The program according to any one of items 1 to 3, wherein displaying the advertisement includes displaying an advertisement on at least one of the racetrack object and the moving object.
  • displaying the advertisement includes displaying an advertisement on at least one of the racetrack object and the moving object.
  • (Item 6) The program according to any one of items 1 to 5, wherein the advertisements include those selected based on location information of the first computer. Thereby, an advertisement suitable for the user can be displayed. Also, for example, by displaying an advertisement for a product that can be purchased near the user's current location, an improvement in the conversion rate of the advertisement can be expected.
  • the predetermined race is a race for betting, wherein said advertisement is selected based on the amount won or lost by said user of said first computer in said wagering;
  • the program according to any one of items 1 to 6.
  • an advertisement suitable for the user can be displayed.
  • an improvement in the advertisement conversion rate can be expected. Displaying an advertisement for a product selected based on the user's loss amount can be expected to help overcome gambling addiction.
  • the selected advertisement can be displayed even when the superimposed image transitions to a different image, A program according to any one of items 5 to 7. Accordingly, an advertisement suitable for the user can be displayed even when the superimposed image is not being displayed.
  • the first information includes location information of the contestant or the moving body during the execution of the predetermined race, and time information corresponding to the location information
  • the displaying step includes displaying a virtual race corresponding to the predetermined race by moving the moving object on the racetrack object based on the first information.
  • the program according to any one of items 1 to 8. This makes it possible to provide a user with a virtual race that is held on a racetrack in the real world without going to the racetrack.
  • by displaying the advertisement together with the display of the virtual race instead of starting the display of the virtual race when the display of the advertisement is finished, it is possible to reduce the dislike of the advertisement.
  • An information processing method executed in a first computer having a processor and an imaging unit includes: receiving from a second computer first information about a given race in the real world; generating a virtual object including a racetrack object representing a racetrack and a moving object representing a contestant or moving object of the predetermined race based on the first information; displaying a superimposed image in which the virtual object is superimposed on a real image of the surroundings of the first computer captured by the imaging unit; and displaying an advertisement in the display area of the virtual object or in a peripheral area of the display area.
  • Information processing methods This makes it possible to provide AR content corresponding to races in the real world, and to provide users with advertisements in a manner suitable for the AR content.
  • An information processing device comprising a processor and an imaging unit, the processor comprising: receiving first information from a second computer regarding a given race in the real world; generating a virtual object including a racetrack object representing a racetrack and a moving object representing a participant or moving object of the predetermined race based on the first information; displaying a superimposed image in which the virtual object is superimposed on a real image of the surroundings of the information processing device captured by the imaging unit; An information processing device that displays an advertisement in a display area of the virtual object or in a peripheral area of the display area. This makes it possible to provide AR content corresponding to races in the real world, and to provide users with advertisements in a manner suitable for the AR content.
  • a system that includes a first computer that includes a first processor and an imaging device, and a second computer that includes a second processor and is communicatively connectable to the first computer, the second processor, obtaining first information about a given race in the real world and transmitting the first information to the first computer, the first processor comprising: receiving the first information from the second computer; generating a virtual object including a racetrack object representing a racetrack and a moving object representing a participant or moving object of the predetermined race based on the first information; displaying a superimposed image in which the virtual object is superimposed on a real image of the surroundings of the first computer captured by the imaging device; A system for displaying an advertisement within a display area of the virtual object or in a peripheral area of the display area. This makes it possible to provide AR content corresponding to races in the real world, and to provide users with advertisements in a manner suitable for the AR content.

Abstract

プログラムは、プロセッサに、現実世界のレースに関する第1情報を第2コンピュータ 20から受信するステップと、第1情報に基づいて、レース場を表すレース場オブジェクトと、レースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、第1コンピュータ10A~10Cの周囲の現実画像に仮想オブジェクトを重畳させた重畳画像を表示するステップと、仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示するステップと、を実行させる。

Description

プログラム、情報処理方法、情報処理装置、及びシステム
本開示は、プログラム、情報処理方法、情報処理装置、及びシステムに関する。
特許文献1には、AR(Augmented Reality)広告に関する技術が開示されている。具体的には、特許文献1には、コンピューティングデバイスに関連付けられているカメラビュー内において広告を表示するための配置を決定することと、コンピューティングデバイスに関連付けられたユーザへのAR広告をユーザに関連付けられた属性に基づいて決定することと、カメラビュー内の決定された配置でAR広告を表示させることと、を含む、コンピュータ実施方法が開示されている。
特表2020-515933号公報
ところで、現実世界においては、ボートレースや競馬などの様々なレースが実施されている。これらのレースを観戦するために実際にレース場へ足を運ぶ人々もいるが、実際にレース場へ足を運ぶことは、時間的または地理的な制約により不可能な場合もある。このような背景から、現実世界におけるレースに対応するARコンテンツを、そのレース場にいないユーザに対しても提供できるようすることは、ユーザやレース主催者等にとって有益であると思われる。
しかし、特許文献1には、現実世界におけるレースに対応するARコンテンツを提供する方法は何ら開示されていない。よって、当然ながら、特許文献1では、現実世界におけるレースに対応するARコンテンツに適した広告の表示方法も検討されていない。
本開示の一態様は、現実世界におけるレースに対応するARコンテンツを提供し、かつ、該ARコンテンツに適した手法でユーザに広告を提供することを目的とする。
本開示に示す一実施形態によれば、
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示するステップと、
前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示するステップと、を実行させる、
プログラムが提供される。
本開示に示す一実施形態によれば、現実世界におけるレースに対応するARコンテンツを提供し、かつ、該ARコンテンツに適した手法でユーザに広告を提供することができる。
ある実施の形態に従うシステムの構成例を示す図である。 ある実施の形態に従うユーザ端末の機能的な構成の一例を示すブロック図である。 ある実施の形態に従うサーバの機能的な構成の一例を示すブロック図である。 ある実施の形態に従う現実世界のレース場の一例を示す模式図である。 ある実施の形態に従うユーザ端末に表示される仮想オブジェクトの一例を示す模式図である。 ある実施の形態に従う動作処理の一例を示すフローチャートである。 ある実施の形態に従う撮像部により撮像された現実画像の一例を示す模式図である。 ある実施の形態に従う現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。 ある実施の形態に従う現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。 ある実施の形態に従う広告表示処理の一例を示すフローチャートである。 ある実施の形態に従う広告表示領域の一例を示す模式図である。 ある実施の形態に従う広告表示領域の一例を示す模式図である。 ある実施の形態に従う広告表示の一例を示す模式図である。 図13に示す移動オブジェクトを拡大した図である。 ある実施の形態に従う広告表示の一例を示す模式図である。
以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の要素には同一の符号を付し、重複する説明を適宜省略する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。
(システムの構成)
図1は、本実施の形態に従うシステム1の構成を示す図である。システム1は、例えば、現実世界で実施される所定のレースを、ユーザが使用する情報処理装置上において仮想オブジェクトを用いた仮想レースとして表示することが可能なものである。本明細書において、「所定のレース」とは、現実世界で実施されるレースであれば特に制限はされず、例えば、ボートレース(本番のレースや、展示レース)、競馬、競輪、オートレース、F1等のカーレース、ドローンレース、ドッグレース、マラソン、駅伝などが挙げられる。
なお、以下では、システム1が提供する仮想コンテンツが上記の仮想レースである場合を主に説明するが、仮想コンテンツの種類は仮想レースに限定されない。仮想コンテンツは、現実世界のレース場を表すレース場オブジェクトと、現実世界の所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを用いたコンテンツであれば、特に制限はない。
図1に示すように、システム1は、各ユーザが使用する情報処理装置(第1コンピュータ)であるユーザ端末10A、ユーザ端末10B及びユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」とも称する)など複数のユーザ端末10と、第1サーバ装置(第2コンピュータ)20と、第2サーバ装置40と、ネットワーク30と、を含む。
ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、例えば、タッチスクリーンを備える携帯型端末であり、スマートフォン、ファブレット、タブレットなどでありうる。
ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してインストールされたプログラム、又は、予めプリインストールされているウェブサイト閲覧用ソフトウエアなどを含むプログラムを実行する。ユーザ端末10は、上記プログラムの実行により、第1サーバ装置20と通信し、所定のレースに関連するデータやユーザに関連するデータ等を第1サーバ装置20との間で送受信することにより、ユーザ端末10上で仮想レースを表示することを可能とする。
第1サーバ装置20は、所定のレースに関連するデータを、第2サーバ装置40から受信する。第1サーバ装置20は、所定のレースに関連するデータを、適宜、ユーザ端末10へ送信する。第1サーバ装置20は、所定のレースに関連するデータや、各ユーザに関連するデータを記憶して管理する。
第1サーバ装置20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ(第2プロセッサ)29と、を備え、これらが通信バスを介して互いに接続されている。
通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10や第2サーバ装置40などとの間でデータを送受信するためのインタフェースとして機能する。
入出力IF23は、第1サーバ装置20への情報の入力を受け付けるとともに、第1サーバ装置20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含みうる。
メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。
ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報には、所定のレースに関連するデータや、各ユーザに関連するデータ等が含まれる。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されうる。なお、ストレージは、サーバ装置に含まれる形態に限られず、クラウドサービスを利用することもできる。
プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、第1サーバ装置20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro          Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成されうる。
第2サーバ装置40は、所定のレースに関連するデータを記憶して管理している。第2サーバ装置40は、例えば、所定のレースの開催者が管理するサーバ装置や、所定のレースに関する情報を外部へ発信する団体(レース専門誌の発行者など)が管理するサーバ装置である。第2サーバ装置40は、所定のレースに関連するデータを、適宜、第1サーバ装置20へ送信する。ある局面においては、第2サーバ装置40は、所定のレースに関連するデータをユーザ端末10へ送信してもよい。第2サーバ装置40のハードウェア構成は、矛盾の生じない範囲で、第1サーバ装置20と同様であってもよい。
(ユーザ端末)
図2は、ユーザ端末10の機能的な構成の一例を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク161と、スピーカ162と、撮像部170と、センサ部180と、制御部(第1プロセッサ)190と、を含む。
アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。
無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
タッチスクリーン130は、ユーザからの入力を受け付けて、ユーザに対し情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの操作入力を受け付けるためのタッチパネル131と、ディスプレイ132と、を含む。タッチパネル131は、例えば、静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。
入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。
記憶部150は、フラッシュメモリ、HDD等により構成され、ユーザ端末10が使用するプログラム、及び、ユーザ端末10が第1サーバ装置20等から受信する各種データ等を記憶する。
音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク161から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ162へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク161は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ162は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。
撮像部170は、ユーザ端末10の周囲の現実画像を撮像するカメラである。撮像部170によって撮像された画像は、制御部190によって画像処理がなされ、ディスプレイ132へ出力される。
センサ部180は、GPSセンサを備える。センサ部180は、センサ部180は、加速度センサやジャイロセンサ等のその他のセンサを備えていてもよい。
制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。
制御部190がアプリケーションプログラム151を実行する処理について、より詳細に説明する。記憶部150は、アプリケーションプログラム151と、アプリケーション情報152と、ユーザ情報153と、広告情報154と、を記憶する。
ユーザ端末10は、例えば、第1サーバ装置20からアプリケーションプログラム151をダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、第1サーバ装置20と通信することで、アプリケーション情報152及びユーザ情報153等の各種のデータを第1サーバ装置20と送受信する。
アプリケーションプログラム151は、ユーザ端末10において仮想レースを表示するためのプログラムである。アプリケーション情報152は、アプリケーションプログラム151が参照する各種のデータを含む。アプリケーション情報152は、第1情報152Aを含む。
第1情報152Aは、第1サーバ装置20や第2サーバ装置40から送信された所定のレースに関する情報である。第1情報152Aに、例えば、所定のレースが実施されるレース場および当該所定のレースに参加する出場者又は移動体(以下、「出場者等」とも称する)に関する情報が含まれる。また、第1情報152Aには、例えば、所定のレースの実施中における、出場者等の位置情報、及び当該位置情報に対応する時間情報と、が含まれうる。ある局面において、第1情報152Aには、出場者等のレースタイム(スタートからゴールまでに要した時間)を示すレースタイム情報が含まれていてもよい。
本明細書において、「出場者」とは、人間だけでなく、馬や犬などの動物も含む概念である。また、「移動体」とは、所定のレースにおいて移動の主体となるものであり、出場者が乗る動物や機体、出場者が遠隔操縦する機体などである。マラソンやドッグレース等では、「出場者」と「移動体」は同一となる。
第1情報152Aとしては、上記の他にも、例えば、所定のレースの名称、開催日時、レース場データ、出場者データ、移動体データ、オッズ情報、レース予想、レース出走表、レース直前情報、ピットレポート、レース結果、レース動画、レース静止画、過去のレース情報、その他の所定のレースに関する情報誌や情報サイトに掲載されうるような情報などを含んでもよい。
ユーザ情報153は、ユーザ端末10のユーザについての情報を含む。ユーザ情報153は、例えば、ユーザを識別する情報、ユーザ端末10の位置情報(以下、「端末位置情報」とも称する)、ユーザのレース購入履歴や払戻金(例えば、ボートレースであれば購入した舟券の買い目や購入金額、的中した舟券の払戻金額、所定の期間内における勝ち額や負け額、トータルの収支等)などを含んでもよい。
広告情報154は、広告に関する情報を含む。広告情報154は、後述の広告部198によって広告を表示するための情報である。広告情報154は、例えば、画像情報及びテキスト情報のうちの1以上を含む。広告情報154は、音声情報を含んでいてもよい。広告情報154は、広告の表示場所に関する情報を含んでいてもよい。広告情報154は、例えば、第1サーバ装置20から受信したものであってもよいし、他のコンピュータ装置から受信したものであってもよい。
制御部190は、アプリケーションプログラム151を読み込んで実行することにより、操作入力受付部191と、送受信部192と、オブジェクト生成部193と、表示制御部194と、検出部195と、位置取得部196と、購入受付部197と、広告部198と、の各機能を発揮する。
操作入力受付部191は、タッチスクリーン130の出力に基づいて、ユーザの操作入力を受け付ける。具体的には、操作入力受付部191は、ユーザの指などがタッチパネル131に接触または接近したことを、タッチスクリーン130を構成する面の横軸及び縦軸からなる座標系の座標として検出する。
操作入力受付部191は、タッチスクリーン130に対するユーザの操作を判別する。操作入力受付部191は、例えば、「接近操作」、「リリース操作」、「タップ操作」、「ダブルタップ操作」、「長押し操作(ロングタッチ操作)」、「ドラッグ操作(スワイプ操作)」、「ムーブ操作」、「フリック操作」、「ピンチイン操作」、「ピンチアウト操作」などのユーザの操作を判別する。
操作入力受付部191は、ユーザ端末10に搭載された加速度センサやジャイロセンサ等によって検出されるユーザ端末10の動きを、操作入力として受け付けてもよい。
送受信部192は、無線通信IF120及びネットワーク30を介して、第1サーバ装置20や第2サーバ装置40などの外部の通信機器と各種情報の送信および受信を行う。送受信部192は、例えば、第1サーバ装置20または第2サーバ装置40から第1情報152Aを受信する。また、送受信部192は、例えば、操作入力受付部191が受け付けた操作入力に応じた情報や、ユーザ情報153に記憶された情報等を第1サーバ装置20または第2サーバ装置40へと送信する。
オブジェクト生成部193は、第1情報152Aに基づいて、仮想オブジェクトとして、レース場を表すレース場オブジェクトと、出場者等を表す移動オブジェクトと、を生成する。オブジェクト生成部193は、レースに関する情報をテキストや画像で表示したり、広告を表示したりすることが可能な仮想表示板を生成してもよい。オブジェクト生成部193は、上記の各オブジェクトの他にも、各種の建物オブジェクト、木などの景観を構成する景観オブジェクト、ユーザのアバターとなるオブジェクト等を生成してもよい。
レース場オブジェクトには、レース場オブジェクトの周辺領域に存在し、広告を表示するための1以上の面が設定されていてもよい。また、レース場オブジェクト及び移動オブジェクトのうちの少なくとも一方には、広告を表示するための領域が設定されていてもよい。その他の仮想オブジェクトについても同様に、その周辺領域に広告を表示するための1以上の面が設定されていてもよいし、該その他の仮想オブジェクト自体に広告を表示するための領域が設定されていてもよい。
表示制御部194は、撮像部170により撮像されたユーザ端末10の周囲の現実画像に、オブジェクト生成部193により生成された仮想オブジェクトを重畳させた画像(以下、「重畳画像」とも称する)を、ディスプレイ132上に表示させる。表示制御部194は、例えば、第1情報152Aに含まれる、所定のレースの実施中における所定の出場者等の位置情報、及び該位置情報に対応する時間情報に基づいて、レース場オブジェクト上において移動オブジェクトを移動させ、所定のレースを仮想的に再現した仮想レースをディスプレイ132上に表示させる。ある局面において、表示制御部194は、レースタイム情報に基づいて、仮想レースを再現してもよい。
表示制御部194は、操作入力受付部191が受け付けた操作入力に応じて、ディスプレイ132に各種のメニュー画面やGUI(Graphical User Interface)を表示させたり、ディスプレイ132の表示内容を変更したりする。
検出部195は、撮像部170により撮像された現実画像内における平坦面を検出する。平坦面の検出は、従来公知の画像認識技術によって実現される。例えば、検出部195が検出した平坦面を選択する操作をユーザが行った場合、当該平坦面にレース場オブジェクトが配置された重畳画像がディスプレイ132に表示される。
平坦面は、水平面であることが好ましい。また、平坦面とレース場オブジェクトを構成する底面とのなす角度は0度であってもよいが、鋭角であることが好ましく、例えば、15度~45度の範囲にすることができる。上記角度は、ユーザ端末10において予め設定されていてもよいし、ユーザによって任意に変更可能にしてもよい。また、現実世界の平坦面の一部に凸部がある場合や、当該平坦面に載置物がある場合であっても、当該凸部や当該載置物がレース場オブジェクトによって隠れる程度のサイズならば、レース場オブジェクトを配置可能な平坦面として検出してもよい。なお、仮想オブジェクトが配置される場所は、平坦面に限定されず、仮想オブジェクトの種類等に応じて適宜決定できる。
位置取得部196は、ユーザ端末10の位置を示す端末位置情報を取得する。端末位置情報の取得には、例えば、センサ部180が備えるGPSセンサを用いてもよいし、ユーザ端末10のモバイルネットワーク等を用いてよいし、これらを併用してもよい。なお、「ユーザ端末10の位置」とは、緯度及び経度で示されるような平面的な位置であってもよいし、さらに高さを含めた空間的な位置であってもよい。
購入受付部197は、所定のレースに関する投票券の購入を受け付ける。具体的には、購入受付部197は、例えば、ボートレースにおける舟券の購入や、競馬における馬券の購入など、レースに関する各種投票券に関するユーザの購入指示を受け付ける。購入指示には、例えば、投票券の種別(例えば、複勝式、連勝単式、又は連勝複式等)、投票する出場者等(いわゆる買い目)、使用金額等に関する情報が含まれる。購入指示に関する情報は、送受信部192を介して、第1サーバ装置20に送信される。
広告部198は、広告情報154に基づいて、仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示する。広告部198によって表示される広告は、例えば、静止画、動画、及びテキストのうちの1以上を含む。
広告部198は、例えば、ユーザ端末10のユーザに関するユーザ情報に基づいて選出された広告を、重畳画像の表示中に表示することが好ましい。広告部198は、重畳画像から異なる画像へと表示画面が遷移した場合においても、上記の選出された広告を表示可能であることが好ましい。なお、本実施形態において、広告の選出は、後述する第1サーバ装置の広告部295によって実行されるが、広告部198によって選出するように構成してもよい。
広告部198は、例えば、表示する広告に関する情報に基づいて、広告の表示場所を決定することが好ましい。広告部198は、例えば、重畳画像のうちで現実画像が表示されている現実画像領域を抽出し、現実画像領域の少なくとも一部を広告の表示場所として決定する。また、広告部198は、例えば、レース場オブジェクト等の仮想オブジェクトの周辺領域に設定されている広告を表示可能な1以上の面や、レース場オブジェクト等の仮想オブジェクト自体に設定されている広告を表示可能な領域のうちの1以上を広告の表示場所として決定してもよい。なお、広告の表示場所の決定は、広告部295によって行ってもよい。
(第1サーバ装置)
図3は、第1サーバ装置20の機能的な構成を示すブロック図である。図3を参照して、第1サーバ装置20の詳細な構成を説明する。第1サーバ装置20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。
通信部220は、第1サーバ装置20がユーザ端末10や第2サーバ装置40などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。
記憶部250は、システム1を実現するための各種プログラム及びデータを記憶する。ある局面において、記憶部250は、プログラム251と、レース情報252と、ユーザ情報253と、広告情報254と、を記憶する。
プログラム251は、第1サーバ装置20がユーザ端末10や第2サーバ装置40と通信して、システム1を実現するためのプログラムである。プログラム251は、制御部290に実行されることにより、ユーザ端末10や第2サーバ装置40とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じた処理、レース情報252やユーザ情報253を更新する処理などを第1サーバ装置20に行わせる。
レース情報252は、所定のレースに関連する各種のデータを含む。レース情報252は、例えば、第1情報252Aを含む。第1情報252Aは、第1情報152Aの元となる情報であり、第1情報152Aは、第1情報252Aの一部でありうる。第1情報252Aは、例えば、第2サーバ装置40から取得された情報である。なお、ある局面において、第1情報252Aは、第2サーバ装置40から取得されるのではなく、第1サーバ装置20に直接入力されるように構成してもよい。このように構成する場合、システム1は、第2サーバ装置40を備えていなくてもよい。
ユーザ情報253は、ユーザ端末10のユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、例えば、ユーザを識別する情報、ユーザ端末10の端末位置情報、ユーザのレース購入履歴や払戻金に関する情報などをユーザ毎に記憶している。
ユーザ情報253は、ユーザ端末10のユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、例えば、ユーザを識別する情報、ユーザ端末10の端末位置情報、ユーザのレース購入履歴や払戻金に関する情報などをユーザ毎に記憶している。
広告情報254は、複数の広告に関する各種情報を含む。広告情報254は、例えば、広告情報154の元となる情報であり、広告情報154は、広告情報254の一部でありうる。広告情報254は、例えば、広告の表示場所に関する情報を含んでいてもよい。広告の表示場所に関する情報は、広告を表示する場所を具体的に特定するものであってもよいし、その広告を表示可能な場所の形状や大きさ等を規定するものであってもよい。
制御部290は、プロセッサ29によって実現され、プログラム251を実行することにより、送受信部291、第1情報取得部292、位置取得部293、購入処理部294、広告部295、データ管理部296、計時部297としての機能を発揮する。
送受信部291は、通信部220及びネットワーク30を介して、ユーザ端末10や第2サーバ装置40などの外部の通信機器と各種情報の送信および受信を行う。送受信部291は、例えば、第1情報252A及び広告情報254の少なくとも一部をユーザ端末10へ送信し、ユーザ端末10からユーザ情報153の少なくとも一部を受信する。また、送受信部291は、例えば、第1情報252Aを第2サーバ装置40から受信する。第1情報取得部292は、送受信部291を介して、第1情報252Aを第2サーバ装置40から取得する。
位置取得部293は、送受信部291を介して、ユーザ端末10の端末位置情報をユーザ端末10から取得する。
購入処理部294は、ユーザ端末10から送信された購入指示に関する情報に基づいて、投票券の購入処理を実行する。購入処理部294が購入処理を完了したことに応じて、ユーザ管理テーブル253Aに含まれるレースの購入履歴が更新されうる。なお、購入処理部294を、送受信部291を介して購入指示に関する情報を第2サーバ装置40に送信するものとし、投票券の購入処理は、第2サーバ装置40において実行してもよい。この場合、ユーザ管理テーブル253Aに含まれる購入履歴は、第2サーバ装置40から送信される情報に基づいて更新されうる。
広告部295は、広告情報254の少なくとも一部を、送受信部291を介して、ユーザ端末10に送信する。
広告部295は、例えば、各ユーザ端末10に表示させる広告を複数の広告のうちから所定の選出基準に基づいて選出する。広告部295は、例えば、ユーザ管理テーブル253Aに記憶されている各ユーザに関する情報に基づいて、各ユーザ端末10に表示させる広告をユーザ端末10毎に選出するように行うことが好ましい。広告の選出の基準とする各ユーザに関する情報としては、特に制限はされないが、例えば、ユーザ端末10の端末位置情報やユーザのレース購入履歴等であることが好ましい。その他、広告部295は、ユーザの性別や年齢等に基づいて広告を選出してもよい。
データ管理部296は、送受信部291、第1情報取得部292、位置取得部293,購入処理部294、及び広告部295等における処理結果に従って、記憶部250に記憶される各種データを更新する処理を行う。計時部297は、時間を計測する処理を行う。計時部297によって計測される時間に基づいて、ユーザ端末10に表示される各種時間(例えば、レース開始までの時間など)が制御されうる。
(動作例)
次に、図4から図15を参照して、システム1における動作例について説明する。以下では、主に、所定のレースがボートレースである場合を例示して説明をするが、以下の説明は、所定のレースが他のレースであっても適用可能である。また、以下では、ユーザ端末10と第1サーバ装置20の間、及び第1サーバ装置20と第2サーバ装置40の間でデータの送受信を行うものとして説明をするが、ある局面においては、ユーザ端末10と第2サーバ装置40とで直接的にデータの送受信をするように構成してもよい。
図4は、現実世界のボートレース場の一例を示す模式図である。ボートレース場401には、2つのターンマーク403が設置されており、各ボートレーサーが乗るボート402a~402fによるレースが実施されている。レースが終了した場合、ボート402a~402fそれぞれのレースタイムを示すレースタイム情報が、第2サーバ装置40から第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。
ボートレース場401には、撮像装置(カメラ)404a~404bが設けられている。撮像装置404aは、ボートレース場401の上方からボート402a~402fを視界に収める。撮像装置404bは、ボートレース場401の側方からボート402a~402fを視界に収める。撮像装置404a~404bによって撮像されたボート402a~402fの画像は、第2サーバ装置40へ送信される。第2サーバ装置40では、例えば、各画像の画像解析を行い、各画像の撮影時間におけるボート402a~402fそれぞれの位置を示す位置情報を算出する。算出された位置情報と、当該位置情報に対応する撮影時間に関する時間情報は、第1サーバ装置20へと送信され、第1サーバ装置20からユーザ端末10へと送信される。なお、位置情報の算出は、第1サーバ装置20において実施してもよい。
また、撮像装置404a~404bに代えて、又は加えて、ボート402a~402fに、GPSセンサ等の位置センサを設置してもよい。位置センサによって取得されたボート402a~402fの位置情報と、当該位置情報が取得された時間を示す時間情報とは、最終的にユーザ端末10へと送信される。
図5は、ユーザ端末10に表示される仮想オブジェクトの一例を示す模式図である。図5の例では、仮想オブジェクトとして、レース場オブジェクト501と、移動オブジェクト502a~502f(以下、まとめて「移動オブジェクト502」とも称する)と、2つのターンマークオブジェクト503と、仮想表示板505と、が示されている。
レース場オブジェクト501は、ボートレース場401を仮想的に表示したオブジェクトである。レース場オブジェクト501やターンマークオブジェクト503は、例えば、ボートレース場401のコース情報等のレース場データに基づいて作製されることが好ましく、ボートレース場401と対応する形状であることが好ましい。
移動オブジェクト502a~502fは、ボート402a~402fをそれぞれ仮想的に表示したオブジェクトであり、ボートを模した形状である。移動オブジェクト502a~502fは、レースタイム情報や、ボート402a~402fの位置情報および当該位置情報に対応する時間情報に基づいて、レース場オブジェクト501上を移動する。すなわち、レース場オブジェクト501及び移動オブジェクト502a~502fによって、現実世界のレースが仮想的なレースとしてユーザ端末10上で表示される。
なお、ボート402a~402fの位置情報および時間情報がなくとも、レースタイム情報のみによって仮想レースを表示することも可能である。ただ、この場合、最終的な着順は現実世界のレースと同じものになるが、レース中の順位などのレース経過を再現することが困難である。
仮想表示板505は、レースに関する情報をテキストや画像で表示したり、広告を表示したりするためのオブジェクトである。仮想表示板505は、例えば、ボートレース場401において対応する存在のないオブジェクトである。仮想表示板505に表示する情報は、特に制限はされず、例えば、順位情報やオッズ情報等であってもよい。また、仮想表示板505に表示する情報は、ユーザの操作入力に基づいて変更可能であってもよい。
図6は、表示制御処理の一例を示すフローチャートである。なお、本明細書において説明する各フローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同であり、並列的に実行されてもよい。また、各フローチャートに示される処理は、制御部190がアプリケーションプログラム151を、制御部290がプログラム251をそれぞれ実行することにより実現されうるが、各装置が実行する処理は、矛盾の生じない範囲で、他の装置によって実行されてもよい。
まず、ステップS610において、制御部190は、カメラである撮像部170を起動する。撮像部170によって、ユーザ端末10の周囲の現実画像が撮像される。
ステップS620において、制御部190は、撮像部170によって撮像された画像内における平坦面を検出する。ステップS630において、制御部190は、検出した平坦面に仮想オブジェクトを配置する。
ここで、図7~図9を用いて、ステップS610、S620、及びS630の処理について具体的に説明する。図7は、撮像部170により撮像された現実画像の一例を示す模式図である。図7の例では、平坦なデスク701上に、キーボード702と、モニタ装置703と、が置かれている。
ステップS610において撮像部170が起動されると、ディスプレイ132上に、撮像部170によって撮像されている現実画像が表示される。次に、ステップS620において、制御部190は、撮像部170によって撮像された画像内、すなわちディスプレイ132に表示された画像内における平坦面を検出する。
図7では、領域704が平坦面として検出されている。領域704内にはキーボード702があるが、キーボード702はレース場オブジェクト501によって隠れる程度のサイズなので、制御部190は、領域704を平坦面として検出する。
図7に示す状態で、撮像部170によって撮像される位置を変更すれば、領域704の位置も変更されうる。領域704は、ディスプレイ132上において、例えば、所定の色を付加されて、他の部分とは区別可能に表示される。ユーザが領域704に対してタップ操作等を実行した場合、ステップS630において、制御部190は、領域704上にレース場オブジェクト501等の仮想オブジェクトを配置する。
図8は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図である。図8において、モニタ装置703を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。
図8では、仮想オブジェクトとして、レース場オブジェクト501と、複数の移動オブジェクト502と、2つのターンマークオブジェクト503と、仮想表示板505と、大型モニタオブジェクト506と、建物オブジェクト507a~507bと、その他の符号を付していない多数のオブジェクト(木オブジェクト、時計オブジェクト等)と、が表示されている。これらのオブジェクトは、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。
図8は、領域704に含まれる平坦面と、レース場オブジェクト501を構成する底面とのなす角度が0度になるようにして、領域704上にレース場オブジェクト501を配置している。この場合、例えば、領域X1のような奥行方向にある領域や、移動オブジェクト502同士が重複して見づらくなることがある。また、大型モニタオブジェクト506の奥行方向側の領域などには、移動オブジェクト502が見えなくなる死角が生じうる。
しかし、図8に示す状態において、ユーザは、ディスプレイ132に表示される重畳画像の視点を変更可能である。例えば、ユーザがピンチイン操作やピンチアウト操作等の操作入力をした場合、撮像部170の視点位置がレース場オブジェクト601へ近づいたり遠ざかったりしうる。また、ユーザがユーザ端末10を持ったままディスプレイ132の奥行方向へ移動した場合や、手前方向に移動した場合も、撮像部170の視点位置がレース場オブジェクト601へ近づいたり遠ざかったりしうる。また、ユーザがディスプレイ132上の所定の位置を指定するような操作をした場合、視点位置が指定された位置へと移動しうる。このような視点変更によって、上述の視認性の問題は解消しうる。
また、平坦面とレース場オブジェクト501を構成する底面とのなす角度θが鋭角になるようにレース場オブジェクト501を配置することによっても、視認性に関する上述の問題を軽減しうる。
図9は、現実画像に仮想オブジェクトを重畳させて表示した画面の一例を示す模式図であり、図8に示すレース場オブジェクト501の別態様を示したものである。具体的には、図9は、所定のレースが競馬の場合の例である。
図9においても、モニタ装置703を含むドットパターンを付した領域が現実画像であり、その他の領域は仮想オブジェクトが表示されている領域である。図9では、仮想オブジェクトとして、レース場オブジェクト911と、複数の移動オブジェクト912と、大型モニタオブジェクト913と、池オブジェクト914と、複数の木オブジェクト915と、がディスプレイ132に表示されている。これらのオブジェクトも、例えば、第1サーバ装置20から受信した第1情報152Aに基づいて作製される。
レース場オブジェクト911、大型モニタオブジェクト913、池オブジェクト914、及び複数の木オブジェクト915は、例えば、現実世界における所定の競馬場のコース情報等のレース場データに基づいて作製されることが好ましい。複数の移動オブジェクト912は、例えば、競馬に出走する馬および騎手をそれぞれ仮想的に表示したオブジェクトである。
図6のフローチャートの説明に戻る。ステップS640において、制御部190は、仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示する。ステップS640の処理については、後の段落で詳述する。
ステップS650において、制御部190は、現実世界のボートレース場401におけるボート402a~402fの位置情報を取得する。すなわち、現実世界においてボート402a~402fによるレースが開始された場合、制御部190は、第1サーバ装置20から、ボート402a~402fの位置情報および時間情報を取得する。位置情報および時間情報の取得方法は、図4を用いて説明したとおりである。
ステップS660において、制御部190は、ステップS650において取得した位置情報と移動オブジェクト502とが連動するよう制御する。具体的には、時間情報と位置情報とを用いて、レース場オブジェクト501上における移動オブジェクト502a~502fそれぞれの動きが、ボートレース場401上におけるボート402a~402fと同様になるように制御する。
ステップS650及びS660の各処理は、少なくとも現実世界におけるレースの開始時点から終了時点まで繰り返されるが、現実世界におけるレースの開始前および終了後においても繰り返されてもよい。
なお、仮想レースとして表示するレースが過去のレースである場合、仮想レースの開始前に、レースの開始から終了までのボート502a~502fの位置情報等をまとめて取得してもよい。また、位置情報等は取得せずに、レースタイム情報のみを取得して、仮想レースを表示してもよい。仮想レースとして表示するレースは、展示レースであってもよい。制御部190は、アプリケーションプログラム151を終了するための操作入力を受け付けたこと等に応じて、一連の表示制御処理を終了する。
以下、図6におけるステップS640の処理について詳述する。図10は、ステップS640における広告表示処理の一例を示すフローチャートである。なお、以下の説明において、制御部190によって実行される処理の少なくとも一部は、矛盾の生じない範囲で制御部290によって実行してもよく、制御部290によって実行される処理の少なくとも一部は、矛盾の生じない範囲で制御部190によって実行してもよい。
まず、ステップS1010において、制御部290は、ユーザ端末10のユーザに関する情報を取得する。例えば、制御部290は、ユーザ管理テーブル253Aを参照し、ユーザ端末10のユーザに関する情報を取得する。
次に、ステップS1020において、制御部290は、ステップS1010において取得したユーザに関する情報に基づいて、ユーザ端末10に表示させる1以上の広告を選出する。
一例として、制御部290は、ユーザ端末10の端末位置情報に基づいて広告を選出してもよい。具体的には、制御部290は、ユーザ端末10の端末位置情報が示す位置の近傍で購入可能な商品や利用可能なサービスに関する広告を選出してもよい。なお、このようにして選出された広告を表示する場合、広告に示す商品の販売場所やサービスの提供場所に関する情報も表示可能にすることが好ましい。
別の一例として、制御部290は、ユーザのレース購入履歴や払戻金に関する情報に基づいて広告を選出してもよい。具体的には、制御部290は、直近のレース又は所定の期間内におけるユーザの勝ち額、負け額、又は購入額(以下、単に「勝ち額等」とも称する)に基づいて、広告を選出してもよい。より具体的には、制御部290は、勝ち額等又は勝ち額等に所定の倍率(例えば、100%未満)を乗じた金額によって購入可能な商品や利用可能なサービスに関する広告を選出してもよい。
また、払戻金が所定の金額を超える場合、車や不動産等の高額な商品等の広告を選出してもよい。この場合、選出された広告に係る商品等の金額は、上記所定の金額を超えていてもよい。また、直近のレース又は所定の期間内における収支がマイナスである(負け越している)場合、リボ払いやローン等の広告を選出してもよいが、このような広告は選出せずに、ユーザ端末10においてギャンブル依存症の注意喚起を表示するように構成してもよい。
また、制御部290は、ユーザに関するその他の情報に基づいて、広告を選出してもよい。例えば、制御部290は、ユーザの性別や年齢に基づいて広告を選出してもよい。また、制御部290は、上述したような複数の情報の組み合わせに基づいて、広告を選出してもよい。制御部290は、例えば、端末位置情報が示す位置の近傍で購入可能な商品のうち、ユーザの勝ち額等によって購入可能な商品に関する広告を選出してもよい。
ステップS1020において2以上の広告を選出する場合、選出の基準は、同じであってもよいし、異なっていてもよい。例えば、制御部290は、ユーザ端末10の端末位置情報に基づいて2以上の広告を選出してもよいし、ユーザ端末10の端末位置情報に基づいて1以上の広告を選出し、ユーザの勝ち額等に基づいて1以上の広告を選出してもよい。
ステップS1020において選出された広告に関する情報は、ユーザ端末10に送信される。ここで送信される情報は、例えば、広告表示に用いる画像情報等を含んでいてもよい。一方で、広告表示に用いる画像情報等が広告情報154に既に記憶されている場合、ここで送信される情報は、広告を識別可能な広告ID等であってもよい。なお、広告表示に用いる画像情報等は、ストリーミング形式で送信されてもよい。
次に、ステップS1030において、制御部190は、例えば、ステップS1020で選出された広告に関する情報に基づいて、該広告を表示する場所を決定する。一例として、制御部190は、レース場オブジェクト501等の仮想オブジェクトの周辺領域や仮想オブジェクト自体に予め設定されている広告表示領域のうちから、該広告を表示する場所を決定する。また、他の一例として、制御部190は、重畳画像のうちで現実画像が表示されている現実画像領域を抽出し、現実画像領域において該広告を表示する場所を決定する。
なお、ステップS1030の処理は、ステップS1010の処理よりも前に実行されてもよい。すなわち、制御部190が広告を表示する場所を決定した後に、制御部290が、決定された場所に表示可能な広告を選出してもよい。
次に、ステップS1040において、制御部190は、ステップS1020で選出された広告を、ステップS1030で決定された場所に表示し、終了する。
以下、図11及び図12を用いて、ステップS1030の処理に関して詳述する。図11は、ある実施の形態に従う広告表示領域の一例を示す模式図である。図11の例において、レース場モデル501’は、レース場オブジェクト501を複数の面によって簡易的に規定したモデルである。レース場モデル501’における面501’aは、例えば、ステップS620において検出される平坦面に平行となる面である。面501’bは、面501’aに垂直な面であって、図11における手前(正面)側を向いた面である。
レース場モデル501’の周辺領域には、広告を表示するための広告表示面1101~1106が設定されている。広告表示面1101及び1104は、面501’bに平行な面である。広告表示面1102及び1106は、面501’aに平行な面である。広告表示面1103及び1105は、面501’a及び面501’bに垂直な面である。
広告表示面1101~1106には、面のサイズが規定されていてもよい。ステップS1030では、例えば、選出された広告に規定されている表示サイズ及び面のサイズ等に基づいて、広告表示面1101~1106の中から広告を表示する場所が決定される。広告表示面1101~1106に表示される広告は、広告表示面1101~1106が向く方向を向くように表示されてもよいし、広告表示面1101~1106の向きに関係なくディスプレイ132の手前側を向くように表示してもよい。
図12は、ある実施の形態に従う広告表示領域の一例を示す模式図である。図12の例では、レース場オブジェクト501が表示されている周囲の領域が、現実画像領域1201~1204として抽出されている。ステップS1030では、例えば、選出された広告に規定されている表示サイズや現実画像領域1201~1204のサイズに等に基づいて、現実画像領域1201~1204の中から広告を表示する場所が決定される。なお、現実画像領域1201~1204の抽出は、画像認識等の従来公知の技術を用いて行うことができる。
次に、図13及び図14を用いて、ステップS1040の処理に関して詳述する。図13は、ある実施の形態に従う広告表示の一例を示す模式図である。図14は、図13に示す移動オブジェクト502bを拡大した図である。図13及び14の例では、レース場オブジェクト501及び移動オブジェクト502等を用いた仮想レースの表示と併せて、広告1301~1304が表示されている。広告1301~1304は、上述の方法で選出された広告である。なお、広告1301~1304は、動画の終了や所定の時間以上にわたって表示されたことに応じて、次に選出された広告へと切り替わってもよい。
広告1301の表示場所は、仮想表示板505であり、仮想オブジェクトに予め設定されている広告表示領域のうちの一つである。広告1301は、あるホテルの広告であり、例えば、動画として表示される。広告1301の動画は、音声を含むものであってもよい。広告1301の動画が音声を含む場合、仮想レースの表示中や仮想レースに関する音声(例えば、実況音声など)を出力中であるときには、広告動画の音声は、音量をオフにするようにすることが好ましい。また、仮想レースの表示中は、動画の広告が選出されないようにしてもよい。
広告1302の表示場所は、現実画像領域1203であり、制御部190によって抽出された現実画像が表示されている領域のうちの一部である。広告1302は、あるビールの広告であり、例えば、静止画として表示される。広告1303の表示場所は、レース場オブジェクト501に予め設定されている広告表示領域のうちの一つである。広告1302は、ある新商品の広告であり、例えば、テキストとして表示される。
図14に示す広告1304の表示場所は、移動オブジェクト502bに予め設定されている広告表示領域のうちの一つである。広告1304は、ある会社のPR広告であり、例えば、移動オブジェクト502bの形状に沿うように表示される画像である。
図13及び図14に示すような広告は、図13に示すような現実画像に仮想オブジェクトを重畳させた重畳画像の表示画面から他の画面へと遷移した場合においても表示可能であることが好ましい。図15は、ある実施の形態に従う広告表示の一例を示す模式図である。図15は、具体的には、重畳画像の表示画面から遷移した他の画面における広告表示の一例を示している。
図15では、ディスプレイ132上には、収支欄1501が表示されている。図15の例において、収支欄1501に表示されている情報は、その日(図15の例では、2021年4月1日)のユーザのレースの投票券の購入額の合計、払戻額の合計、及びトータル収支である。なお、収支欄1501に表示する収支の集計期間は、ユーザの操作入力等に基づいて変更されうる。
ディスプレイ132の下部には、広告表示欄1504が表示されている。広告表示欄1504には、広告1301が表示されている。広告1301は、図13において仮想表示板505に表示されていた広告と同一である。すなわち、ステップS1020において選出された広告が、仮想レースの表示画面以外の画面でも表示されている。なお、図15から分かるように、広告1301は、その日のユーザの勝ち額に基づいて選出された広告である。
購入画面ボタン1502は、レースの投票券を購入するための画面へと遷移するための仮想ボタンである。レース場ボタン1503は、図13の例のように、レース場オブジェクト501を含む重畳画像の表示画面へと遷移するための仮想ボタンである。これらの仮想ボタンによって表示画面が更に遷移した場合においても、広告1301、すなわちステップS1020において選出された広告が表示されうる。
上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
[付記事項]
本開示の内容を列記すると以下の通りである。
(項目1)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示するステップと、
前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示するステップと、を実行させる、
プログラム。
これにより、現実世界におけるレースに対応するARコンテンツを提供し、かつ、該ARコンテンツに適した手法でユーザに広告を提供することができる。
(項目2)
前記レース場オブジェクトには、前記周辺領域に存在し、前記広告を表示するための1以上の面が設定されており、
前記広告を表示するステップでは、前記面に広告を表示する、項目1に記載のプログラム。
これにより、ARコンテンツの表示の邪魔とならない領域に広告を表示することができる。また、広告を表示する領域が予め設定されていることにより、広告を表示する領域を抽出する場合よりも第1コンピュータの処理負荷を軽減できる。
(項目3)
前記プログラムは、前記プロセッサに、さらに、
前記重畳画像のうちで前記現実画像が表示されている現実画像領域を抽出するステップを実行させ、
前記広告を表示するステップでは、前記現実画像領域に広告を表示する、項目1に記載のプログラム。
これにより、ARコンテンツの表示の邪魔とならない領域に広告を表示することができる。また、広告を表示する領域の選択の自由度を向上させ、例えば、その広告により適した場所を選択し易くなる。
(項目4)
前記広告を表示するステップは、前記レース場オブジェクト及び前記移動オブジェクトのうちの少なくとも一方に広告を表示することを含む
項目1から項目3のいずれか一項に記載のプログラム。
これにより、ユーザにとって違和感の少ない広告とすることができる。また、ユーザに対して、現実のレース場に訪れたかのような感覚を強く与えることができる。
(項目5)
前記広告が、前記第1コンピュータのユーザに関するユーザ情報に基づいて選出されたものを含む、
項目1から項目4のいずれか一項に記載のプログラム。
これにより、ユーザに適した広告を表示することができる。
(項目6)
前記広告が、前記第1コンピュータの位置情報に基づいて選出されたものを含む、項目1から項目5のいずれか一項に記載のプログラム。
これにより、ユーザに適した広告を表示することができる。また、例えば、ユーザが今いる場所の近傍で購入できるような商品等の広告を表示することで、広告のコンバージョン率の向上が期待できる。
(項目7)
前記所定のレースは、賭博の対象となるレースであり、
前記広告が、前記賭博における前記第1コンピュータのユーザの勝ち額又は負け額に基づいて選出されたものを含む、
項目1から項目6のいずれか一項に記載のプログラム。
これにより、ユーザに適した広告を表示することができる。また、例えば、ユーザの勝ち額又は負け額に基づいて選出された商品等の広告を表示することで、広告のコンバージョン率の向上が期待できる。なお、ユーザの負け額に基づいて選出された商品等の広告を表示した場合、ギャンブル依存症の克服の一助となることも期待できる。
(項目8)
前記重畳画像から異なる画像へと遷移した場合においても、前記選出された前記広告を表示可能である、
項目5から項目7のいずれか一項に記載のプログラム。
これにより、重畳画像の表示中でなくともユーザに適した広告を表示することができる。
(項目9)
前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
前記表示するステップは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースに対応する仮想レースを表示することを含む、
項目1から項目8のいずれか一項に記載のプログラム。
これにより、現実世界のレース場で実施されるレースを、レース場へ行かなくても仮想レースとしてユーザに提供できる。また、広告の表示が終了したことに伴って仮想レースの表示を開始するのではなく、仮想レースの表示と併せて広告を表示することで、広告への嫌悪感を低減できる。
(項目10)
プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示するステップと、
前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示するステップと、を実行させることを含む、
情報処理方法。
これにより、現実世界におけるレースに対応するARコンテンツを提供し、かつ、該ARコンテンツに適した手法でユーザに広告を提供することができる。
(項目11)
プロセッサ及び撮像部を備えた情報処理装置であって、前記プロセッサは、
現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像部により撮像された前記情報処理装置の周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示し、
前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示する、情報処理装置。
これにより、現実世界におけるレースに対応するARコンテンツを提供し、かつ、該ARコンテンツに適した手法でユーザに広告を提供することができる。
(項目12)
第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムあって、
前記第2プロセッサは、
現実世界における所定のレースに関する第1情報を取得し、前記第1情報を前記第1コンピュータへ送信するものであり、前記第1プロセッサは、
前記第1情報を前記第2コンピュータから受信し、
前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示し、
前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示する、システム。
これにより、現実世界におけるレースに対応するARコンテンツを提供し、かつ、該ARコンテンツに適した手法でユーザに広告を提供することができる。
1:システム、10:ユーザ端末(第1コンピュータ)、20:第1サーバ装置、30:ネットワーク、40:第2サーバ装置、130:タッチスクリーン、150:(ユーザ端末の)記憶部、190:(ユーザ端末の)制御部、250:(第1サーバ装置の)記憶部、290:(第1サーバ装置の)制御部

Claims (12)

  1. プロセッサ及び撮像部を備えた第1コンピュータにおいて実行されるプログラムであって、
    前記プログラムは、前記プロセッサに、
    現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
    前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示するステップと、
    前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示するステップと、を実行させる、
    プログラム。
  2. 前記レース場オブジェクトには、前記周辺領域に存在し、前記広告を表示するための1以上の面が設定されており、
    前記広告を表示するステップでは、前記面に広告を表示する、請求項1に記載のプログラム。
  3. 前記プログラムは、前記プロセッサに、さらに、
    前記重畳画像のうちで前記現実画像が表示されている現実画像領域を抽出するステップを実行させ、
    前記広告を表示するステップでは、前記現実画像領域に広告を表示する、請求項1に記載のプログラム。
  4. 前記広告を表示するステップは、前記レース場オブジェクト及び前記移動オブジェクトのうちの少なくとも一方に広告を表示することを含む、
    請求項1から請求項3のいずれか一項に記載のプログラム。
  5. 前記広告が、前記第1コンピュータのユーザに関するユーザ情報に基づいて選出されたものを含む、
    請求項1から請求項4のいずれか一項に記載のプログラム。
  6. 前記広告が、前記第1コンピュータの位置情報に基づいて選出されたものを含む、請求項1から請求項5のいずれか一項に記載のプログラム。
  7. 前記所定のレースは、賭博の対象となるレースであり、
    前記広告が、前記賭博における前記第1コンピュータのユーザの勝ち額又は負け額に基づいて選出されたものを含む、
    請求項1から請求項6のいずれか一項に記載のプログラム。
  8. 前記重畳画像から異なる画像へと遷移した場合においても、前記選出された前記広告を表示可能である、
    請求項5から請求項7のいずれか一項に記載のプログラム。
  9. 前記第1情報として、前記所定のレースの実施中における前記出場者又は前記移動体の位置情報と、前記位置情報に対応する時間情報と、を含み、
    前記表示するステップは、前記第1情報に基づいて、前記レース場オブジェクト上において前記移動オブジェクトを移動させ、前記所定のレースに対応する仮想レースを表示することを含む、
    請求項1から請求項8のいずれか一項に記載のプログラム。
  10. プロセッサ及び撮像部を備えた第1コンピュータにおいて実行される情報処理方法であって、
    前記情報処理方法は、前記プロセッサに、
    現実世界における所定のレースに関する第1情報を第2コンピュータから受信するステップと、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成するステップと、
    前記撮像部により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示するステップと、
    前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示するステップと、を実行させることを含む、
    情報処理方法。
  11. プロセッサ及び撮像部を備えた情報処理装置であって、前記プロセッサは、
    現実世界における所定のレースに関する第1情報を第2コンピュータから受信し、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
    前記撮像部により撮像された前記情報処理装置の周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示し、
    前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示する、情報処理装置。
  12. 第1プロセッサ及び撮像装置を備える第1コンピュータと、第2プロセッサを備え、前記第1コンピュータと通信接続可能な第2コンピュータと、を含むシステムあって、
    前記第2プロセッサは、
    現実世界における所定のレースに関する第1情報を取得し、前記第1情報を前記第1コンピュータへ送信するものであり、前記第1プロセッサは、
    前記第1情報を前記第2コンピュータから受信し、
    前記第1情報に基づいて、レース場を表すレース場オブジェクトと、前記所定のレースの出場者又は移動体を表す移動オブジェクトと、を含む仮想オブジェクトを生成し、
    前記撮像装置により撮像された前記第1コンピュータの周囲の現実画像に前記仮想オブジェクトを重畳させた重畳画像を表示し、
    前記仮想オブジェクトの表示領域内又は該表示領域の周辺領域に広告を表示する、システム。
PCT/JP2022/009278 2021-05-12 2022-03-04 プログラム、情報処理方法、情報処理装置、及びシステム WO2022239403A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021081083A JP2022174992A (ja) 2021-05-12 2021-05-12 プログラム、情報処理方法、情報処理装置、及びシステム
JP2021-081083 2021-05-12

Publications (1)

Publication Number Publication Date
WO2022239403A1 true WO2022239403A1 (ja) 2022-11-17

Family

ID=84029167

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009278 WO2022239403A1 (ja) 2021-05-12 2022-03-04 プログラム、情報処理方法、情報処理装置、及びシステム

Country Status (2)

Country Link
JP (2) JP2022174992A (ja)
WO (1) WO2022239403A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140315609A1 (en) * 2007-04-26 2014-10-23 Mark E. Miller System and method for generating and displaying a horse racing form for use with a virtual horse race
WO2021084756A1 (ja) * 2019-11-01 2021-05-06 日本電信電話株式会社 拡張現実告知情報配信システムとその配信制御装置、方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140278847A1 (en) * 2013-03-14 2014-09-18 Fabio Gallo Systems and methods for virtualized advertising
KR101813901B1 (ko) * 2015-07-29 2018-01-03 성 완 김 광고 웹사이트를 이용한 온라인 광고 방법
JP6857774B1 (ja) * 2020-12-04 2021-04-14 株式会社コロプラ プログラム、情報処理方法、情報処理装置、及びシステム
JP6857785B1 (ja) * 2021-01-18 2021-04-14 株式会社コロプラ プログラム、情報処理方法、情報処理装置、及びシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140315609A1 (en) * 2007-04-26 2014-10-23 Mark E. Miller System and method for generating and displaying a horse racing form for use with a virtual horse race
WO2021084756A1 (ja) * 2019-11-01 2021-05-06 日本電信電話株式会社 拡張現実告知情報配信システムとその配信制御装置、方法およびプログラム

Also Published As

Publication number Publication date
JP2022176001A (ja) 2022-11-25
JP2022174992A (ja) 2022-11-25

Similar Documents

Publication Publication Date Title
JP6903805B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2022122810A (ja) プログラム、情報処理方法、情報処理装置、及びシステム
WO2022118652A1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7212721B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
WO2022239403A1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6857785B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6857776B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7324801B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7398408B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7303846B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6934547B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
WO2022107638A1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7303845B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7219792B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6866540B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6934552B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP6896932B1 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP7242759B2 (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2022138681A (ja) プログラム、情報処理方法、情報処理装置、及びシステム
JP2022143416A (ja) プログラム、情報処理方法、情報処理装置、及びシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22807110

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE