WO2017090274A1 - ゲームシステム及びゲームプログラム - Google Patents
ゲームシステム及びゲームプログラム Download PDFInfo
- Publication number
- WO2017090274A1 WO2017090274A1 PCT/JP2016/071930 JP2016071930W WO2017090274A1 WO 2017090274 A1 WO2017090274 A1 WO 2017090274A1 JP 2016071930 W JP2016071930 W JP 2016071930W WO 2017090274 A1 WO2017090274 A1 WO 2017090274A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- game
- information
- virtual
- real
- display data
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5378—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/33—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
- A63F13/332—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using wireless networks, e.g. cellular phone networks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Definitions
- the present invention relates to a game system and a game program in which a character and other objects corresponding to a user move in a virtual world to execute various event processes to advance the game.
- Patent Document 1 Conventionally, various games using the portability of such an information processing apparatus and a location information service have been proposed (for example, Patent Document 1).
- the current location in the real world obtained from GPS and the displacement thereof are displayed and controlled as a virtual position and a virtual displacement of a screen (virtual world) displayed in a role playing game, and an event icon A game system is constructed in which the second virtual world is displayed when the positions overlap.
- Patent Document 1 since it is displayed as a virtual position and a virtual displacement of the virtual world shown by the role playing game, there is a problem that the practicality as an actual map viewer is low. That is, when the actual movement is an element, a map of the virtual world alone is not sufficient as a map function when actually walking, and there is a request to check a map of the real world.
- the conventional information terminal has a general map viewer application, the user can fulfill the above request by switching between an application for playing a game and a general map viewer application. The operation is troublesome and the entertainment as a game of enjoying the gap between the real world and the virtual world is also reduced.
- walking smartphone has become a problem, and in a game system that simply displays a virtual world and a complicated operation for displaying the real world, a portable terminal device Since it takes a long time to gaze at the screen, it leads to a walking smartphone, and there is a concern about the danger of the game itself with actual movement as an element.
- the present invention switches between the real world and the virtual world map display in a game system in which a character and other objects corresponding to the user move in the virtual world to execute various event processes to advance the game. It is an object of the present invention to provide a game system and a game program that can improve the operability, shorten the time for watching the screen as much as possible, maintain the entertainment as a game, and avoid the danger of walking smartphones.
- the present invention is a game system in which a character and other objects corresponding to a user move in a virtual world to generate various event processes and advance the game.
- a game progress processing unit for generating the various event processes to advance the game;
- a real map storage unit for storing real map information including geographical information in the real world;
- a virtual map information generating unit that generates virtual map information including coordinate information of the object on virtual geographical information corresponding to the geographical information on the real map information in accordance with the game progress by the game progress processing unit;
- a position information acquisition unit for acquiring the current coordinate position of the user in the real world and its displacement; Based on the current coordinate position of the user acquired by the position information acquisition unit and its displacement, a real display data generation unit that generates real display data indicating the coordinate position on the real map information;
- a virtual display data generation unit that generates virtual display data representing the character on the virtual map information corresponding to the coordinate position based on the coordinate position acquired by the position information acquisition unit;
- the present invention is a game program used in a game system in which a character and other objects corresponding to a user move in a virtual world to execute various event processes and advance the game.
- the mobile terminal device used by the user is A game progress processing unit for generating the various event processes to advance the game;
- a real map storage unit for storing real map information including geographical information in the real world;
- a virtual map information generating unit that generates virtual map information including coordinate information of the object on virtual geographical information corresponding to the geographical information on the real map information in accordance with the game progress by the game progress processing unit;
- a position information acquisition unit for acquiring the current coordinate position of the user in the real world and its displacement; Based on the current coordinate position of the user acquired by the position information acquisition unit and its displacement, a real display data generation unit that generates real display data indicating the coordinate position on the real map information;
- a virtual display data generation unit that generates virtual display data representing the character on the virtual map information corresponding to the coordinate position based on the coordinate position acquired by the position information acquisition unit;
- the above-described system according to the present invention and the control method used in this system can be realized by executing the program of the present invention described in a predetermined language on a computer. That is, the program of the present invention is installed in a mobile terminal device, a smart phone, a wearable terminal, a mobile PC or other information processing terminal, an IC chip or a memory device of a general-purpose computer such as a personal computer or a server computer, and executed on the CPU.
- a general-purpose computer such as a personal computer or a server computer
- the program of the present invention can be distributed, for example, through a communication line, and can be transferred as a package application that operates on a stand-alone computer by being recorded on a computer-readable recording medium.
- the recording medium can be recorded on various recording media such as a magnetic recording medium such as a flexible disk and a cassette tape, an optical disk such as a CD-ROM and a DVD-ROM, and a RAM card.
- the computer-readable recording medium on which the program is recorded the above-described system and method can be easily implemented using a general-purpose computer or a dedicated computer, and the program can be stored, transported, and Easy installation.
- the game progress processing unit gives the user value information as the game progresses, and based on the current position acquired by the position information acquisition unit and the displacement thereof, It is possible to reduce the opportunity or value to be given value information, or to confiscate the value information already given.
- the display control unit can regulate the display of the real display data and / or the virtual display data or the display operation thereof according to the regulation of the progress of the game by the game progress processing unit.
- the portable terminal device is The event processing generated by the game progress processing unit and the moving speed of the current position acquired by the position information acquiring unit are monitored, and the moving speed of the current position is a predetermined value or more, and the game progress processing unit
- the event processing generated by is a predetermined hold target event, further function as an event regulation unit that holds the hold target event processing
- the game progress processing unit can cause the other game process to progress in a state where the hold target event is put on hold to advance the game.
- the value information is a right to acquire privilege information associated with any one of a predetermined coordinate position, range, or route on the real map information or the virtual map information.
- the access frequency for any one of the coordinate position, the range, or the route is a predetermined value or more.
- the real world and the virtual With regard to switching the map display of the world, while improving the operability, the entertainment as a game can be improved, and further the danger of walking smartphones can be avoided.
- FIG. 1 is a conceptual diagram showing the overall configuration of the game system according to the present embodiment.
- the game system according to the present embodiment includes a smartphone 1 (1a, 1b) that is a mobile terminal device used by a plurality of users 10a, 10b, and a game server 3 installed on the Internet 2. It is roughly composed of In the present embodiment, the smartphone 1 will be described as an example of a mobile terminal device.
- the game server 3 is a server that performs game progress processing, and can be realized by a single server device or a plurality of server device groups, and a plurality of functional modules are virtually constructed on the CPU. Each function module cooperates to execute the process.
- the game server 3 can perform data transmission / reception through the Internet 2 by a communication function, and can also present a web page through browser software by the web server function.
- the smartphone 1 is a portable information processing terminal device using wireless communication, where a relay point such as the wireless base station 22 and a mobile phone communicate wirelessly and receive communication services such as calls and data communication while moving. Can do.
- a communication system of this mobile phone for example, 3G (3rd. Generation) system, LTE (Long Terminal Evolution) system, 4G system, FDMA system, TDMA system, CDMA system, W-CDMA, PHS (Personal Handyphone System) ) Method.
- the smartphone 1 is equipped with various functions such as a digital camera function, an application software execution function, a position information acquisition function using GPS (Global Positioning System), and includes a mobile computer such as a tablet PC.
- the position information acquisition function is a function for acquiring and recording position information indicating the position of the own aircraft.
- This position information acquisition function for example, as shown in FIG. This includes a method of detecting the position of the own device based on a signal, and a method of detecting the position based on radio wave intensity from a wireless base station 22 of a mobile phone or an access point of WiFi communication.
- the smartphone 1 includes a liquid crystal display as a display unit for displaying information, and an operation device such as an operation button for a user to perform an input operation.
- the operation device is superimposed on the liquid crystal display.
- a touch panel is included as an input unit that is arranged and acquires an operation signal by a touch operation or the like that specifies a coordinate position on a liquid crystal display.
- this touch panel is an input device for inputting an operation signal by pressure or electrostatic detection or the like by a touch operation using a user's fingertip or a pen, etc., and is displayed on a liquid crystal display for displaying a graphic and the liquid crystal display.
- a touch sensor that receives an operation signal corresponding to the coordinate position of the graphic.
- FIG. 3 is a block diagram illustrating an internal configuration of the game server 3 according to the present embodiment
- FIG. 4 is a block diagram illustrating an internal configuration of the smartphone 1 according to the present embodiment.
- the “module” used in the description refers to a functional unit that is configured by hardware such as an apparatus or a device, software having the function, or a combination thereof, and achieves a predetermined operation. .
- the game server 3 is a server device arranged on the Internet 2, and can exchange data with each smartphone 1 through the Internet 2.
- the game server 3 includes a communication interface 31 that performs data communication through the Internet 2, an authentication unit 33 that authenticates the authority of the user and the user terminal, and a location information management unit that collects and manages location information of each user terminal. 32, a game progress processing unit 36 for executing a game progress process for the entire game and a game progress process for each user, a virtual map information management unit 37 for generating virtual map information, and delivering game data to each user 34 and various database groups.
- the database group includes a real map database 35a as a real map storage unit that stores real map information including geographical information in the real world, a user database 35b that stores information about users, virtual map information, and a game for the entire game. And a game database 35c that stores information on the progress process and the game progress process of each user.
- a real map database 35a as a real map storage unit that stores real map information including geographical information in the real world
- a user database 35b that stores information about users, virtual map information, and a game for the entire game.
- a game database 35c that stores information on the progress process and the game progress process of each user.
- Each of these databases may be a single database, or can be divided into a plurality of databases, and a relational database in which the respective data are linked by setting relations with each other.
- the real map database 35a is a storage device that stores real map information including geographical information in the real world, natural geographical elements such as mountains, valleys, and rivers, artifacts such as buildings, roads, and railways, place names, Address, traffic regulations, etc. are stored.
- the real map database 35a may be a map database operated by another map service provider, in addition to those owned and operated by the service provider operating the game server 3 itself.
- Information stored in the user database 35b includes authentication information in which a user or a mobile terminal device used by the user (identifier (user ID, terminal ID)) associated with a password is associated with the user, The personal information of the user associated with the ID, the model of the terminal device, and the like are also included.
- the user database 35b includes an authentication history (access history) for each user or each user terminal, and information on game progress for each user (current position such as latitude / longitude, game, etc.) in relation to the game database 35c. (Status, score, usage history, etc.), settlement information regarding the game, etc. are also accumulated.
- the information stored in the game database 35c includes virtual world map information, character and object characteristics, information on event processing, graphic information, and the like as game data. Also included is mapping data for associating the geographical elements and buildings, roads, railways, etc. included in the.
- the authentication unit 33 is a module that establishes a communication session with each smartphone 1 through the communication interface 31 and performs an authentication process for each established communication session. As this authentication process, authentication information is acquired from the smartphone 1 of the user who is an accesser, the user is identified with reference to the user database 35b, and their authority is authenticated. The authentication result (user ID, authentication time, session ID, etc.) by the authentication unit 33 is sent to the game progress processing unit 36 and stored as an authentication history in the user database 35b.
- the location information management unit 32 is a module that acquires location information acquired on the user terminal device side and transmitted to the game server 3.
- the location information management unit 32 is a user specified by the authentication process by the authentication unit 33.
- identifiers of user terminal devices (user ID, terminal ID, etc.) and their position information are linked and stored as usage history in the user database 35b.
- the game progress processing unit 36 is a module in which each character corresponding to each user, a monster, and other objects move in the virtual world to generate various event processes and advance the game.
- a game program including a logic algorithm is executed, and event processing such as a battle battle, a mini game, and a movie playback is generated according to the positional relationship (approach, contact, etc.) of characters and objects.
- the game progress processing unit 36 cooperates with the game progress processing unit 141 on the smartphone 1 side, and performs part of the game progress processing on the game server 3 side to perform graphic processing or Part of the event processing is executed by the game progress processing unit 141 on the smartphone 1 side.
- an event process that can occur is predicted on the game server 3 side based on the position of another user's character, the position of an object, and the like, and the occurrence condition is generated on the game server 3 side.
- the generation of the actual event processing and the graphic processing therefor are executed on the smartphone 1 side based on the generation conditions received from the game server 3.
- the virtual map information management unit 37 follows the game progress by the game progress processing unit 36, as shown in FIG. 2, characters of other users on the virtual geographical information corresponding to the geographical information on the real map information M1, and the object O1.
- This is a module that manages and controls the generation, storage, and distribution of virtual map information M2 including coordinate information such as O3.
- the virtual map information M2 may be generated on the game server 3 side, generated on the smartphone 1 side, or may be generated in cooperation with both the game server 3 and the smartphone 1, and virtual map information management
- the unit 37 manages the virtual map information M2 generated or accumulated on the game server 3 side and the virtual map information M2 generated and accumulated on the smartphone 1 side, and compares the virtual map information M2 between the two. If necessary, all or part of the virtual map information M2 is distributed to the smartphone 1 side to synchronize the two.
- the virtual map information management unit 37 displays the geographical elements, buildings, roads, railways, etc. included in the real map information M1 stored in the real map database 35a. Based on the mapping data stored in the game database 35c, the virtual world map information corresponding to the real map information M1, the characteristics (attributes) of the characters and objects, the information related to the event processing, the graphic information, etc. To generate virtual world map information.
- the objects O1 to O3 are arranged at the coordinate positions (coordinate ranges) corresponding to the buildings B1 to B3 on the real map information M1.
- the game data distribution unit 34 Based on the current location of the user, the game data distribution unit 34 displays map information and graphics of the virtual world in order to synchronize the virtual map information M2 generated by the virtual map information management unit 37 according to the control of the virtual map information management unit 37.
- the module is distributed to each user through the communication interface 31.
- the smartphone 1 includes a communication interface 11, an input interface 12, an output interface 13, an application execution unit 14, and a memory 15.
- the communication interface 11 is a communication interface for performing data communication, and has a function of performing contact (wired) communication by wireless, non-contact communication, cable, adapter means, or the like.
- the input interface 12 is a device for inputting user operations such as a mouse, a keyboard, operation buttons, and a touch panel 12a.
- the output interface 13 is a device that outputs video and sound, such as a display and a speaker.
- the output interface 13 includes a display unit 13a such as a liquid crystal display, and the display unit is superimposed on a touch panel 12a that is an input interface.
- the memory 15 is a storage device that stores an OS (Operating System), firmware, programs for various applications, other data, and the like.
- OS Operating System
- a game server In the memory 15, in addition to a user ID for identifying a user, a game server The game application data downloaded from 3 is accumulated, and the game data processed by the application execution unit 14 is accumulated.
- the memory 15 stores virtual map information M2 and real map information M1 acquired from the game server 3.
- the application execution unit 14 is a module that executes an application such as a general OS, a game application, or browser software, and is usually realized by a CPU or the like.
- the game program according to the present invention is executed, so that the game progress processing unit 141, the synchronization processing unit 142, the event regulation unit 143, the display data generation unit 146, the display control unit 145, and position information acquisition
- the unit 144 is virtually constructed.
- the game progress processing unit 141 moves each character, monster, and other objects corresponding to each user in the virtual world by the same rule logic algorithm as the game program executed on the game server 3, This is a module that generates various event processes and advances the game.
- the synchronization processing unit 142 synchronizes with the game progress processing unit 36 on the game server 3 side, while maintaining the positional relationship (approach, contact, etc.) of the characters and objects. In response, event processing such as confrontation battles, mini games, and movie playback is generated.
- the game progress processing unit 141 cooperates with the game progress processing unit 141 on the game server 3 side, performs part of the game progress processing on the game server 3 side, and performs graphic processing and event processing. A part of the processing is executed by the game progress processing unit 141 on the smartphone 1 side. For example, an event generation condition or the like is generated on the game server 3 side, the condition is transmitted to the smartphone 1 side, and actual event processing generation or graphic processing for that is executed on the smartphone 1 side.
- the synchronization processing unit 142 is a module that synchronizes the game progress process on the smartphone 1 side and the game progress process on the game server 3 side. Specifically, the game server 3 predicts an event process that can occur based on the position of another user's character, the position of the object, etc., and causes the game server 3 to generate its occurrence condition. The condition is transmitted to the smartphone 1 side, the generation condition is received by the synchronization processing unit 142, and the actual event process generation and the graphic processing therefor are performed based on the generation condition received from the game server 3. This is executed by the progress processing unit 141.
- the result of the event processing executed by the game progress processing unit 141 on the smartphone 1 side (a battle, a mini-game win / loss, score, etc.) is notified to the game progress processing unit 141 on the game server 3 side through the synchronization processing unit 142. It is reflected in subsequent game progress processing.
- the event restriction unit 143 monitors the event processing generated by the game progress processing unit 141 and the movement speed of the current position of the own device acquired by the position information acquisition unit 144, and the movement speed of the current position is a predetermined value.
- the module holds the hold target event processing.
- the game progress processing unit 141 The game can be advanced by generating other event processing while the target event is held.
- the synchronization processing unit 142 notifies the game progress processing unit 141 on the game server 3 side about the event processing suspended by the event regulation unit 143, and the event processing satisfying the event processing generation requirement proceeds while the event processing is in a suspended state. To the game server 3 side.
- the position information acquisition unit 144 is a module that selects and acquires a coordinate position in the real world, and includes a current position of a user, a current position of another user, and a global positioning system (GPS) using an artificial satellite. Also, it is obtained by base station positioning by triangulation based on the radio field intensity and base station information from the base station, Wifi positioning using a database combining Wifi SSID (Service SetID) and radio wave status and longitude / latitude.
- Wifi SSID Service SetID
- the position information acquisition unit 144 can select an arbitrary coordinate position based on a user operation or an event occurrence due to game progress, and acquire position information or measure a moving speed.
- the position information acquisition unit 144 also has a function of acquiring the coordinate position of an arbitrary object, searches the databases 35a to 35c, searches the current coordinate position, the coordinate position on the virtual map, or these A displacement history can be acquired.
- the arbitrary object is obtained by searching the database 35a-c for the position where the object acting as the proxy of the user is set as the proxy object at the arbitrary position on the real map information or the virtual map information. be able to.
- This proxy object is automatically moved in accordance with the progress of the game by the game progress processing unit 36 or 141, and is linked to the current position of a specific user or automatically moved according to the progress of the game.
- instantaneous movement can be detected by a detection signal from the acceleration sensor provided in the smartphone 1, and acceleration greater than a predetermined value has occurred.
- the measurement of the moving speed for example, when the user is moving at high speed on a vehicle, it is determined that the user is moving due to a change in the GPS value.
- position information is updated as a result of switching of base stations such as WiFi and 3G / 4G and changes in radio wave reception status.
- the position information changes more than the normal movement by walking, the user's movement is determined.
- the mobile station is moving for a certain time (for example, about 5 minutes) after the movement is determined. According to the distance between stations and the amount of change in radio waves, the user's moving distance and moving speed are predicted with a certain width.
- the position information acquisition unit 144 includes a movement route recording unit 144a
- the movement route recording unit 144a is the current position of the user acquired by the position information acquisition unit 144 and the current state of other users.
- This module calculates and records the movement path and movement speed based on the displacement history of each user or object, such as the position and the coordinate position of an arbitrary object.
- the movement route is calculated by the movement route recording unit 144a by, for example, determining the movement route by connecting each sampled position in time series order with the shortest distance between two adjacent points, or referring to geographic information.
- a route can be determined along a route between two points.
- the display data generation unit 146 is a module that generates display data to be displayed on the display unit 13a.
- the display data is data generated by combining graphic data, image data, character data, moving image data, audio and other data.
- the display data generation unit 146 according to the present embodiment generates reality display data indicating the current position of the user on the real map information M1 based on the current position of the user acquired by the position information acquisition unit 144.
- Functions of the display data generation unit and the virtual display data generation unit that generates virtual display data representing a character on the virtual map information M2 corresponding to the user's current position based on the current position acquired by the position information acquisition unit 144 Plays. Display processing of the display data generated by the display data generation unit 146 is controlled by the display control unit 145.
- the display data generation unit 146 includes a virtual map information generation unit 146a.
- the virtual map information generation unit 146a is displayed on the real map information M1 as shown in FIG. 2 according to the game progress by the game progress processing unit 141.
- This is a module for generating virtual map information M2 including character information of other users on the virtual geographical information corresponding to the geographical information and coordinate information of the objects O1 to O3.
- the virtual map information generation unit 146a acquires the geographical elements, buildings, roads, railroads, and the like included in the real map information M1 stored in the real map database 35a on the memory 15 and the network, and also stores the memory 15 and the game database.
- the virtual world map information is generated based on the virtual world map information corresponding to the real map information M1, the characteristics of the characters and objects, the event processing information, the graphic information, and the like. .
- objects O1 to O3 are arranged at coordinate positions (coordinate ranges) corresponding to buildings B1 to B3 on the real map information M1.
- the virtual map information M2 is generated by the virtual map information generation unit 146a on the smartphone 1 side.
- the virtual map information management unit 37 of the game server 3 performs the real map in advance or in real time.
- the virtual map information M2 corresponding to the geographical information on the information M1 may be generated and distributed to each smartphone 1 by the game data distribution unit 34 to be synchronized.
- the display control unit 145 displays the actual display data generated by the display data generation unit 146 and the virtual display data by superimposing both of these display data, one of the selected ones, or a part of one on the other.
- the display unit 13 a displays the real display data and the virtual display data according to the control of the display control unit 145.
- the display control unit 145 in the present embodiment includes a trajectory display unit 145a.
- the trajectory display unit 145a uses the travel route of the user recorded by the travel route recording unit 144a, the travel route of another user, and an arbitrary object travel route as trajectories on the real map information M1 or the virtual map information M2. This is the module to be displayed.
- the trajectory display by the trajectory display unit 145a is performed by, for example, coloring a moving path determined by connecting each sampled position in time series order and connecting two adjacent points with the shortest distance with a certain width. Or, a route determined along a route between two points with reference to geographic information can be colored with a certain width.
- a section or an object close to the movement path of each user or object is colored and displayed as a part of the locus on the real map information M1 or the virtual map information M2. You may do it.
- this section it can be colored and displayed in block units such as administrative districts, town blocks, prefectures, and municipalities that are partitioned based on actual geographic information or virtual geographic information. Also in coloring in this block unit, the block that contacts the moving route determined by connecting the two adjacent points with the shortest distance is colored, or determined along the route between the two points with reference to the geographical information The block that touches the route formed can be colored.
- the display control unit 145 changes the display of the real display data W1 and the virtual display data W2 according to the coordinate position designated by the operation signal acquired by the touch panel 12a or the movement of the coordinate position.
- a virtual world is constructed by virtual map information M2 configured based on the real map information M1, and as shown in FIG. Displays virtual display data W2 representing the virtual world in 3D.
- a character C1 indicating the user himself / herself is displayed in the center of the screen, and objects O1 to O3 such as monsters are displayed in the vicinity of the character C1.
- these objects O1 to O3 are arranged so as to encircle the coordinate positions (coordinate ranges) corresponding to the buildings B1 to B3 on the real map information M1.
- the camera viewpoint can be moved, and can be enlarged or reduced.
- the real display data W1 and the virtual display data W2 are displayed by superimposing both of these display data, one of the selected data, or a part of one on the other.
- the virtual display data W ⁇ b> 2 is displayed, by pressing and holding the character C ⁇ b> 1 (about 2 seconds), as shown in FIG.
- the actual display data W1 is partially overlapped and displayed in a circular range around the character C1 indicating “”.
- the partial actual display data W1 displayed in a superimposed manner can be returned to the display of only the original virtual display data W2 by releasing the finger from the screen.
- the actual display data W1 may be a satellite photograph as shown in FIG. 9, for example.
- the display control unit 145 has a function of changing the display of the real display data W1 and the virtual display data W2 or the display operation thereof according to the progress of the game by the game progress processing unit 141.
- the radius r of the circular range in which the reality display data W1 is partially superimposed around the character C1 is changed according to the progress of the game. For example, when the user is a beginner and is unfamiliar with the operation, the radius r is increased, and the radius r is decreased as the game progresses and the difficulty level increases.
- the radius r may be increased when it is detected that the smartphone 1 is moving, and the radius r may be decreased when the smartphone 1 is stopped.
- the map display between the real world and the virtual world can be switched with a simple operation, and the map of the real world and the virtual world is partially improved while improving operability.
- the entertainment as a game can be improved.
- the virtual map information generation process by the display data generation unit 146 described above will be described.
- the display data generation unit 146 generates virtual map information corresponding to geographic information on the real map information according to the game progress by the game progress processing unit 36 or 141, and based on the coordinate information on the virtual map information. Place each object on the map.
- contour information such as roads, rivers, sections, and other buildings in the map is extracted from the real map information to generate geographical information as a base of the virtual map information, and the real map or virtual map A bird's eye view that reproduces the perspective by combining different geographical information at different scales.
- objects such as buildings and structures in the virtual reality world are arranged and displayed three-dimensionally.
- FIG. 23 is a flowchart showing the procedure of the contour line extraction process according to this embodiment
- FIG. 24 is a flowchart showing the procedure of the bird's eye display process according to this embodiment
- FIG. It is a flowchart figure which shows the procedure of the object arrangement
- FIG. 12 is an explanatory diagram showing real map information related to the contour line extraction process in the present embodiment.
- roads R1 to R4 are included in the real map information M1. It is assumed that the enclosed area B10 is posted.
- the display data generation unit 146 acquires real map information M1 (S301).
- the real map information M1 at this time includes the case where the geographical information in the real world is already a map image in a bitmap format or the like, and the case where the geographical information in the real world is a vector state or a polygon state by numerical values such as coordinates and attribute information. If it is imaged, it is acquired as it is, and if it is expressed by a numerical value such as a vector state, it is converted into a map image by bitmapping etc. and acquired. .
- the map image of the real map information M1 is subjected to gradation processing by blurring the color boundaries in the image (FIG. 14), thereby generating the contour generation image M11 in which the boundary lines included in the real map information are blurred.
- S302 the boundaries between the roads R1 to R4 and the area B10 in the image are blurred, so that the color is composed of the areas B10a to B10c from the black of the roads R1 to R4 to the white of the area B10. Gradation that is getting thinner is formed.
- this gradation processing for example, as shown in FIGS.
- the weighted average of the colors of the eight pixels El1 including any designated pixel El0 in the image of the real map information is included. Is calculated and the weighted average color is colored, and the designated pixel El10 and its surroundings are blurred. As a result, at the boundary between different colors, the periphery of the designated pixel becomes blurred. By sequentially performing this process for all the pixels, a gradation in which the color becomes lighter (darker) stepwise is drawn.
- a contour line extraction image M12 is generated from the difference between the contour generation image M11 and the geographical information in the real map information (S303).
- the color boundary line is blurred, and the border is colored by a lighter color than the color of the original geographic information (in the illustrated example, the roads R1 to R4 and the area B10). It has become a state. For this reason, by subtracting pixels of a predetermined color from the original geographic information included in the real map information, only the pixels that have been blurred and become border portions are extracted, and the contour line extracted image M12 is generated. it can.
- the pixels of the colors of the roads R1 to R4 and the pixels of the area B10a + B10b which is a part of the color that approximates the color of the original area B10 to some extent in the area B10. Then, by subtracting from the contour generation image M11, a contour line extraction image M12 in which the contours bordering the roads R1 to R4 are extracted is generated.
- contour line extracted image M12 based on the contour line extracted image M12, virtual display data W2 for bird's eye view display as shown in FIG. 18 is generated (S304), and an object Ob10 such as a tree or a building is arranged on the map (S305). Then, virtual display data W2 as shown in FIG. 16 is generated.
- the placement of the object Ob10 based on the contour line extraction image M12 is executed using the gradation drawn in the contour generation image M11.
- the direction and depression angle of the map can be changed three-dimensionally by bird's-eye display as shown in FIG.
- the vicinity of the line of sight is displayed in a large and clear manner according to the perspective method, and is displayed so as to be seen as if it is farther away.
- the display limit of the map is displayed as the horizon HL.
- the map scale is reduced and the geographic information is displayed in more detail around the current location of the user at the center of the map, and the map scale is increased and the geographic information is increased as the distance from the user increases. Is also omitted, and while maintaining the function as a map, the processing is reduced by reducing the resolution, and the perspective is realistically reproduced.
- FIG. 24 shows the procedure of the contour line extraction process.
- outline extracted images having different scales and sizes are generated (S401).
- the generation of the contour line extracted images of different scales / sizes can be realized by executing the above-described contour line extraction process on the real map information of different scales.
- the display data generation unit 146 arranges the detailed map M21 having a large scale (small denominator of the reduced scale) in the upper layer around the predetermined center coordinate position P0 (S402).
- the virtual map information M2 is generated by sequentially arranging the low-resolution maps M22 and M23 having a small scale (large denominator of the scale) in lower layers.
- the scale is smaller and the area is larger in steps around the large-scale detailed map M21 than the detailed map M21.
- a plurality of low resolution maps M22 and M23 are arranged concentrically.
- the display data generation unit 146 gradually shifts one image to the other image in the boundary portion M22a between the detailed map M21 and the low resolution map M22 and the boundary portion M23a between the low resolution map M22 and the low resolution map M23.
- the virtual map information for bird's-eye view display is generated by combining the layers (S404) while performing the cross-fading process (S403). In this crossfade process, the transparency of the peripheral roads, rivers, lane markings, etc.
- steps S401 to S404 is also executed for the real map information to generate real map information for bird's-eye view display.
- the virtual map information or the real map information for bird's-eye display generated by combining the maps with different scales in this way is deformed in 3D and subjected to image processing such as distracting far away (S405).
- image processing such as distracting far away (S405).
- the display process ends. At this time, each object displayed on the map is displayed as a three-dimensional deformation according to the camera position of the bird's eye view and the angle / direction of the line of sight.
- the display data generation unit 146 generates virtual display data W2 for arranging and displaying various objects on the coordinates on the virtual map information M2.
- the virtual background object Ob10 is arranged corresponding to the topography of mountains, hills, rivers, roads, etc. in the real map information, and the position of the building that is the main landmark.
- forest maps, wilderness rocks, grassland plants, etc. are not included in detail in the real map information, but on the map
- the background object Ob10 is automatically arranged on the virtual map information even when it is necessary for expressing the environment or producing the game.
- FIG. 25 shows the procedure of the automatic object placement processing.
- the display data generation unit 146 generates the contour generation image M11 in which the boundary line included in the real map information is blurred by blurring the color boundary in the map image of the real map information M1.
- the contour generation image M11 is obtained by blurring the boundaries between the roads R1 to R4 and the area B10 in the image, so that the black color of the roads R1 to R4 is changed to an area like the areas B10a to B10c.
- the gradation image is gradually faded toward B10 white.
- the gradation process for example, as shown in FIGS. 13A to 13C, the average of the colors of the eight pixels El1 including any designated pixel El0 in the image of the real map information is calculated. The calculation is performed, the average color is colored, and the designated pixel El0 and its periphery are blurred.
- the contour generation image M11 that is a gradation image is analyzed (S501), and the display data generation unit 146 performs the contour generation image on the contour generation image M11.
- a region having a predetermined density in M11 is extracted as an object arrangement possible area (S502).
- the background object Ob10 is arranged according to the attribute of each object arrangementable area (S504). For example, if the attribute of the area is a green area such as a forest or a park, a tree is arranged as the background object Ob10.
- an arbitrary background object may be arranged according to the game progress story.
- an object Ob10 such as a tree can be automatically arranged only in an area B10a having the same color as the original area B10 in the contour generation image M11.
- the object is automatically arranged only in the vicinity of the center in the section such as the area B10 by a simple process of detecting a predetermined density region in the contour generation image M11 without performing complicated calculation processing. Can do.
- an object other than the background for example, a character or a landmark or character necessary for the progress of the game is arranged (S505).
- these objects other than the background may be arranged in the object arrangement possible area according to the attribute of the object, or may be arranged ignoring the object arrangement possible area.
- the recorded / displayed trajectory can be expanded and filled with a blank portion in accordance with user operation or game progress.
- This trajectory display for example, can be given meaning in the progress of the game with the concept of “purifying”, “greening”, or “occupying” the area on the map by painting the area with the trajectory. For example, by expanding the “purified” range, the advantage of the game can be obtained as the score of the user. Also, if a hostile user passes over this trajectory, the trajectory will be overwritten and the area occupied will be in the hands of other users, improving the diversity and entertainment of the game Can do.
- the position information acquisition unit 144 acquires and records the coordinate position of an arbitrary object
- the trajectory display unit 145a records the movement path of the user recorded by the movement path recording unit 144a and other users.
- an arbitrary object movement path are displayed as trajectories on the real map information M1 or the virtual map information M2.
- the locus display unit 145a displays the sampled positions in time series in FIG. ),
- the moving route determined by connecting the two adjacent points with the shortest distance is colored with a certain width, or by referring to the geographical information, as shown in FIG. )
- the route determined along the route between the two points can be colored with a certain width.
- the trajectory display unit 145a as shown in FIG. 28, on the real map information M1 or the virtual map information M2, a section or object close to the movement path of each user or object is displayed as a trajectory. You may make it display by coloring as a part.
- this section it can be colored and displayed in block units such as administrative districts, town blocks, prefectures, and municipalities that are partitioned based on actual geographic information or virtual geographic information. Also in this coloring in units of blocks, as shown by hatching in FIG. 28A, a block that contacts a moving path determined by connecting two adjacent points with the shortest distance is colored, As indicated by the slanted line in 28 (b), it is possible to color a block that touches a route determined along a route between two points with reference to geographic information.
- Event hold processing Next, event hold processing will be described.
- the game progress processing unit 141 approaches a predetermined building B1 to B3 on the real map information M1
- the game progress processing unit 141 is represented on the coordinates of the virtual map information M2 corresponding to the building B1 to B3.
- Event processing is executed when approaching or encountering a predetermined object O1 to O3 such as a monster.
- the event processing with these objects O1 to O3 includes battle battles with these objects O1 to O3, mini games, and the like.
- the event processing in order to prevent so-called walking smartphone, when event processing occurs when a monster is encountered while passing through the event occurrence area, the event processing is suspended, and when the user stays in a certain place or When the user arrives at his / her home or destination, the held event can be started again.
- the objects O1 to O3 are virtual life forms such as monsters or items, and pass through the event occurrence area where the monsters or items appear, An event battle battle occurs.
- the event processing is put on hold as having captured the monster once, and the game progress with the movement of the user is continued in that state, and when the user comes home, the event processing is started again, It is designed to resume mini-games using items and items.
- FIG. 10 is a sequence diagram showing the operation of the event hold process.
- position information is periodically acquired in each smartphone 1 and transmitted to the game server 3 (S201 and S101).
- event processing to be generated is predicted according to the transmitted current position of each user (S102), and the generation condition is transmitted to the smartphone 1 side (S103).
- the game progress processing unit 36 of the game server 3 determines the position of another user's character, a monster corresponding to a building in the real world, etc.
- the event processing that can occur is predicted based on the position of the object, the occurrence condition is generated on the game server 3 side, and the condition is transmitted to the smartphone 1 side.
- the generation condition is received by the synchronization processing unit 142, and the timing at which the generation condition is satisfied is monitored (S202).
- the event restriction unit 143 monitors the event processing occurrence condition received from the game progress processing unit 141 and the movement speed of the current position of the own device acquired by the position information acquisition unit 144.
- the event processing generated by the game progress processing unit 141 is a predetermined hold target event (“Y” in S204), and the moving speed of the user is equal to or higher than a predetermined value, and the user is moving. Is determined (“Y” in S205), the processing of the hold target event is put on hold (S206).
- step S208 if there is a suspended event process, the event process is resumed. Then, the result of the event processing (or the resumed suspended event processing) executed by the game progress processing unit 141 on the smartphone 1 side (the battle, mini-game win / loss, score, etc.) is sent to the game server 3 through the synchronization processing unit 142. Is notified to the game progress processing unit 141 on the side (S208), the synchronization processing is performed on the game server 3 side (S104), and the result of the executed event processing is obtained. This is reflected in the subsequent game progress process.
- the game progress processing unit 141 causes the other game process to proceed while the hold target event is put on hold (S105).
- the synchronization processing unit 142 notifies the game progress processing unit 141 on the game server 3 side about the event processing suspended by the event restricting unit 143 (S208), and the event processing that satisfies the event processing occurrence requirements is put on hold.
- the game server 3 is notified that the game is progressing as it is.
- the game server 3 that has received the event processing hold report performs synchronization processing (S104), and the event processing is kept on hold and reflected in the subsequent game progress processing (S105).
- Such an event hold function can prevent complicated operations and long-time gaze for event processing while moving, while avoiding the danger of walking smartphones, while maintaining entertainment as a game.
- Game progress process In this embodiment, a function is provided in which points are issued according to the moving distance of the user and the game is advanced by generating an event based on the points. The issuance of points and the progress of the game are executed in cooperation by the game progress processing units 36 and 141, and the progress and points of the game are recorded in the user database 35b and the game database 35c.
- a privilege event occurs in accordance with the progress of the game based on the accumulated distance traveled by the user or the number of accesses to a specific facility on the map, and the characters appearing according to the privilege event change and develop. It is like that. For example, as shown in FIG. 29 (a), when the user 10a repeatedly travels back and forth between his home (point A) and the nearest station St by commuting, attending school or the like, A trajectory is recorded between the point A and the station St.
- the locus of this commuting / commuting route is displayed darkly according to the number of times of traffic.
- the number of accesses to a specific facility here, the station St
- various privilege events can be used according to the access frequency or the usage amount of points.
- this privilege event it automatically occurs according to the access frequency, and as an example, a privilege character as shown in FIG. 29B appears.
- an event is generated when the nearest station St with high access frequency is accessed a predetermined number of times or points are used (accumulated), and thereafter each time the user 10a accesses the station St.
- a guide that informs you of traffic information will appear as a bonus character, and you will be notified of the current train operation, weather, traffic information, related news, event schedules, etc. of the current commuting / commuting destination.
- the bonus characters include stockmen who report stock prices, waitresses who report gourmet information on restaurants, local characters that report local news, local characteristics and time Various characters will appear according to the band.
- FIG. 30 is a flowchart showing a procedure of the point issuance process according to the present embodiment.
- the position information acquisition process and the movement speed calculation process are executed constantly or periodically and reported to the game server 3 (S601).
- the position information acquisition unit 144 has a base station positioning by triangulation based on a detection value by an acceleration sensor, a displacement of a user's current position, a latitude / longitude by GPS, a radio wave intensity from a base station, and base station information.
- the change of the base station positioning by the WiFi positioning using the database combining the SSID (Service SetID) of the WiFi and the radio wave status and the longitude / latitude is acquired as the position information.
- SSID Service SetID
- the game server 3 that has received the location information report from the user terminal records the accumulated route for each user (S701), and calculates and accumulates the amount of movement (cumulative movement distance) for each user. Recording of the accumulated route is continued until the movement amount is accumulated more than a certain amount (“N” in S702), and when a certain amount of movement is accumulated (“Y” in S702), the movement amount is determined according to the movement amount.
- the number of points is issued as value information (S703). The issued points are received by downloading or the like on the user's smartphone 1 side (S602).
- the user's smartphone 1 side can collect received points and use them for purchasing items.
- the point issuance according to the amount of movement is repeated until a certain amount of points are accumulated (“N” in S603), and when a certain amount of points are accumulated (“Y” in S603), various privilege events can be used.
- This privilege event can be selectively used according to the number of points, and a privilege event that can be used by the user is arbitrarily selected, and is executed by a use request operation. This use request operation is performed based on event restriction release processing corresponding to the number of points.
- the event is advanced accordingly (S605), and the fact is reported to the game server 3 (S605).
- the game side executes a process for advancing the game based on the progressed event (S704). It is possible to repeat the above point issuance, event accumulation by accumulation and use of the points until the game ends (“Y” in S606 and S705) (“N” in S606 and S705).
- FIG. 31 is a flowchart showing the procedure of the game progress restriction process according to the present embodiment.
- FIG. 32 is a flowchart showing the procedure of the movement information acquisition process and the movement speed calculation process according to this embodiment, and
- FIG. 33 is an explanatory diagram showing an example of the movement information acquisition process and the movement speed calculation process. is there.
- the user's smartphone 1 executes position information acquisition processing and movement speed calculation processing constantly or periodically during execution of the game program (S801).
- the position information acquisition process and the movement speed calculation process in step S801 will be described in detail.
- various detection values are acquired as position information (S1001).
- the position information acquisition unit 144 has a base station positioning by triangulation based on a detection value by an acceleration sensor, a displacement of a user's current position, a latitude / longitude by GPS, a radio wave intensity from a base station, and base station information.
- the change of the base station positioning by the WiFi positioning using the database combining the SSID (Service SetID) of the WiFi and the radio wave status and the longitude / latitude is acquired as the position information.
- SSID Service SetID
- the value of the detection signal from the acceleration sensor provided in the smartphone 1 is compared with a predetermined threshold value, and it is determined whether or not the acceleration is equal to or greater than a certain value ( S1002).
- a predetermined threshold value When acceleration greater than or equal to a predetermined value occurs (“Y” in step S1002), the moving speed and moving distance are calculated from the detected acceleration value (S1005), and the calculated values are returned to step S802 in FIG.
- the movement of the user can be detected by the acceleration at which the user 10a starts walking.
- step S1002 even if the acceleration is less than a certain value (“N” in step S1002), for example, the user may be traveling at a constant speed on a vehicle. It is necessary to analyze changes in other detected values.
- N a certain value
- the GPS signal cannot be received when the user is underground or indoor such as a subway station or a building. Therefore, it is determined whether or not the GPS signal can be received (S1003).
- the GPS signal can be received (“Y” in step S1003)
- the moving speed and the moving distance are determined from the latitude / longitude displacement of the GPS signal. Calculate (S1005) and return the calculated value to step S802 in FIG.
- step S1004 it is determined whether or not base station positioning is possible (S1004).
- base station positioning is possible (“Y” in step S1004)
- a change in base station positioning for example, a handover such as when switching from wifi base station WS1 to WS2 is detected. That is, switching from the wifi base station WS1 to WS2 may cause a discontinuous point in positioning, and the displacement of the current position may move several meters instantaneously.
- step S802 it is determined whether or not the movement speed / movement distance calculated in step S801 is equal to or greater than a certain value. Specifically, it is determined whether or not the movement speed / movement distance calculated in step S801 exceeds the normal movement by walking. When the movement speed / movement distance is faster and larger than the normal movement (“ Y "), it is determined that the user is walking and using a smartphone (S803).
- a certain time for example, about 5 minutes
- This holding time is sequentially set according to the distance between base stations and the amount of change in radio waves, and when the holding time elapses, the determination in step S803 is executed.
- step S803 If it is determined in step S803 that a walking smartphone has occurred, event progression restriction and function restriction are executed accordingly (S804).
- the event progress restriction and function restriction on the user's smartphone 1 side are reported to the game server 3 side (S805).
- the game server 3 side executes processing for restricting the game progress (S901). .
- the above-described point issue rate is reduced for a certain period of time or the points already issued are confiscated (S902). Further, the occurrence rate of the specific event described above is reduced, the progress rate of the event is reduced, and the game progress is slowed down (S903).
- the above-described walking smartphone monitoring and the accompanying game progress restriction are repeatedly executed (“N” in S806 and S904) until the game ends (“Y” in S806 and S904).
- Authentication unit 34 Game data distribution unit 35a ... Reality Figure database 35b ... User database 35c ... Game database 36 ... Game progress processing unit 37 ... Virtual map information management unit 141 ... Game progress processing unit 142 ... Synchronization processing unit 143 ... Event regulation unit 144 ... Position information acquisition unit 145 ... Display control Unit 146 ... display data generation unit
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Environmental & Geological Engineering (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
Abstract
【課題】実世界と仮想世界の地図表示の切り替えに関し、操作性を高めつつ、ゲームとしての娯楽性を向上させ、さらには歩きスマホの危険性も回避する。 【解決手段】ゲームを進行させるゲーム進行処理部と、現実世界における現実地図情報を記憶する現実地図記憶部と、現実地図情報上の地理情報に対応した仮想地理情報上におけるオブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、ユーザーの現実世界における現在位置を取得する位置情報取得部と、ユーザーの現実地図情報上にユーザーの現在位置を示した現実表示データを生成する現実表示データ生成部と、位置情報取得部が取得したユーザーの現在位置に基づいて、ユーザーの現在位置に対応した仮想地図情報上にキャラクターを表した仮想表示データを生成する仮想表示データ生成部と、現実表示データと仮想表示データとを表示する表示制御部とを備える。
Description
本発明は、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステム及びゲームプログラムに関する。
近年、携帯が可能で、無線通信による情報通信を行うスマートフォンや携帯電話、モバイルPCなどの情報処理装置が普及してきているとともに、GPS等の位置情報サービスが利用可能となるなど、多機能化が進んでいる。
従来、このような情報処理装置の携帯性と、位置情報サービスとを利用したゲームが種々提案されている(例えば、特許文献1)。この特許文献1に開示された技術では、GPSなどから得られる実世界の現在地及びその変位をロールプレイングゲームで示される画面(仮想世界)の仮想位置及び仮想変位として表示し制御するとともに、イベントアイコンにその位置が重なると第2の仮想世界が表示されるゲームシステムを構築する。これにより、位置情報を利用し従来のゲーム方式或いは従来にはないゲーム方式と実際の位置情報を組み合わせることで新たなエンタテイメントの実現と、実際に歩行者が移動することで楽しく運動ができるシステムの提供が可能となる。
しかしながら、特許文献1に開示されたシステムでは、ロールプレイングゲームで示される仮想世界の仮想位置及び仮想変位として表示するものであることから、実際の地図ビューワーとしての実用性が低いという問題がある。すなわち、実際に移動することを要素とした場合、仮想世界の地図のみでは実際に歩いたりする際の地図機能としては不十分であり、実世界の地図を確認したいという要請があった。なお、従来の情報端末では、一般的な地図ビューワーアプリケーションを備えていることから、ユーザーは、ゲームをするためのアプリケーションと一般的な地図ビューワーアプリケーションとを切り替えることにより、上記要請は果たせるものの、その操作が煩わしいとともに、実世界と仮想世界のギャップを楽しむというゲームとしての娯楽性が低下することにもなる。
さらに、近年では、情報端末を見ながらの歩行、いわゆる「歩きスマホ」が問題となっており、単に仮想世界を表示し、実世界を表示させるための操作が煩雑なゲームシステムでは、携帯端末装置の画面を注視する時間が長くなることから、歩きスマホを誘発することにも繋がり、実際の移動を要素としたゲーム自体、危険性が懸念される。
そこで、本発明は、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムにおいて、実世界と仮想世界の地図表示の切り替えに関し、操作性を高めて画面を注視する時間を極力短くし、ゲームとしての娯楽性を維持しつつ、歩きスマホの危険性を回避できるゲームシステム及びゲームプログラムを提供することを課題とする。
(1)ゲームシステム
上記課題を解決するために、本発明は、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を発生させてゲームを進行させるゲームシステムであって、
前記種々のイベント処理を発生させてゲームを進行させるゲーム進行処理部と、
現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部と、
前記ゲーム進行処理部によるゲーム進行に従って、前記現実地図情報上の地理情報に対応した仮想地理情報上における前記オブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、
現実世界における前記ユーザーの現在の座標位置及びその変位を取得する位置情報取得部と、
前記位置情報取得部が取得したユーザーの現在の座標位置及びその変位に基づいて、前記現実地図情報上に前記座標位置を示した現実表示データを生成する現実表示データ生成部と、
前記位置情報取得部が取得した前記座標位置に基づいて、前記座標位置に対応した前記仮想地図情報上に前記キャラクターを表した仮想表示データを生成する仮想表示データ生成部と、
前記現実表示データ生成部が生成した前記現実表示データと、前記仮想表示データ生成部が生成した前記仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示させる表示制御部と
を備え、
前記ゲーム進行処理部は、前記座標位置の移動に応じて、ゲームの進行を規制することを特徴とする。
上記課題を解決するために、本発明は、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を発生させてゲームを進行させるゲームシステムであって、
前記種々のイベント処理を発生させてゲームを進行させるゲーム進行処理部と、
現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部と、
前記ゲーム進行処理部によるゲーム進行に従って、前記現実地図情報上の地理情報に対応した仮想地理情報上における前記オブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、
現実世界における前記ユーザーの現在の座標位置及びその変位を取得する位置情報取得部と、
前記位置情報取得部が取得したユーザーの現在の座標位置及びその変位に基づいて、前記現実地図情報上に前記座標位置を示した現実表示データを生成する現実表示データ生成部と、
前記位置情報取得部が取得した前記座標位置に基づいて、前記座標位置に対応した前記仮想地図情報上に前記キャラクターを表した仮想表示データを生成する仮想表示データ生成部と、
前記現実表示データ生成部が生成した前記現実表示データと、前記仮想表示データ生成部が生成した前記仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示させる表示制御部と
を備え、
前記ゲーム進行処理部は、前記座標位置の移動に応じて、ゲームの進行を規制することを特徴とする。
(2)ゲームプログラム
また、本発明は、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムで用いられるゲームプログラムであって、前記ユーザーが使用する携帯端末装置を、
前記種々のイベント処理を発生させてゲームを進行させるゲーム進行処理部と、
現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部と、
前記ゲーム進行処理部によるゲーム進行に従って、前記現実地図情報上の地理情報に対応した仮想地理情報上における前記オブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、
現実世界における前記ユーザーの現在の座標位置及びその変位を取得する位置情報取得部と、
前記位置情報取得部が取得したユーザーの現在の座標位置及びその変位に基づいて、前記現実地図情報上に前記座標位置を示した現実表示データを生成する現実表示データ生成部と、
前記位置情報取得部が取得した前記座標位置に基づいて、前記座標位置に対応した前記仮想地図情報上に前記キャラクターを表した仮想表示データを生成する仮想表示データ生成部と、
前記現実表示データ生成部が生成した前記現実表示データと、前記仮想表示データ生成部が生成した前記仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示させる表示制御部
として機能させ、
前記ゲーム進行処理部は、前記座標位置の移動に応じて、ゲームの進行を規制することを特徴とする。
また、本発明は、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムで用いられるゲームプログラムであって、前記ユーザーが使用する携帯端末装置を、
前記種々のイベント処理を発生させてゲームを進行させるゲーム進行処理部と、
現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部と、
前記ゲーム進行処理部によるゲーム進行に従って、前記現実地図情報上の地理情報に対応した仮想地理情報上における前記オブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、
現実世界における前記ユーザーの現在の座標位置及びその変位を取得する位置情報取得部と、
前記位置情報取得部が取得したユーザーの現在の座標位置及びその変位に基づいて、前記現実地図情報上に前記座標位置を示した現実表示データを生成する現実表示データ生成部と、
前記位置情報取得部が取得した前記座標位置に基づいて、前記座標位置に対応した前記仮想地図情報上に前記キャラクターを表した仮想表示データを生成する仮想表示データ生成部と、
前記現実表示データ生成部が生成した前記現実表示データと、前記仮想表示データ生成部が生成した前記仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示させる表示制御部
として機能させ、
前記ゲーム進行処理部は、前記座標位置の移動に応じて、ゲームの進行を規制することを特徴とする。
なお、上述した本発明に係るシステムや、このシステムに用いる制御方法は、所定の言語で記述された本発明のプログラムをコンピューター上で実行することにより実現することができる。すなわち、本発明のプログラムを、携帯端末装置やスマートフォン、ウェアラブル端末、モバイルPCその他の情報処理端末、パーソナルコンピュータやサーバーコンピューター等の汎用コンピューターのICチップ、メモリ装置にインストールし、CPU上で実行することにより、上述した各機能を有するシステムを構築して、各ハードウェア資源の制御方法を実施することができる。
また、本発明のプログラムは、例えば、通信回線を通じて配布することが可能であり、また、コンピューターで読み取り可能な記録媒体に記録することにより、スタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。この記録媒体として、具体的には、フレキシブルディスクやカセットテープ等の磁気記録媒体、若しくはCD-ROMやDVD-ROM等の光ディスクの他、RAMカードなど、種々の記録媒体に記録することができる。そして、このプログラムを記録したコンピューター読み取り可能な記録媒体によれば、汎用のコンピューターや専用コンピューターを用いて、上述したシステム及び方法を簡便に実施することが可能となるとともに、プログラムの保存、運搬及びインストールを容易に行うことができる。
(3)各構成
上記発明において、前記ゲーム進行処理部は、前記ゲームを進行に伴って価値情報を前記ユーザーに付与するとともに、前記位置情報取得部が取得した現在位置及びその変位に基づき、前記価値情報を付与する機会又は付与価値を低減するか、或いは付与済みの前記価値情報を没収することができる。
上記発明において、前記ゲーム進行処理部は、前記ゲームを進行に伴って価値情報を前記ユーザーに付与するとともに、前記位置情報取得部が取得した現在位置及びその変位に基づき、前記価値情報を付与する機会又は付与価値を低減するか、或いは付与済みの前記価値情報を没収することができる。
上記発明において、 前記表示制御部は、前記ゲーム進行処理部による前記ゲームの進行の規制に応じて、前記現実表示データ及び/又は前記仮想表示データの表示又はその表示動作を規制することができる。
上記発明では、前記携帯端末装置を、
前記ゲーム進行処理部が発生させたイベント処理と、前記位置情報取得部が取得する現在位置の移動速度とを監視し、前記現在位置の移動速度が所定値以上であり、且つ前記ゲーム進行処理部が発生させたイベント処理が予め定められた保留対象イベントである場合に、当該保留対象イベントの処理を保留させるイベント規制部としてさらに機能させ、
前記ゲーム進行処理部は、前記保留対象イベントを保留させた状態で、他のイベント処理を発生させて前記ゲームを進行させることができる。
前記ゲーム進行処理部が発生させたイベント処理と、前記位置情報取得部が取得する現在位置の移動速度とを監視し、前記現在位置の移動速度が所定値以上であり、且つ前記ゲーム進行処理部が発生させたイベント処理が予め定められた保留対象イベントである場合に、当該保留対象イベントの処理を保留させるイベント規制部としてさらに機能させ、
前記ゲーム進行処理部は、前記保留対象イベントを保留させた状態で、他のイベント処理を発生させて前記ゲームを進行させることができる。
上記発明では、前記価値情報は、前記現実地図情報又は前記仮想地図情報上における所定の座標位置、範囲又は経路のいずれかに紐付けられた特典情報を取得する権利であり、各特典情報には、その権利の取得条件として、前記座標位置、範囲又は経路のいずれかに対するアクセス頻度が所定値以上となっていることが好ましい。
以上述べたように、本発明によれば、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムにおいて、実世界と仮想世界の地図表示の切り替えに関し、操作性を高めつつ、ゲームとしての娯楽性を向上させ、さらには歩きスマホの危険性も回避できる。
以下に添付図面を参照して、本発明に係るゲームシステム及びゲームプログラムの実施形態を詳細に説明する。
図1は、本実施形態に係るゲームシステムの全体構成を示す概念図である。本実施形態に係るゲームシステムは、図1に示すように、複数のユーザー10a,10bが使用する携帯端末装置であるスマートフォン1(1a,1b)と、インターネット2上に設置されたゲームサーバー3とから概略構成される。なお、本実施形態では、スマートフォン1を携帯端末装置の一例として説明する。
図1は、本実施形態に係るゲームシステムの全体構成を示す概念図である。本実施形態に係るゲームシステムは、図1に示すように、複数のユーザー10a,10bが使用する携帯端末装置であるスマートフォン1(1a,1b)と、インターネット2上に設置されたゲームサーバー3とから概略構成される。なお、本実施形態では、スマートフォン1を携帯端末装置の一例として説明する。
ゲームサーバー3は、本実施形態では、ゲーム進行処理を行うサーバーであり、単一のサーバー装置、又は複数のサーバー装置群により実現することができ、複数の機能モジュールをCPU上に仮想的に構築し、それぞれの機能モジュールが協動して処理を実行する。また、このゲームサーバー3は、通信機能によりインターネット2を通じて、データ送受信を行うことができるとともに、Webサーバー機能によりブラウザソフトを通じてWebページの提示などを行うことができる。
スマートフォン1は、無線通信を利用した携帯可能な情報処理端末装置であり、無線基地局22等の中継点と携帯電話機が無線で通信し、通話やデータ通信等の通信サービスを移動しつつ受けることができる。この携帯電話機の通信方式としては、例えば、3G(3rd. Generation)方式、LTE(Long Term Evolution)方式、4G方式、FDMA方式、TDMA方式、CDMA方式、W-CDMAの他、PHS(Personal Handyphone System)方式等が挙げられる。また、このスマートフォン1は、デジタルカメラ機能、アプリケーションソフトの実行機能、GPS(Global Positioning System)などによる位置情報取得機能等、種々の機能が搭載され、タブレットPC等のモバイルコンピュータも含まれる。
位置情報取得機能は、自機の位置を示す位置情報を取得し、記録する機能であり、この位置情報取得機能としては、図1に示すように、例えば、GPSのように、衛星21からの信号によって自機の位置を検出する方法や、携帯電話の無線基地局22や、Wifi通信のアクセスポイントからの電波強度などによって位置を検出する方法が含まれる。
そして、このスマートフォン1は、情報を表示する表示部としての液晶ディスプレイを備えるとともに、ユーザーが入力操作を行うための操作ボタン等の操作デバイスを備え、この操作デバイスとしては、液晶ディスプレイに重畳されて配置され、液晶ディスプレイ上の座標位置を指定するタッチ操作などによる操作信号を取得する入力部としてのタッチパネルが含まれる。具体的にこのタッチパネルは、ユーザーの指先やペンなどを用いたタッチ操作による圧力や静電検知その他によって操作信号を入力する入力デバイスであり、グラフィックを表示する液晶ディスプレイと、この液晶ディスプレイに表示されたグラフィックの座標位置に対応した操作信号を受け付けるタッチセンサーとが重畳されて構成されている。
(各装置の内部構造)
次いで、上述したゲームシステムを構成する各装置の内部構造について説明する。図3は、本実施形態に係るゲームサーバー3の内部構成を示すブロック図であり、図4は、本実施形態に係るスマートフォン1の内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
次いで、上述したゲームシステムを構成する各装置の内部構造について説明する。図3は、本実施形態に係るゲームサーバー3の内部構成を示すブロック図であり、図4は、本実施形態に係るスマートフォン1の内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(1)ゲームサーバー
先ず、ゲームサーバー3の内部構成について説明する。ゲームサーバー3は、インターネット2上に配置されたサーバー装置であり、インターネット2を通じて、各スマートフォン1とデータの送受信を行えるようになっている。
先ず、ゲームサーバー3の内部構成について説明する。ゲームサーバー3は、インターネット2上に配置されたサーバー装置であり、インターネット2を通じて、各スマートフォン1とデータの送受信を行えるようになっている。
ゲームサーバー3は、インターネット2を通じてデータ通信を行う通信インターフェース31と、利用者や利用者端末の権限を認証する認証部33と、各利用者端末の位置情報を収集して管理する位置情報管理部32と、ゲーム全体のゲーム進行処理、及び各ユーザーのゲーム進行処理を実行するゲーム進行処理部36と、仮想地図情報を生成する仮想地図情報管理部37と、各ユーザーに対してゲームデータを配信する34と種々のデータベース群を備えている。
データベース群としては、現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部としての現実地図データベース35aと、利用者に関する情報を蓄積するユーザーデータベース35bと、仮想地図情報、ゲーム全体のゲーム進行処理、及び各ユーザーのゲーム進行処理に関する情報を蓄積するゲーム用データベース35cとが含まれる。これらの各データベースとしては、単一のデータベースとしてもよく、複数のデータベースに分割し、相互にリレーションを設定することで各データ同士を紐付けたリレーショナルデータベースとすることができる。
現実地図データベース35aは、現実世界における地理情報を含む現実地図情報を記憶する記憶装置であり、山や谷、河川等の自然的な地理的要素、建物や道路、鉄道などの人工物、地名や住所、交通規制などが記憶される。なお、この現実地図データベース35aは、ゲームサーバー3を運用するサービス提供者自身が所有・運用するものの他、他の地図サービス提供者が運用する地図データベースであってもよい。
ユーザーデータベース35bに蓄積される情報としては、利用者又は利用者が使用している携帯端末装置を特定する識別子(ユーザーID、端末ID)と、パスワード等とを紐付けた認証情報を含み、ユーザーIDに紐付けられた利用者の個人情報や、端末装置の機種なども含まれる。また、ユーザーデータベース35bには、利用者毎或いは利用者端末毎の認証履歴(アクセス履歴)や、ゲーム用データベース35cとのリレーションによりユーザー毎のゲーム進行に関する情報(緯度・経度等の現在位置、ゲーム中におけるステイタス、得点、利用履歴等)、ゲーム中に関する決済情報等も蓄積される。
ゲーム用データベース35cに蓄積される情報としては、仮想世界の地図情報、キャラクターやオブジェクトの特性、イベント処理に関する情報、グラフィック情報などがゲーム用データとして含まれるとともに、これらのゲーム用データと、現実地図に含まれる地理的要素や建物、道路、鉄道等とを関連づけるためのマッピングデータも含まれる。
認証部33は、通信インターフェース31を通じて、各スマートフォン1と通信セッションを確立させ、その確立された通信セッション毎に認証処理を行うモジュールである。この認証処理としては、アクセス者である利用者のスマートフォン1から認証情報を取得し、ユーザーデータベース35bを参照して、利用者等を特定し、それらの権限を認証する。この認証部33による認証結果(ユーザーID、認証時刻、セッションID等)は、ゲーム進行処理部36に送出されるとともに、ユーザーデータベース35bに認証履歴として蓄積される。
位置情報管理部32は、利用者端末装置側で取得されてゲームサーバー3に送信される位置情報を取得するモジュールであり、位置情報管理部32は、認証部33による認証処理によって特定されたユーザーやユーザー端末装置の識別子(ユーザーID、端末ID等)と、それらの位置情報とを紐付けてユーザーデータベース35bに利用履歴として蓄積する。
ゲーム進行処理部36は、仮想世界において、各ユーザーに対応する各キャラクター、及びモンスターやその他のオブジェクトが移動して、種々のイベント処理を発生させてゲームを進行させるモジュールであり、一定のルール・ロジック・アルゴリズムを含むゲームプログラムを実行し、キャラクターやオブジェクトの位置関係(接近・接触等)に応じて、対決バトルやミニゲーム、ムービーの再生等のイベント処理を発生させる。なお、ゲーム進行処理部36は、本実施形態では、スマートフォン1側のゲーム進行処理部141と協働するようになっており、ゲーム進行処理の一部をゲームサーバー3側で行い、グラフィック処理やイベント処理の一部をスマートフォン1側のゲーム進行処理部141で実行するようにしている。例えば、ゲームサーバー3側で、他のユーザーのキャラクターの位置や、オブジェクトの位置などに基づいて、発生し得るイベント処理を予測し、その発生条件をゲームサーバー3側で発生させ、その条件をスマートフォン1側に送信し、実際のイベント処理の発生やそのためのグラフィック処理は、ゲームサーバー3から受信した発生条件に基づいてスマートフォン1側で実行するようにしている。
仮想地図情報管理部37は、ゲーム進行処理部36によるゲーム進行に従って、図2に示すような、現実地図情報M1上の地理情報に対応した仮想地理情報上における他のユーザーのキャラクターや、オブジェクトO1~O3等の座標情報を含む仮想地図情報M2の生成、蓄積及び配信を管理・制御するモジュールである。この仮想地図情報M2は、ゲームサーバー3側で生成する場合と、スマートフォン1側で生成する場合と、ゲームサーバー3とスマートフォン1の両者が協働して生成する場合とがあり、仮想地図情報管理部37は、ゲームサーバー3側で生成、或いは蓄積された仮想地図情報M2と、スマートフォン1側で生成、蓄積された仮想地図情報M2に関する情報を管理し、両者の仮想地図情報M2を比較し、必要に応じて仮想地図情報M2の全部又は一部をスマートフォン1側に配信して、両者の同期を図る。
なお、ゲームサーバー3側で仮想地図情報M2を生成する場合、仮想地図情報管理部37は、現実地図データベース35aに蓄積された現実地図情報M1に含まれる地理的要素や建物、道路、鉄道等を取得するとともに、ゲーム用データベース35cに蓄積されたマッピングデータを参照し、現実地図情報M1に対応した仮想世界の地図情報、キャラクターやオブジェクトの特性(属性)、イベント処理に関する情報、グラフィック情報などに基づいて、仮想世界の地図情報を生成する。ここでは、現実地図情報M1上の建物B1~B3に対応した座標位置(座標範囲)にオブジェクトO1~O3が配置されている。
ゲームデータ配信部34は、ユーザーの現在位置に基づき、仮想地図情報管理部37による制御に従って、仮想地図情報管理部37が生成した仮想地図情報M2を同期させるべく、地図情報や仮想世界のグラフィックを、通信インターフェース31を通じて,各ユーザーに配信するモジュールである。
(2)スマートフォン1
次いで、スマートフォン1の内部構成について説明する。図4に示すように、スマートフォン1は、通信インターフェース11と、入力インターフェース12と、出力インターフェース13と、アプリケーション実行部14と、メモリ15とを備えている。
次いで、スマートフォン1の内部構成について説明する。図4に示すように、スマートフォン1は、通信インターフェース11と、入力インターフェース12と、出力インターフェース13と、アプリケーション実行部14と、メモリ15とを備えている。
通信インターフェース11は、データ通信を行うための通信インターフェースであり、無線等による非接触通信や、ケーブル、アダプタ手段等により接触(有線)通信をする機能を備えている。入力インターフェース12は、マウス、キーボード、操作ボタンやタッチパネル12aなどユーザー操作を入力するデバイスである。また、出力インターフェース13は、ディスプレイやスピーカーなど、映像や音響を出力するデバイスである。特に、この出力インターフェース13には、液晶ディスプレイなどの表示部13aが含まれ、この表示部は、入力インターフェースであるタッチパネル12aに重畳されている。
メモリ15は、OS(Operating System)やファームウェア、各種のアプリケーション用のプログラム、その他のデータ等などを記憶する記憶装置であり、このメモリ15内には、ユーザーを識別するユーザーIDの他、ゲームサーバー3からダウンロードしたゲームアプリケーションデータを蓄積するとともに、アプリケーション実行部14で処理されたゲームデータ等が蓄積される。特に、本実施形態では、メモリ15には、ゲームサーバー3から取得した、仮想地図情報M2及び現実地図情報M1が格納されている。
アプリケーション実行部14は、一般のOSやゲームアプリケーション、ブラウザソフトなどのアプリケーションを実行するモジュールであり、通常はCPU等により実現される。このアプリケーション実行部14では、本発明に係るゲームプログラムが実行されることで、ゲーム進行処理部141、同期処理部142、イベント規制部143、表示データ生成部146、表示制御部145,位置情報取得部144が仮想的に構築される。
ゲーム進行処理部141は、ゲームサーバー3で実行されているゲームプログラムと同様のルール・ロジック・アルゴリズムにより、仮想世界において、各ユーザーに対応する各キャラクター、及びモンスターやその他のオブジェクトを移動させて、種々のイベント処理を発生させてゲームを進行させるモジュールであり、同期処理部142を通じて、ゲームサーバー3側のゲーム進行処理部36と同期しつつ、キャラクターやオブジェクトの位置関係(接近・接触等)に応じて、対決バトルやミニゲーム、ムービーの再生等のイベント処理を発生させる。
ゲーム進行処理部141は、本実施形態では、ゲームサーバー3側のゲーム進行処理部141と協働するようになっており、ゲーム進行処理の一部をゲームサーバー3側で行い、グラフィック処理やイベント処理の一部をスマートフォン1側のゲーム進行処理部141で実行するようにしている。例えば、イベント発生の条件などをゲームサーバー3側で発生させ、その条件をスマートフォン1側に送信し、実際のイベント処理の発生やそのためのグラフィック処理は、スマートフォン1側で実行する。
同期処理部142は、スマートフォン1側でのゲーム進行処理と、ゲームサーバー3側でのゲーム進行処理とを同期させるモジュールである。具体的には、ゲームサーバー3側で、他のユーザーのキャラクターの位置や、オブジェクトの位置などに基づいて、発生し得るイベント処理を予測し、その発生条件をゲームサーバー3側で発生させ、その条件をスマートフォン1側に送信し、この発生条件を同期処理部142で受信し、実際のイベント処理の発生やそのためのグラフィック処理は、ゲームサーバー3から受信した発生条件に基づいてスマートフォン1側のゲーム進行処理部141で実行する。このスマートフォン1側のゲーム進行処理部141で実行されたイベント処理の結果(バトルやミニゲームの勝敗や得点等)は、同期処理部142を通じてゲームサーバー3側のゲーム進行処理部141に通知され、その後のゲーム進行処理に反映される。
また、イベント規制部143は、ゲーム進行処理部141が発生させたイベント処理と、位置情報取得部144が取得する自機の現在位置の移動速度とを監視し、現在位置の移動速度が所定値以上であり、且つゲーム進行処理部141が発生させたイベント処理が予め定められた保留対象イベントである場合に、当該保留対象イベントの処理を保留させるモジュールであり、ゲーム進行処理部141は、保留対象イベントを保留させた状態で、他のイベント処理を発生させてゲームを進行させることができるようになっている。同期処理部142は、イベント規制部143が保留したイベント処理についてゲームサーバー3側のゲーム進行処理部141に通知し、イベント処理の発生要件を満たしたイベント処理が保留状態になったままゲームを進行していることをゲームサーバー3側に報告する。
位置情報取得部144は、現実世界における座標位置を選択して取得するモジュールであり、ユーザーの現在位置や他のユーザーの現在位置、人工衛星を利用した全地球測位システム (GPS:Global Positioning System)や、基地局からの電波強度及び基地局情報に基づく三角測位による基地局測位、WifiのSSID(Service SetID)及び電波状況と経度緯度を組み合わせたデータベースを利用したWifi測位等により取得する。
また、この位置情報取得部144は、ユーザー操作やゲーム進行によるイベント発生に基づく任意の座標位置を選択して、位置情報を取得したり、移動速度を測定したりすることができる。また、位置情報取得部144は、任意のオブジェクトの座標位置を取得する機能も備えており、各データベース35a~cを検索して、現在の座標位置、或いは仮想地図上の座標位置、又はこれらの変位履歴を取得することができる。
特に、この任意のオブジェクトとしては、当該ユーザーの代理となるオブジェクトが代理オブジェクトとして現実地図情報上又は仮想地図情報上の任意の位置に設置された位置を各データベース35a~cから検索して取得することができる。この代理オブジェクトは、ゲーム進行処理部36又は141によって、地図情報上の位置がゲーム進行に従って自動的に移動されるもので、特定のユーザーの現在位置と連動されたり、ゲーム進行に従って自動的に移動されたりする。
さらに、この位置情報取得部144による移動速度の測定では、スマートフォン1に備えられた加速度センサーからの検出信号により、瞬間的な移動も検知可能となっており、所定の値以上の加速度が生じたときには、ユーザーが移動中であると判定する。また、移動速度の測定では、例えばユーザーが乗り物に乗って高速移動しているときには、GPSの値の変化で移動中であると判定する。この高速移動に関し、地下鉄等の地下や駅構内において、GPS信号が受信できない場合には、Wifiや3G・4G等の基地局の切り替わりや電波受信状態の変化から位置情報が更新されるのを監視し、歩行による通常の移動よりも大きく位置情報が変化したときに、ユーザーの移動を判定する。なお、この基地局の切り替わり等による移動判定では、位置情報の変化が不連続となることから、移動が判定された後の一定時間(例えば5分程度)は移動中であるとするなど、基地局間の距離や電波の変化量に応じ、一定の幅を持たせてユーザーの移動距離、移動速度を予測する。
また、本実施形態において位置情報取得部144は移動経路記録部144aを備えており、この移動経路記録部144aは、位置情報取得部144が取得した、ユーザーの現在位置や、他のユーザーの現在位置、任意のオブジェクトの座標位置など、各ユーザー又はオブジェクトの変位履歴に基づいて移動経路や移動速度を算出して記録するモジュールである。この移動経路記録部144aによる移動経路の算出は、例えば、サンプリングされた各位置を時系列順に、隣接する2点間を最短距離で接続して移動経路を決定したり、地理情報を参照して2点間における道順に沿って経路を決定したりすることができる。
表示データ生成部146は、表示部13aに表示させるための表示データを生成するモジュールである。表示データは、グラフィックデータの他、画像データや、文字データ、動画データ、音声その他のデータを組み合わせて生成されるデータである。特に、本実施形態に係る表示データ生成部146は、位置情報取得部144が取得したユーザーの現在位置に基づいて、現実地図情報M1上にユーザーの現在位置を示した現実表示データを生成する現実表示データ生成部と、位置情報取得部144が取得した現在位置に基づいて、ユーザーの現在位置に対応した仮想地図情報M2上にキャラクターを表した仮想表示データを生成する仮想表示データ生成部の機能を果たしている。この表示データ生成部146で生成された表示データの表示処理は、表示制御部145で制御される。
この表示データ生成部146は、仮想地図情報生成部146aを備えており、この仮想地図情報生成部146aは、ゲーム進行処理部141によるゲーム進行に従って、図2に示すような、現実地図情報M1上の地理情報に対応した仮想地理情報上における他のユーザーのキャラクターや、オブジェクトO1~O3等の座標情報を含む仮想地図情報M2を生成するモジュールである。仮想地図情報生成部146aは、メモリ15やネットワーク上の現実地図データベース35aに蓄積された現実地図情報M1に含まれる地理的要素や建物、道路、鉄道等を取得するとともに、メモリ15やゲーム用データベース35cに蓄積されたマッピングデータを参照し、現実地図情報M1に対応した仮想世界の地図情報、キャラクターやオブジェクトの特性、イベント処理に関する情報、グラフィック情報などに基づいて、仮想世界の地図情報を生成する。図2に示した例では、現実地図情報M1上の建物B1~B3に対応した座標位置(座標範囲)にオブジェクトO1~O3が配置されている。
なお、本実施形態では、仮想地図情報M2をスマートフォン1側の仮想地図情報生成部146aで生成するようにしたが、ゲームサーバー3の仮想地図情報管理部37で、予め、或いはリアルタイムに、現実地図情報M1上の地理情報に対応した仮想地図情報M2を生成し、ゲームデータ配信部34によって各スマートフォン1に配信して、同期をとるようにしてもよい。
表示制御部145は、表示データ生成部146が生成した現実表示データと、仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示する制御を実行するモジュールであり、表示部13aは、この表示制御部145の制御に従って現実表示データと仮想表示データとを表示する。
また、本実施形態における表示制御部145は、軌跡表示部145aを備えている。この軌跡表示部145aは、移動経路記録部144aが記録した当該ユーザーの移動経路や、他のユーザーの移動経路、任意のオブジェクト移動経路を、現実地図情報M1上又は仮想地図情報M2上に軌跡として表示させるモジュールである。この軌跡表示部145aによる軌跡の表示は、例えば、サンプリングされた各位置を時系列順に、隣接する2点間を最短距離で接続して決定された移動経路を一定の幅を持たせて着色したり、地理情報を参照して2点間における道順に沿って決定された経路を一定の幅を持たせて着色したりすることができる。さらに、この軌跡表示部145aによる軌跡の表示では、現実地図情報M1上又は仮想地図情報M2上において、各ユーザーやオブジェクトの移動経路に近接する区画又はオブジェクトを軌跡の一部として着色して表示させるようにしてもよい。
この区画としては、実際の地理情報や仮想の地理情報に基づいて区画された行政区、街区、都道府県、市町村などのブロック単位で着色して表示させることもできる。このブロック単位での着色においても、隣接する2点間を最短距離で接続して決定された移動経路に接触するブロックを着色したり、地理情報を参照して2点間における道順に沿って決定された経路に接触するブロックを着色したりすることができる。
(ゲームシステム及びゲームプログラムによる表示制御)
次いで、本発明に係るゲーム用画像処理システム及びゲーム用画像処理プログラムによる画面の表示制御について説明する。図5~図9は本実施形態に係る表示制御の説明図である。
次いで、本発明に係るゲーム用画像処理システム及びゲーム用画像処理プログラムによる画面の表示制御について説明する。図5~図9は本実施形態に係る表示制御の説明図である。
前記表示制御部145は、タッチパネル12aが取得した操作信号によって指定された座標位置又はこの座標位置の移動に応じて、現実表示データW1と仮想表示データW2の表示を変化させる。具体的に、本実施形態に係るゲームシステムでは、現実地図情報M1に基づいて構成された仮想地図情報M2によって、仮想世界が構築されており、図7に示すように、スマートフォン1の表示部13aには仮想世界を3Dで表現した仮想表示データW2が表示される。この仮想表示データW2には、ユーザー自身を示すキャラクターC1が画面中央に表示され、その周辺にはモンスター等のオブジェクトO1~O3などが徘徊しているように表示されている。これらオブジェクトO1~O3は、図2に示したように、現実地図情報M1上の建物B1~B3に対応した座標位置(座標範囲)を徘徊するように配置されている。
タッチパネル12aでは、指などでタップしたりスワイプしたりすることにより、カメラ視点を移動させたり、拡大・縮小したりすることができる。そして、所定のゼスチャー操作をタッチパネル12aに施すことにより、現実表示データW1と、仮想表示データW2とを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示することができるようになっている。具体的には、図7に示したように、仮想表示データW2が表示された状態で、キャラクターC1を長押し(2秒程度)することによって、図8に示すように、ユーザー自身の現在位置を示すキャラクターC1周辺の円形の範囲に現実表示データW1が部分的に重畳されて表示される。この重畳されて表示された部分的な現実表示データW1は、画面から指を放すことによって元の仮想表示データW2のみの表示に戻すことができる。また、この現実表示データW1としては、例えば、図9に示すような衛星写真とすることもできる。
さらに、本実施形態において表示制御部145は、ゲーム進行処理部141によるゲームの進行に応じて、現実表示データW1と仮想表示データW2の表示又はその表示動作を変化させる機能を備えている。例えば、図10(a)及び(b)に示すように、ゲームの進行度合いに応じて、キャラクターC1周辺に現実表示データW1が部分的に重畳される円形範囲の半径rを変化させる。例えば、ユーザーが初心者で操作が不慣れである場合には、半径rを大きくし、ゲームが進行し難易度が上がるにつれて半径rが小さくなるなどの制御を行う。また、スマートフォン1が移動中であることを検出した場合には半径rが大きくなり、停止しているときには、半径rが小さくなるなどの制御を行ってもよい。
また、仮想表示データW2と現実表示データW1との表示切替の操作例としては、図11に示すように、画面の一端から他端に向けて、タッチした接触点を移動させるいわゆるスワイプ操作により、同図(a)から(c)に移行するように、ページが捲れるようなアニメーション効果を挿入して、仮想表示データW2と現実表示データW1とを切り替えるようにしてもよい。このとき、スワイプの方向を逆にすることにより、同図(c)から(a)に移行するようにして、元の仮想表示データW2に戻るようにしてもよい。
このような画面制御により、本実施形態によれば、実世界と仮想世界の地図表示の切り替えを簡単な操作で行えるようにし、操作性を高めつつ、実世界と仮想世界の地図を部分的に重畳させることによってゲームとしての娯楽性を向上させることができる。
(仮想表示データの生成処理)
上述した表示データ生成部146による仮想地図情報の生成処理について説明する。上述したように、表示データ生成部146は、ゲーム進行処理部36又は141によるゲーム進行に従って、現実地図情報上の地理情報に対応した仮想地図情報を生成し、仮想地図情報上における座標情報に基づいて、地図上に各オブジェクトを配置する。本実施形態では、現実地図情報から地図中の道路や河川、区画、その他の建物などの輪郭線を抽出して仮想地図情報のベースとなる地理情報を生成するとともに、この現実地図又は仮想地図中の地理情報を異なる縮尺で組み合わせて遠近感を再現した鳥瞰表示を行う。この仮想地図情報には、仮想現実世界の建物や構造物等のオブジェクトが配置されて立体的に表示される。
上述した表示データ生成部146による仮想地図情報の生成処理について説明する。上述したように、表示データ生成部146は、ゲーム進行処理部36又は141によるゲーム進行に従って、現実地図情報上の地理情報に対応した仮想地図情報を生成し、仮想地図情報上における座標情報に基づいて、地図上に各オブジェクトを配置する。本実施形態では、現実地図情報から地図中の道路や河川、区画、その他の建物などの輪郭線を抽出して仮想地図情報のベースとなる地理情報を生成するとともに、この現実地図又は仮想地図中の地理情報を異なる縮尺で組み合わせて遠近感を再現した鳥瞰表示を行う。この仮想地図情報には、仮想現実世界の建物や構造物等のオブジェクトが配置されて立体的に表示される。
以下に、各処理について説明する。図23は、本実施形態に係る輪郭線抽出処理の手順を示すフローチャート図であり、図24は、本実施形態に係る鳥瞰表示処理の手順を示すフローチャート図であり、図25は、実施形態に係るオブジェクト配置処理の手順を示すフローチャート図である。
(1)輪郭線抽出処理
先ず、図12~図16及び図23を参照しながら、現実地図情報から仮想地図情報に含まれる輪郭線の抽出処理の手順について説明する。なお、説明中、図12は、本実施形態における輪郭線抽出処理に係る現実地図情報を示す説明図であり、この図12に示した例では、現実地図情報M1中に、道路R1~R4で囲まれたエリアB10が掲載されているものとする。
先ず、図12~図16及び図23を参照しながら、現実地図情報から仮想地図情報に含まれる輪郭線の抽出処理の手順について説明する。なお、説明中、図12は、本実施形態における輪郭線抽出処理に係る現実地図情報を示す説明図であり、この図12に示した例では、現実地図情報M1中に、道路R1~R4で囲まれたエリアB10が掲載されているものとする。
図23に示すように、先ず、表示データ生成部146は、現実地図情報M1を取得する(S301)。この時点における現実地図情報M1は、現実世界における地理情報が既にビットマップ形式などによって地図画像となっている場合と、現実世界における地理情報が、座標や属性情報など、数値によってベクター状態或いはポリゴン状態で記述されている場合とがあり、画像化されている場合にはそのまま取得し、ベクター状態などの数値で表されている場合には、一旦ビットマップ化などにより地図画像に変換して取得する。
次いで、現実地図情報M1の地図画像を画像中の色の境界をぼかしてグラデーション処理を施すことで(図14)、現実地図情報に含まれる境界線を滲ませた輪郭生成用画像M11を生成する(S302)。この輪郭生成用画像M11では、画像中の道路R1~R4とエリアB10との境界をぼかすことで、道路R1~R4の黒色からエリアB10の白色へと、エリアB10a~B10cからなる、色が段階的に薄くなっていくグラデーションが形成されている。このグラデーションの処理としては、例えば、図13(a)~(c)に示すように、現実地図情報の画像中の任意の指定画素El0を含む、その周囲8点の画素El1の色の加重平均を算出して、その加重平均の色に着色し、指定画素El0とその周辺をぼかす処理を行う。これにより、異なる色の境界では、指定画素の周辺が滲んだ色となり、これを全ての画素について順次行うことによって、段階的に色が薄くなる(濃くなる)グラデーションが描かれることとなる。
次いで、図15に示すように、輪郭生成用画像M11と、現実地図情報中の地理情報との差分から輪郭線抽出画像M12を生成する(S303)。具体的には、輪郭生成用画像M11では、色の境界線がぼかされて、元の地理情報(図示した例では、道路R1~R4やエリアB10等)の色よりも薄い色によって縁取りがされた状態となっている。このため、現実地図情報中に含まれる元の地理情報のうち、所定の色の画素を差し引くことにより、ぼかされて縁取り部分となった画素のみを抽出して、輪郭線抽出画像M12を生成できる。ここでは、現実地図情報中の地理情報のうち、道路R1~R4の色の画素と、及びエリアB10中のある程度、元のエリアB10の色に近似する色の部分であるエリアB10a+B10bの画素とを、輪郭生成用画像M11中から差し引くことにより、道路R1~R4を縁取った輪郭が抽出された輪郭線抽出画像M12を生成している。
そして、この輪郭線抽出画像M12に基づいて、図18に示すような鳥瞰表示用の仮想表示データW2を生成し(S304)、地図上に木や建物などのオブジェクトOb10を配置して(S305)、図16に示すような仮想表示データW2を生成する。この輪郭線抽出画像M12に基づくオブジェクトOb10の配置は、輪郭生成用画像M11中に描かれたグラデーションを利用して実行される。
(2)鳥瞰表示処理
上述した仮想地図情報M2を表示する仮想表示データW2では、図20に示すような鳥瞰表示により三次元的に地図の方向や俯角を変化させることができる。この鳥瞰表示では、遠近法により目線の近傍が大きくはっきりと表示され、遠方に行くにつれ小さく霞んで見るように表示され、鳥瞰図表示の俯角によっては、地図の表示限界が地平線HLとして表示される。
上述した仮想地図情報M2を表示する仮想表示データW2では、図20に示すような鳥瞰表示により三次元的に地図の方向や俯角を変化させることができる。この鳥瞰表示では、遠近法により目線の近傍が大きくはっきりと表示され、遠方に行くにつれ小さく霞んで見るように表示され、鳥瞰図表示の俯角によっては、地図の表示限界が地平線HLとして表示される。
本実施形態では、この鳥瞰表示処理では、地図中央のユーザーの現在地周辺では、地図の縮尺を小さくして地理情報もより詳細に表示し、ユーザーから遠くなるにつれて、地図の縮尺を大きくし地理情報も省略して表示し、地図としての機能を担保しつつ、解像度を抑えることにより処理を軽減させると共に、遠近感をリアルに再現している。図24にこの輪郭線抽出処理の手順を示す。
先ず、図24に示すように、異なる縮尺・サイズの輪郭線抽出画像を生成する(S401)。この異なる縮尺・サイズの輪郭線抽出画像の生成は、上述した輪郭線抽出処理を、異なる縮尺の現実地図情報について実行することにより実現できる。そして、表示データ生成部146は、図21に示すように、所定の中心座標位置P0を中心として、縮尺の大きい(縮尺度の分母が小さい)詳細地図M21を上位のレイヤーに配置する(S402)。ここでは、縮尺の小さい(縮尺度の分母が大きい)低解像度地図M22,M23を下位のレイヤーに順次配置して仮想地図情報M2を生成している。結果的に、図22に示すように、仮想地図情報M2を表示する仮想表示データW2では、大縮尺の詳細地図M21の周囲に、詳細地図M21よりも段階的に縮尺が小さく且つ面積が広くなる複数の低解像度地図M22及びM23が同心状に配置される。
次いで、表示データ生成部146は、詳細地図M21と低解像度地図M22との境界部分M22a、及び低解像度地図M22と低解像度地図M23の境界部分M23aにおいて、一方の画像が他方の画像へ徐々に移行するクロスフェード処理を施しつつ(S403)、各レイヤーを合成して鳥瞰表示用の仮想地図情報を生成する(S404)。このクロスフェード処理では、上位にある高解像度地図の周縁の道路や河川、区画線等の透明度を徐々に高くしていきこれらの線が徐々に薄くなるようにし、下位にある低解像度地図が徐々に濃くなるようにして、上位の地図に表示されていた詳細な道路等の線がその重要度に応じて境界部分で徐々に消失され、中心座標位置P0から離れるにつれて、下位の低解像度地図に自然に移行するようになっている。
なお、上記ステップS401~S404の処理は現実地図情報についても実行し、鳥瞰表示用の現実地図情報を生成する。そして、このようにして異なる縮尺の地図を合成して生成された鳥瞰表示用の仮想地図情報若しくは現実地図情報を3D変形するとともに、遠方を霞ませるなどの画像処理を施して(S405)、鳥瞰表示処理を終了する。この際、地図上に表示される各オブジェクトは、鳥瞰表示のカメラ位置や視線の角度・方向に応じて、立体変形されて表示される。
(3)オブジェクト配置処理
上述したように、表示データ生成部146は、仮想地図情報M2上における座標上に、種々のオブジェクトを配置して表示する仮想表示データW2を生成する。基本的に、現実地図情報中の山や丘陵、河川、道路などの地形や、主立ったランドマークとなる建物の位置に対応させ、仮想的な背景オブジェクトOb10を配置する。さらに、本実施形態では、仮想地図情報の場面設定やゲーム進行に応じて、森の木々や、荒野の岩、草原の植物など、現実地図情報に詳細には含まれていないが、地図上の環境を表現したり、ゲームの演出上必要となる場合にも、背景オブジェクトOb10を自動的に仮想地図情報上に配置する。図25にこのオブジェクトの自動配置処理の手順を示す。
上述したように、表示データ生成部146は、仮想地図情報M2上における座標上に、種々のオブジェクトを配置して表示する仮想表示データW2を生成する。基本的に、現実地図情報中の山や丘陵、河川、道路などの地形や、主立ったランドマークとなる建物の位置に対応させ、仮想的な背景オブジェクトOb10を配置する。さらに、本実施形態では、仮想地図情報の場面設定やゲーム進行に応じて、森の木々や、荒野の岩、草原の植物など、現実地図情報に詳細には含まれていないが、地図上の環境を表現したり、ゲームの演出上必要となる場合にも、背景オブジェクトOb10を自動的に仮想地図情報上に配置する。図25にこのオブジェクトの自動配置処理の手順を示す。
このオブジェクトの自動配置処理では、上述した輪郭線抽出処理で生成した輪郭生成用画像M11に含まれる、境界線を段階的に滲ませたグラデーションを利用する。上述したように、表示データ生成部146は、現実地図情報M1の地図画像中の色の境界をぼかすことで、現実地図情報に含まれる境界線を滲ませた輪郭生成用画像M11を生成している。この輪郭生成用画像M11は、図17に示すように、画像中の道路R1~R4とエリアB10との境界がぼかされることで、エリアB10a~B10cのように、道路R1~R4の黒色からエリアB10の白色へと、色が段階的に薄くなっていくグラデーション画像となっている。このグラデーションの処理としては、例えば、図13(a)~(c)に示すように、現実地図情報の画像中の任意の指定画素El0を含む、その周囲8点の画素El1の色の平均を算出して、その平均の色に着色し、指定画素El0とその周辺をぼかす処理を行う。
そして、オブジェクト配置処理では、図25に示すように、グラデーション画像である輪郭生成用画像M11を解析し(S501)、輪郭生成用画像M11に対し、表示データ生成部146が、この輪郭生成用画像M11中における所定濃度の領域をオブジェクト配置可能エリアとして抽出する(S502)。次いで、現実地図情報を参照して、各オブジェクト配置可能エリアの属性に応じて背景オブジェクトOb10を配置する(S504)。例えば、そのエリアの属性が森林や公園などの緑地であれば、背景オブジェクトOb10として樹木を配置したりする。
なお、エリアの属性が不明であれば、ゲーム進行のストーリーに則して任意の背景オブジェクトを配置してもよい。これにより、図18に示すように、輪郭生成用画像M11中における元のエリアB10の色と同じ色のエリアB10aにのみ、例えば、木などのオブジェクトOb10を自動的に配置することができる。この結果、複雑な演算処理を行うことなく、輪郭生成用画像M11中の所定濃度領域を検出するという簡単な処理で、エリアB10等の区画内の中央付近にのみオブジェクトを自動的に配置することができる。
その後、背景以外のオブジェクト、例えば、キャラクターやゲーム進行上必要となるランドマークやキャラクターを配置する(S505)。なお、これらの背景以外のオブジェクトについては、そのオブジェクトの属性に応じて、オブジェクト配置可能エリア内に配置するようにしてもよく、オブジェクト配置可能エリアを無視して配置してもよい。
(軌跡表示処理)
本実施形態では、ユーザーが移動したり、特定のオブジェクトが移動することによって、その移動経路を地図上に軌跡として記録及び表示する機能を備えている。また、記録・表示された軌跡は、ユーザー操作やゲーム進行に従い、拡張して空白部分を塗りつぶすことことができる。この軌跡表示は、例えば、地図上の地域を軌跡によって塗りつぶすことによってその地域を「浄化」や「緑化」、「占領」するなどといったコンセプトで、ゲーム進行上の意味を持たせることができる。例えば、「浄化」した範囲を拡げることにより、そのユーザーの得点としてゲーム上の有利性を獲得させるなどが挙げられる。また、敵対するユーザーがこの軌跡の上を通過した場合には、軌跡が上書きされ、「占領」した地域が他のユーザーの手に渡ってしまうなど、ゲームの多様性・娯楽性を向上させることができる。
本実施形態では、ユーザーが移動したり、特定のオブジェクトが移動することによって、その移動経路を地図上に軌跡として記録及び表示する機能を備えている。また、記録・表示された軌跡は、ユーザー操作やゲーム進行に従い、拡張して空白部分を塗りつぶすことことができる。この軌跡表示は、例えば、地図上の地域を軌跡によって塗りつぶすことによってその地域を「浄化」や「緑化」、「占領」するなどといったコンセプトで、ゲーム進行上の意味を持たせることができる。例えば、「浄化」した範囲を拡げることにより、そのユーザーの得点としてゲーム上の有利性を獲得させるなどが挙げられる。また、敵対するユーザーがこの軌跡の上を通過した場合には、軌跡が上書きされ、「占領」した地域が他のユーザーの手に渡ってしまうなど、ゲームの多様性・娯楽性を向上させることができる。
上記軌跡表示処理では、位置情報取得部144が、任意のオブジェクトの座標位置を取得して記録し、軌跡表示部145aによって、移動経路記録部144aが記録した当該ユーザーの移動経路や、他のユーザーの移動経路、任意のオブジェクト移動経路を、現実地図情報M1上又は仮想地図情報M2上に軌跡として表示させる。
この軌跡表示部145aによる軌跡の表示は、例えば、図26に示すように、ユーザー(スマートフォン1a)がA地点からB地点に移動する場合、サンプリングされた各位置を時系列順に、図27(a)中に斜線で示したように、隣接する2点間を最短距離で接続して決定された移動経路を一定の幅を持たせて着色したり、地理情報を参照して、図27(b)中に斜線で示したように、2点間における道順に沿って決定された経路を一定の幅を持たせて着色したりすることができる。さらに、この軌跡表示部145aによる軌跡の表示では、図28に示すように、現実地図情報M1上又は仮想地図情報M2上において、各ユーザーやオブジェクトの移動経路に近接する区画又はオブジェクトを軌跡の一部として着色して表示させるようにしてもよい。
この区画としては、実際の地理情報や仮想の地理情報に基づいて区画された行政区、街区、都道府県、市町村などのブロック単位で着色して表示させることもできる。このブロック単位での着色においても、図28(a)中に斜線で示したように、隣接する2点間を最短距離で接続して決定された移動経路に接触するブロックを着色したり、図28(b)中に斜線で示したように、地理情報を参照して2点間における道順に沿って決定された経路に接触するブロックを着色したりすることができる。
(イベント保留処理)
次いで、イベント保留処理について説明する。本実施形態において、ゲーム進行処理部141は、例えば、現実地図情報M1上で所定の建物B1~B3などに接近すると、その建物B1~B3に対応した仮想地図情報M2の座標上に表されたモンスターなどの所定のオブジェクトO1~O3に接近又は遭遇したとしてイベント処理を実行する。
次いで、イベント保留処理について説明する。本実施形態において、ゲーム進行処理部141は、例えば、現実地図情報M1上で所定の建物B1~B3などに接近すると、その建物B1~B3に対応した仮想地図情報M2の座標上に表されたモンスターなどの所定のオブジェクトO1~O3に接近又は遭遇したとしてイベント処理を実行する。
このオブジェクトO1~O3とのイベント処理としては、それらのオブジェクトO1~O3との対戦バトルやミニゲームなどが挙げられる。本実施形態では、いわゆる歩きスマホを防止すべく、イベント発生領域を通過中に、モンスターと遭遇しイベント処理が発生した場合に、そのイベント処理を保留し、ユーザーが一定の場所に留まったときや、自宅又は目的地に到着した際に、保留したイベントを改めて開始させることができるようになっている。例えば、図11に例示するように、オブジェクトO1~O3がモンスターなどの仮想生命体や、アイテムであるときに、それらモンスターやアイテムが出現するイベント発生領域を通過し、モンスターと遭遇した場合、保留イベントである対戦バトルが発生する。このとき、モンスターを一旦捕獲したこととしてそのイベント処理を保留し、その状態のまま、ユーザーの移動に伴うゲーム進行を続行させ、ユーザーが帰宅した際に、イベント処理を改めて開始し、そのモンスターとの対戦や、アイテムを用いたミニゲームなどを再開させるようになっている。
このようなイベント保留処理について具体的に説明する。図10は、イベント保留処理の動作を示すシーケンス図である。
先ず、ゲーム進行に際し、周期的に各スマートフォン1において位置情報を取得してゲームサーバー3に送信する(S201及びS101)。ゲームサーバー3側では、この送信された各ユーザーの現在位置に従って、発生させるべきイベント処理を予測し(S102)、その発生条件をスマートフォン1側に送信する(S103)。
先ず、ゲーム進行に際し、周期的に各スマートフォン1において位置情報を取得してゲームサーバー3に送信する(S201及びS101)。ゲームサーバー3側では、この送信された各ユーザーの現在位置に従って、発生させるべきイベント処理を予測し(S102)、その発生条件をスマートフォン1側に送信する(S103)。
詳述すると、ゲームサーバー3側で取得された各ユーザーの現在位置に基づいて、ゲームサーバー3のゲーム進行処理部36が、他のユーザーのキャラクターの位置や、実世界の建物に対応したモンスター等のオブジェクトの位置などに基づいて、発生し得るイベント処理を予測し、その発生条件をゲームサーバー3側で発生させ、その条件をスマートフォン1側に送信する。
スマートフォン1側では、この発生条件を同期処理部142で受信し、その発生条件が満たされるタイミングを監視する(S202)。具体的には、スマートフォン1側においてイベント規制部143が、ゲーム進行処理部141から受信したイベント処理の発生条件と、位置情報取得部144が取得する自機の現在位置の移動速度とを監視し、ゲーム進行処理部141が発生させたイベント処理が予め定められた保留対象イベントであり(S204の「Y」)、且つユーザーの移動速度が所定値以上であり、移動している最中であると判断した場合(S205の「Y」)に、当該保留対象イベントの処理を保留させる(S206)。
なお、発生条件を満たしたイベント処理が保留対象イベントでなく(S204の「N」)、或いはユーザーが移動していない場合には(S205の「N」)、通常通りそのイベント処理を実行する(S207)。このステップS208において、保留されたイベント処理がある場合には、そのイベント処理が再開される。そして、このスマートフォン1側のゲーム進行処理部141で実行されたイベント処理(或いは再開された保留イベント処理)の結果(バトルやミニゲームの勝敗や得点等)は、同期処理部142を通じてゲームサーバー3側のゲーム進行処理部141に通知され(S208)、ゲームサーバー3側で同期処理がなされ(S104)、その実行されたイベント処理の結果が。後のゲーム進行処理に反映される。
一方、ステップS206でイベントを保留した場合、ゲーム進行処理部141は、保留対象イベントを保留させた状態で、他のイベント処理を発生させてゲームを進行させる(S105)。このとき、同期処理部142は、イベント規制部143が保留したイベント処理についてゲームサーバー3側のゲーム進行処理部141に通知し(S208)、イベント処理の発生要件を満たしたイベント処理が保留状態になったままゲームを進行していることをゲームサーバー3側に報告する。このイベント処理保留の報告を受けたゲームサーバー3側では、同期処理がなされ(S104)、そのイベント処理が保留された状態のまま、後のゲーム進行処理に反映される(S105)。
以上の処理は、ゲームが終了されるまで繰り返され(S209の「N」)、ゲーム処理の操作がなされたときに(S209の「Y」)、ゲームが終了される。なお、スマートフォン1側でアプリケーションを終了しても、ゲームサーバー3側でゲームを継続することも可能であり、自動的にイベント処理を保留して、スマートフォン1側でアプリケーションを再開したときに、保留イベントを再開するようにしてもよい。
このような、イベント保留機能によれば、ゲームとしての娯楽性を維持しつつ、移動中のイベント処理に対する複雑な操作や長時間の注視を防ぐことができ、歩きスマホの危険性を回避できる。
(ゲーム進行処理)
本実施形態では、ユーザーの移動距離に応じてポイントを発行し、ポイントに基づくイベントを発生させることによってゲームを進行させる機能を備えている。このポイントの発行及びゲーム進行は、ゲーム進行処理部36,141が協働して実行され、そのゲームの進行過程やポイントは、ユーザーデータベース35b及びゲーム用データベース35cに記録される。
本実施形態では、ユーザーの移動距離に応じてポイントを発行し、ポイントに基づくイベントを発生させることによってゲームを進行させる機能を備えている。このポイントの発行及びゲーム進行は、ゲーム進行処理部36,141が協働して実行され、そのゲームの進行過程やポイントは、ユーザーデータベース35b及びゲーム用データベース35cに記録される。
また、本実施形態では、ユーザーが移動した累積距離や地図上の特定施設へのアクセス回数に基づくゲームの進行に合わせて、特典イベントが発生し、その特典イベントによって登場するキャラクターが変化・発展するようになっている。例えば、図29(a)に示すように、ユーザー10aは、自宅(A地点)と最寄りの駅Stとの間を、通勤・通学等によって繰り返し往復しているとすると、上述した軌跡表示処理により、地点Aと駅Stとの間に軌跡が記録される。
本実施形態では、この通勤・通学経路の軌跡については通行回数に応じて色を濃く表示するようになっている。また、この軌跡の記録によって特定の施設(ここでは駅St)へのアクセス回数もカウントされ、そのアクセス頻度、或いはポイントの利用量に応じて、種々の特典イベントの利用が可能となる。この特典イベントでは、アクセス頻度に応じて自動的に発生し、その一例として、図29(b)に示すような、特典キャラクターが出現するようになる。
図示の例では、アクセス頻度の高い最寄りの駅Stに所定回数以上アクセスしたり、ポイントを利用(蓄積)したりした段階でイベントが発生され、その後は、ユーザー10aが駅Stにアクセスする度に、交通情報を知らせてくれるガイドが特典キャラクターとして出現し、現在の鉄道運行や通勤・通学先の天気や交通情報、関連ニュース、イベントスケジュールなどをメッセージ等で報知するようになる。この特典キャラクターとしては、このようなガイドの他、株価を報知する証券マン、飲食店のグルメ情報を報知するウェイトレス、各地域のニュースを報知するご当地キャラなど、その施設・地域の特性や時間帯等に合わせて種々のキャラクターが出現するようになっている。
図30は、本実施形態に係る上記ポイント発行処理の手順を示すフローチャート図である。図30に示すように、ユーザー1のスマートフォン1では、ゲームプログラムの実行中、常時或いは定期的に位置情報の取得処理及び移動速度の算出処理を実行しゲームサーバー3に報告する(S601)。具体的には、位置情報取得部144が、加速度センサーによる検出値や、ユーザーの現在位置の変位、GPSによる緯度・経度、基地局からの電波強度及び基地局情報に基づく三角測位による基地局測位、WifiのSSID(Service SetID)及び電波状況と経度緯度を組み合わせたデータベースを利用したWifi測位等による基地局測位の変化を位置情報として取得する。
ユーザー端末から位置情報の報告を受けたゲームサーバー3では、ユーザー毎の累積経路を記録し(S701)、ユーザー毎の移動量(累積移動距離)を算出して蓄積している。この移動量が一定以上蓄積されるまで、累積経路の記録を継続し(S702における「N」)、一定上の移動量が蓄積されると(S702における「Y」)、その移動量に応じたポイント数が価値情報として発行される(S703)。この発行されたポイントは、ユーザーのスマートフォン1側でダウンロード等により受領される(S602)。
ユーザーのスマートフォン1側では、受領したポイントを貯めたり、アイテムの購入などに使用したりすることができる。ポイントが一定量蓄積されるまで移動量に応じたポイント発行を繰り返し(S603における「N」)、ポイントが一定量以上蓄積すると(S603における「Y」)、種々の特典イベントの利用が可能となる。この特典イベントはポイント数に応じて選択的に利用が可能となり、ユーザーが利用可能な特典イベントを任意に選択し、利用要求の操作により実行される。この利用要求の操作は、ポイント数に応じたイベント規制解除処理に基づいて行われる。
ユーザーがイベント規制を解除すると、それに伴いイベントが進展され(S605)、その旨がゲームサーバー3に報告される(S605)。このイベント進展報告を受けたゲーム側では、進展されたイベントに基づいてゲームを進行させる処理を実行する(S704)。以上のポイント発行と、その蓄積及びポイント利用によるイベント進展をゲームが終了するまで(S606及びS705における「Y」)繰り返すことができる(S606及びS705における「N」)。
(ゲーム進行規制処理)
本実施形態では、ユーザーによるいわゆる歩きスマホを検出してゲームの進行を規制する機能を備えている。図31は、本実施形態に係るゲーム進行規制処理の手順を示すフローチャート図である。また、図32は、本実施形態に係る移動情報取得処理及び移動速度算出処理の手順を示すフローチャート図であり、図33は、この移動情報取得処理及び移動速度算出処理の一例を示す説明図である。
本実施形態では、ユーザーによるいわゆる歩きスマホを検出してゲームの進行を規制する機能を備えている。図31は、本実施形態に係るゲーム進行規制処理の手順を示すフローチャート図である。また、図32は、本実施形態に係る移動情報取得処理及び移動速度算出処理の手順を示すフローチャート図であり、図33は、この移動情報取得処理及び移動速度算出処理の一例を示す説明図である。
図31に示すように、ユーザーのスマートフォン1では、ゲームプログラムの実行中、常時或いは定期的に位置情報の取得処理及び移動速度の算出処理を実行する(S801)。このステップS801における位置情報の取得処理及び移動速度の算出処理について詳述すると、図32に示すように、先ず、各種検出値を位置情報として取得する(S1001)。具体的には、位置情報取得部144が、加速度センサーによる検出値や、ユーザーの現在位置の変位、GPSによる緯度・経度、基地局からの電波強度及び基地局情報に基づく三角測位による基地局測位、WifiのSSID(Service SetID)及び電波状況と経度緯度を組み合わせたデータベースを利用したWifi測位等による基地局測位の変化を位置情報として取得する。
このステップS1001で取得された位置情報のうち、スマートフォン1に備えられた加速度センサーからの検出信号の値を所定のしきい値と比較し、加速度が一定値以上であるか否かを判断する(S1002)。所定の値以上の加速度が生じたときには(ステップS1002における「Y」)、その加速度の検出値から移動速度及び移動距離を算出し(S1005)、その算出値を図31のステップS802に返す。例えば、図33に示すように、ユーザー10aが地上や屋外において、停止状態から歩き始めたときには、この歩き始めた加速度によりユーザーの移動を検出することができる。
一方、このステップS1002において、加速度が一定値に満たない場合(ステップS1002における「N」)であっても、例えばユーザーが乗り物に乗って等速移動していることもあり得ることから、GPS等の他の検出値の変化を解析する必要がある。ところが、図33中に示すように、地下鉄の駅構内や建物内などの地下や屋内にいるときには、GPS信号が受信できないことがあり得る。そのため、GPS信号が受信できるか否かを判断し(S1003)、GPS信号が受信可能であるときには(ステップS1003における「Y」)、そのGPS信号の緯度・経度の変位から移動速度及び移動距離を算出し(S1005)、その算出値を図31のステップS802に返す。
他方、GPS信号が受信できないときには(ステップS1003における「N」)、基地局測位ができるか否かを判断し(S1004)、基地局測位が可能であるときには(ステップS1004における「Y」)、その基地局測位の変化、例えばwifi基地局WS1からWS2への切替時などのハンドオーバーを検知する。すなわち、wifi基地局WS1からWS2へ切り替わったことにより、測位に不連続点が生じ、現在位置の変位が瞬時に数メートル移動することがあり、この不連続点間の移動速度及び移動距離をそのまま算出し(S1005)、その算出値を図31のステップS802に返す。なお、上記ステップS1001で取得された位置情報のいずれにおいても測位が不可能であるときには(ステップS1004における「N」)、測位が可能となるまで、位置情報の取得以降のステップS1001~S1004をループ処理により繰り返す。
図31に戻り、ステップS802において、ステップS801により算出された移動速度・移動距離が一定値以上か否かを判断する。具体的には、ステップS801により算出された移動速度・移動距離が、歩行による通常の移動よりも上回るか否かを判定し、通常の移動よりも速く且つ大きく動いているときには(ステップS802における「Y」)、ユーザーが歩きスマホをしていると判定する(S803)。なお、このステップS802の判断では、ステップS801における移動速度又は移動距離の算出が、基地局測位に基づくものであるときには、移動が判定された後の一定時間(例えば5分程度)は移動中であると予測して歩きスマホの判定を一時保留する。この保留時間は、基地局間の距離や電波の変化量に応じて逐次設定され、この保留時間を経過してもなお移動中である場合に、ステップS803の判定を実行する。
ステップS803で歩きスマホが発生していると判定されると、それに応じたイベント進行規制及び機能制限が実行される(S804)。このユーザーのスマートフォン1側におけるイベント進行規制や機能制限は、ゲームサーバー3側へ報告され(S805)、この報告を受けてゲームサーバー3側では、ゲーム進行を規制する処理が実行される(S901)。このゲーム進行規制として、本実施形態では、上述したポイント発行率がこの後一定期間低減されたり、既に発行済みのポイントを没収したりすることが行われる(S902)。また、上述した特定イベントの発生率が低減されたり、イベントの進展速度が低減され、ゲームの進行が遅くなるように規制される(S903)。以上の歩きスマホ監視及びそれに伴うゲーム進行規制をゲームが終了するまで(S806及びS904における「Y」)繰り返し実行する(S806及びS904における「N」)。
(作用・効果)
以上説明したように、本実施形態によれば、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムにおいて、実世界と仮想世界の地図表示の切り替えに関し、操作性を高めつつ、ゲームとしての娯楽性を向上させ、さらには歩きスマホの危険性も回避できる。
以上説明したように、本実施形態によれば、仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムにおいて、実世界と仮想世界の地図表示の切り替えに関し、操作性を高めつつ、ゲームとしての娯楽性を向上させ、さらには歩きスマホの危険性も回避できる。
B1~B3…建物
C1…キャラクター
M1…現実地図情報
M11…輪郭生成用画像
M12…輪郭線抽出画像
M2…仮想地図情報
M22,M23…低解像度地図
M22a,M23a…境界部分
O1~O3…オブジェクト
Ob10…背景オブジェクト
SC…特典キャラクター
W1…現実表示データ
W2…仮想表示データ
1(1a,1b)…スマートフォン
2…インターネット
3…ゲームサーバー
10a,10b…ユーザー
11…通信インターフェース
12…入力インターフェース
12a…タッチパネル
13…出力インターフェース
13a…表示部
14…アプリケーション実行部
15…メモリ
21…衛星
22…無線基地局
31…通信インターフェース
32…位置情報管理部
33…認証部
34…ゲームデータ配信部
35a…現実地図データベース
35b…ユーザーデータベース
35c…ゲーム用データベース
36…ゲーム進行処理部
37…仮想地図情報管理部
141…ゲーム進行処理部
142…同期処理部
143…イベント規制部
144…位置情報取得部
145…表示制御部
146…表示データ生成部
C1…キャラクター
M1…現実地図情報
M11…輪郭生成用画像
M12…輪郭線抽出画像
M2…仮想地図情報
M22,M23…低解像度地図
M22a,M23a…境界部分
O1~O3…オブジェクト
Ob10…背景オブジェクト
SC…特典キャラクター
W1…現実表示データ
W2…仮想表示データ
1(1a,1b)…スマートフォン
2…インターネット
3…ゲームサーバー
10a,10b…ユーザー
11…通信インターフェース
12…入力インターフェース
12a…タッチパネル
13…出力インターフェース
13a…表示部
14…アプリケーション実行部
15…メモリ
21…衛星
22…無線基地局
31…通信インターフェース
32…位置情報管理部
33…認証部
34…ゲームデータ配信部
35a…現実地図データベース
35b…ユーザーデータベース
35c…ゲーム用データベース
36…ゲーム進行処理部
37…仮想地図情報管理部
141…ゲーム進行処理部
142…同期処理部
143…イベント規制部
144…位置情報取得部
145…表示制御部
146…表示データ生成部
Claims (10)
- 仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を発生させてゲームを進行させるためのゲーム用画像処理システムであって、
前記種々のイベント処理を発生させてゲームを進行させるゲーム進行処理部と、
現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部と、
前記ゲーム進行処理部によるゲーム進行に従って、前記現実地図情報上の地理情報に対応した仮想地理情報上における前記オブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、
現実世界における前記ユーザーの現在の座標位置及びその変位を取得する位置情報取得部と、
前記位置情報取得部が取得したユーザーの現在の座標位置及びその変位に基づいて、前記現実地図情報上に前記座標位置を示した現実表示データを生成する現実表示データ生成部と、
前記位置情報取得部が取得した前記座標位置に基づいて、前記座標位置に対応した前記仮想地図情報上に前記キャラクターを表した仮想表示データを生成する仮想表示データ生成部と、
前記現実表示データ生成部が生成した前記現実表示データと、前記仮想表示データ生成部が生成した前記仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示させる表示制御部と
を備え、
前記ゲーム進行処理部は、前記座標位置の移動に応じて、ゲームの進行を規制する
ことを特徴とするゲームシステム。 - 前記ゲーム進行処理部は、前記ゲームを進行に伴って価値情報を前記ユーザーに付与するとともに、前記位置情報取得部が取得した現在位置及びその変位に基づき、前記価値情報を付与する機会又は付与価値を低減するか、或いは付与済みの前記価値情報を没収する
ことを特徴とする請求項1に記載のゲームシステム。 - 前記表示制御部は、前記ゲーム進行処理部による前記ゲームの進行の規制に応じて、前記現実表示データ及び/又は前記仮想表示データの表示又はその表示動作を規制する
ことを特徴とする請求項1又は2に記載のゲームシステム。 - 前記ゲーム進行処理部が発生させたイベント処理と、前記位置情報取得部が取得する現在位置の移動速度とを監視し、前記現在位置の移動速度が所定値以上であり、且つ前記ゲーム進行処理部が発生させたイベント処理が予め定められた保留対象イベントである場合に、当該保留対象イベントの処理を保留させるイベント規制部をさらに備え、
前記ゲーム進行処理部は、前記保留対象イベントを保留させた状態で、他のイベント処理を発生させて前記ゲームを進行させる
ことを特徴とする請求項1に記載のゲームシステム。 - 前記価値情報は、前記現実地図情報又は前記仮想地図情報上における所定の座標位置、範囲又は経路のいずれかに紐付けられた特典情報を取得する権利であり、各特典情報には、その権利の取得条件として、前記座標位置、範囲又は経路のいずれかに対するアクセス頻度が所定値以上となっていることを特徴とする請求項2に記載のゲームシステム。
- 仮想世界において、ユーザーに対応するキャラクター及びその他のオブジェクトが移動して、種々のイベント処理を実行させてゲームを進行させるゲームシステムで用いられるゲームプログラムであって、前記ユーザーが使用する携帯端末装置を、
前記種々のイベント処理を発生させてゲームを進行させるゲーム進行処理部と、
現実世界における地理情報を含む現実地図情報を記憶する現実地図記憶部と、
前記ゲーム進行処理部によるゲーム進行に従って、前記現実地図情報上の地理情報に対応した仮想地理情報上における前記オブジェクトの座標情報を含む仮想地図情報を生成する仮想地図情報生成部と、
現実世界における前記ユーザーの現在の座標位置及びその変位を取得する位置情報取得部と、
前記位置情報取得部が取得したユーザーの現在の座標位置及びその変位に基づいて、前記現実地図情報上に前記座標位置を示した現実表示データを生成する現実表示データ生成部と、
前記位置情報取得部が取得した前記座標位置に基づいて、前記座標位置に対応した前記仮想地図情報上に前記キャラクターを表した仮想表示データを生成する仮想表示データ生成部と、
前記現実表示データ生成部が生成した前記現実表示データと、前記仮想表示データ生成部が生成した前記仮想表示データとを、これら表示データの両方、選択されたいずれか、又は一方の一部分を他方に重畳させて表示させる表示制御部
として機能させ、
前記ゲーム進行処理部は、前記座標位置の移動に応じて、ゲームの進行を規制する
ことを特徴とするゲームプログラム。 - 前記ゲーム進行処理部は、前記ゲームを進行に伴って価値情報を前記ユーザーに付与するとともに、前記位置情報取得部が取得した現在位置及びその変位に基づき、前記価値情報を付与する機会又は付与価値を低減するか、或いは付与済みの前記価値情報を没収することを特徴とする請求項6に記載のゲームプログラム。
- 前記表示制御部は、前記ゲーム進行処理部による前記ゲームの進行の規制に応じて、前記現実表示データ及び/又は前記仮想表示データの表示又はその表示動作を規制する
ことを特徴とする請求項6又は7に記載のゲームプログラム。 - 前記携帯端末装置を、
前記ゲーム進行処理部が発生させたイベント処理と、前記位置情報取得部が取得する現在位置の移動速度とを監視し、前記現在位置の移動速度が所定値以上であり、且つ前記ゲーム進行処理部が発生させたイベント処理が予め定められた保留対象イベントである場合に、当該保留対象イベントの処理を保留させるイベント規制部としてさらに機能させ、
前記ゲーム進行処理部は、前記保留対象イベントを保留させた状態で、他のイベント処理を発生させて前記ゲームを進行させる
ことを特徴とする請求項6に記載のゲームプログラム。 - 前記価値情報は、前記現実地図情報又は前記仮想地図情報上における所定の座標位置、範囲又は経路のいずれかに紐付けられた特典情報を取得する権利であり、各特典情報には、その権利の取得条件として、前記座標位置、範囲又は経路のいずれかに対するアクセス頻度が所定値以上となっていることを特徴とする請求項7に記載のゲームプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017552285A JP6404490B2 (ja) | 2015-11-27 | 2016-07-26 | ゲームシステム及びゲームプログラム |
US15/779,084 US10357717B2 (en) | 2015-11-27 | 2016-07-26 | Game system and game program |
CN201680080604.9A CN108601978B (zh) | 2015-11-27 | 2016-07-26 | 游戏系统以及游戏程序 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-231330 | 2015-11-27 | ||
JP2015231330 | 2015-11-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017090274A1 true WO2017090274A1 (ja) | 2017-06-01 |
Family
ID=58763082
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/071930 WO2017090274A1 (ja) | 2015-11-27 | 2016-07-26 | ゲームシステム及びゲームプログラム |
PCT/JP2016/071929 WO2017090273A1 (ja) | 2015-11-27 | 2016-07-26 | ゲーム用オブジェクト制御システム及びプログラム |
PCT/JP2016/071928 WO2017090272A1 (ja) | 2015-11-27 | 2016-07-26 | ゲーム用画像処理システム及びプログラム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/071929 WO2017090273A1 (ja) | 2015-11-27 | 2016-07-26 | ゲーム用オブジェクト制御システム及びプログラム |
PCT/JP2016/071928 WO2017090272A1 (ja) | 2015-11-27 | 2016-07-26 | ゲーム用画像処理システム及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (3) | US10357717B2 (ja) |
JP (3) | JP6404489B2 (ja) |
CN (3) | CN108601978B (ja) |
WO (3) | WO2017090274A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019009260A1 (ja) * | 2017-07-03 | 2019-01-10 | 大日本印刷株式会社 | 回折光学素子、光照射装置、照射パターンの読取り方法 |
JP2020511048A (ja) * | 2017-07-18 | 2020-04-09 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | バーチャルプロップ割り当て方法、サーバー、クライアント及び記憶媒体 |
CN111201068A (zh) * | 2017-10-31 | 2020-05-26 | 多玩国株式会社 | 位置游戏用接口系统、程序以及控制方法 |
WO2020261336A1 (ja) * | 2019-06-24 | 2020-12-30 | ガンホー・オンライン・エンターテイメント株式会社 | サーバ装置、プログラム、方法及び端末装置 |
WO2021166863A1 (ja) * | 2020-02-21 | 2021-08-26 | 株式会社セガ | プログラム及び情報処理装置 |
JP2022105573A (ja) * | 2017-12-08 | 2022-07-14 | ブラザー工業株式会社 | 画像処理プログラム、情報処理装置および画像処理方法 |
JP2022153229A (ja) * | 2021-03-29 | 2022-10-12 | ナイアンティック, インコーポレイテッド | 拡張現実環境におけるマルチユーザルート追跡 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6447644B2 (ja) * | 2017-02-16 | 2019-01-09 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
WO2018186178A1 (ja) * | 2017-04-04 | 2018-10-11 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP6279136B1 (ja) * | 2017-08-15 | 2018-02-14 | 株式会社テクテック | 位置ゲームにおけるオブジェクト制御システム、プログラム及び方法 |
JP6823731B2 (ja) * | 2017-10-31 | 2021-02-03 | 株式会社ドワンゴ | 入力インターフェースシステム及び位置ゲームシステム |
JPWO2019130864A1 (ja) * | 2017-12-28 | 2021-01-28 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US11029809B2 (en) * | 2018-05-10 | 2021-06-08 | Citrix Systems, Inc. | System for displaying electronic mail metadata and related methods |
JP7011721B2 (ja) * | 2018-08-17 | 2022-01-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法及びプログラム |
US11241624B2 (en) * | 2018-12-26 | 2022-02-08 | Activision Publishing, Inc. | Location-based video gaming with anchor points |
JP7376762B2 (ja) * | 2019-02-15 | 2023-11-09 | 株式会社Mixi | 空間情報処理装置,情報処理装置の制御プログラム |
JP6588177B1 (ja) * | 2019-03-07 | 2019-10-09 | 株式会社Cygames | 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム |
CN114008530B (zh) * | 2019-07-16 | 2024-05-31 | Asml荷兰有限公司 | 光源及控制方法;用于测量应用的装置和方法 |
CN110688018B (zh) * | 2019-11-05 | 2023-12-19 | 广东虚拟现实科技有限公司 | 虚拟画面的控制方法、装置、终端设备及存储介质 |
CN110898435A (zh) * | 2019-11-19 | 2020-03-24 | 北京达佳互联信息技术有限公司 | 游戏资源投放方法、装置、服务器及存储介质 |
US11446575B2 (en) * | 2019-12-11 | 2022-09-20 | PlayerUnknown Productions, B.V. | Machine learned ground coverage for virtual gaming environment |
JP6763494B1 (ja) * | 2020-02-21 | 2020-09-30 | 株式会社セガ | プログラム及び情報処理装置 |
JP6763495B1 (ja) * | 2020-02-21 | 2020-09-30 | 株式会社セガ | プログラム及び情報処理装置 |
CN111760290B (zh) * | 2020-06-11 | 2024-06-14 | 网易(杭州)网络有限公司 | 一种信息处理方法、装置、计算机设备和存储介质 |
JP7185670B2 (ja) * | 2020-09-02 | 2022-12-07 | 株式会社スクウェア・エニックス | ビデオゲーム処理プログラム、及びビデオゲーム処理システム |
CN112057848B (zh) * | 2020-09-10 | 2024-09-03 | 网易(杭州)网络有限公司 | 游戏中的信息处理方法、装置、设备及存储介质 |
CN112349228B (zh) * | 2020-11-09 | 2022-03-15 | 成都中科大旗软件股份有限公司 | 基于5g的景区导游导览系统 |
CN112509131B (zh) * | 2020-11-20 | 2022-12-06 | 上海莉莉丝网络科技有限公司 | 游戏地图内地图区域边界的渲染方法、系统及计算机可读存储介质 |
CN112884883B (zh) * | 2021-01-25 | 2024-05-10 | 深圳市其乐游戏科技有限公司 | 游戏赛道的自动生成方法、终端及存储介质 |
CN112891940B (zh) * | 2021-03-16 | 2024-01-09 | 天津亚克互动科技有限公司 | 图像数据处理方法及装置、存储介质、计算机设备 |
US11590421B2 (en) | 2021-03-29 | 2023-02-28 | Niantic, Inc. | Travel of virtual characters |
KR102521921B1 (ko) * | 2021-04-26 | 2023-04-14 | (주) 로완 | 로드뷰를 통한 귀가길 게임에서 인지능력을 향상시키는 방법 및 장치 |
CN115400432A (zh) * | 2022-08-30 | 2022-11-29 | 网易(杭州)网络有限公司 | 游戏副本的进入方法、装置、电子设备及计算机可读介质 |
JP7571267B1 (ja) | 2023-12-13 | 2024-10-22 | 株式会社コロプラ | プログラムおよび情報処理システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003000940A (ja) * | 2001-06-20 | 2003-01-07 | Enix Corp | ビデオゲーム装置、記録媒体およびプログラム |
JP2004254721A (ja) * | 2003-02-24 | 2004-09-16 | Nintendo Co Ltd | ゲーム装置およびゲームプログラム |
JP2005034216A (ja) * | 2003-07-16 | 2005-02-10 | Konami Computer Entertainment Japan Inc | ゲームプログラム及びゲーム装置 |
JP2008228941A (ja) * | 2007-03-20 | 2008-10-02 | Konami Digital Entertainment:Kk | ゲーム装置、進行制御方法、および、プログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3551856B2 (ja) * | 1999-09-08 | 2004-08-11 | セイコーエプソン株式会社 | 仮想的な世界を表示するシステムおよび方法 |
JP2002273053A (ja) * | 2001-03-16 | 2002-09-24 | Namco Ltd | 位置検出装置を用いたゲーム装置および記憶媒体 |
JP2003305276A (ja) * | 2002-02-18 | 2003-10-28 | Space Tag Inc | ゲームシステム、ゲーム装置、および記録媒体 |
US8458028B2 (en) * | 2002-10-16 | 2013-06-04 | Barbaro Technologies | System and method for integrating business-related content into an electronic game |
JP4079358B2 (ja) * | 2002-12-06 | 2008-04-23 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム制御方法、及びプログラム |
CN1767546B (zh) * | 2004-10-30 | 2011-08-03 | 华为技术有限公司 | 一种游戏系统和游戏平台及在游戏中应用位置信息的方法 |
TW200623897A (en) * | 2004-12-02 | 2006-07-01 | Seiko Epson Corp | Image display method, image display device, and projector |
JP4118920B2 (ja) * | 2006-02-22 | 2008-07-16 | 株式会社スクウェア・エニックス | ゲーム装置、フィールド間境界表示方法、並びにプログラム及び記録媒体 |
US9555334B2 (en) * | 2006-12-13 | 2017-01-31 | Qualcomm Incorporated | System and method for managing virtual worlds mapped to real locations in a mobile-enabled massively multiplayer online role playing game (MMORPG) |
WO2009028690A1 (ja) * | 2007-08-30 | 2009-03-05 | Camelot Co., Ltd. | ゲーム装置、ゲームプログラム及びゲーム装置の制御方法 |
JP2009134394A (ja) * | 2007-11-29 | 2009-06-18 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US20090149250A1 (en) * | 2007-12-07 | 2009-06-11 | Sony Ericsson Mobile Communications Ab | Dynamic gaming environment |
US20090227374A1 (en) * | 2008-03-05 | 2009-09-10 | Motorola, Inc. | Seamless mobility of location-based gaming across virtual and physical worlds |
CN101380517A (zh) * | 2008-10-21 | 2009-03-11 | 王治国 | 一种网络游戏系统 |
JP2012016539A (ja) * | 2010-07-09 | 2012-01-26 | Bandai Co Ltd | ゲーム端末及びそのプログラム、及び当該ゲーム端末を用いたゲームシステム |
JP5939733B2 (ja) * | 2010-10-15 | 2016-06-22 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法 |
JP5848512B2 (ja) * | 2011-03-31 | 2016-01-27 | 株式会社ゼンリンデータコム | ナビゲーション装置、端末装置及びサーバシステム及びプログラム |
US9669311B2 (en) * | 2011-06-07 | 2017-06-06 | Nike, Inc. | Virtual performance system |
JP2013228770A (ja) * | 2012-04-24 | 2013-11-07 | Yahoo Japan Corp | 画像処理装置、方法及びプログラム |
EP2953099B1 (en) * | 2013-02-01 | 2019-02-13 | Sony Corporation | Information processing device, terminal device, information processing method, and programme |
JP2014200672A (ja) * | 2013-10-09 | 2014-10-27 | 株式会社 ディー・エヌ・エー | サーバー装置、及び、プログラム |
JP2015196091A (ja) * | 2014-04-02 | 2015-11-09 | アップルジャック 199 エル.ピー. | アバターが仮想環境内でプレイヤーを表すためのセンサベースのゲームシステム |
-
2016
- 2016-07-26 CN CN201680080604.9A patent/CN108601978B/zh active Active
- 2016-07-26 JP JP2017552284A patent/JP6404489B2/ja active Active
- 2016-07-26 CN CN201680080272.4A patent/CN108601977B/zh active Active
- 2016-07-26 WO PCT/JP2016/071930 patent/WO2017090274A1/ja active Application Filing
- 2016-07-26 US US15/779,084 patent/US10357717B2/en active Active
- 2016-07-26 JP JP2017552285A patent/JP6404490B2/ja active Active
- 2016-07-26 WO PCT/JP2016/071929 patent/WO2017090273A1/ja active Application Filing
- 2016-07-26 CN CN201680080225.XA patent/CN108601976B/zh active Active
- 2016-07-26 JP JP2017552283A patent/JP6404488B2/ja active Active
- 2016-07-26 WO PCT/JP2016/071928 patent/WO2017090272A1/ja active Application Filing
-
2018
- 2018-05-25 US US15/989,180 patent/US10188948B2/en active Active
- 2018-05-25 US US15/989,181 patent/US10188949B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003000940A (ja) * | 2001-06-20 | 2003-01-07 | Enix Corp | ビデオゲーム装置、記録媒体およびプログラム |
JP2004254721A (ja) * | 2003-02-24 | 2004-09-16 | Nintendo Co Ltd | ゲーム装置およびゲームプログラム |
JP2005034216A (ja) * | 2003-07-16 | 2005-02-10 | Konami Computer Entertainment Japan Inc | ゲームプログラム及びゲーム装置 |
JP2008228941A (ja) * | 2007-03-20 | 2008-10-02 | Konami Digital Entertainment:Kk | ゲーム装置、進行制御方法、および、プログラム |
Non-Patent Citations (4)
Title |
---|
"Ingress] Cho Wakariyasui Gamen (Scanner) no Mikata", APPBANK, 23 December 2014 (2014-12-23), pages 1 - 3, Retrieved from the Internet <URL:http://www.appbank.net/2014/12/23/iphone-application/951105.php> [retrieved on 20161019] * |
"Real Map Ryodo Kakudai MMO RPG Koko ni Kiwamareri?", PARALLEL KINGDOM AOT' GA UPDATE & PLAY KANO NI, TABLOID, 27 May 2012 (2012-05-27), pages 1 - 6, Retrieved from the Internet <URL:http://www.tabroid.jp/app/games/2012/05/com.silvermoon.client.html> [retrieved on 20161019] * |
KDDI: "Hokochu no Dosa Dake o Kanchi shite Keikoku suru 'Aruki Sumaho Chui Apuri' Teikyo Kaishi", ITMEDIA, 17 July 2014 (2014-07-17), pages 1 - 4, Retrieved from the Internet <URL:http://www.itmedia.co.jp/mobile/articles/1407/17/news117.html> [retrieved on 20161019] * |
pages 1 - 8, Retrieved from the Internet <URL:https://ja.wikipedia.org/w/index.php?title=Ingress&oldid=57085590> [retrieved on 20161019] * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019009260A1 (ja) * | 2017-07-03 | 2020-04-30 | 大日本印刷株式会社 | 回折光学素子、光照射装置、照射パターンの読取り方法 |
WO2019009260A1 (ja) * | 2017-07-03 | 2019-01-10 | 大日本印刷株式会社 | 回折光学素子、光照射装置、照射パターンの読取り方法 |
JP2020511048A (ja) * | 2017-07-18 | 2020-04-09 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | バーチャルプロップ割り当て方法、サーバー、クライアント及び記憶媒体 |
US11228811B2 (en) | 2017-07-18 | 2022-01-18 | Tencent Technology (Shenzhen) Company Limited | Virtual prop allocation method, server, client, and storage medium |
CN111201068A (zh) * | 2017-10-31 | 2020-05-26 | 多玩国株式会社 | 位置游戏用接口系统、程序以及控制方法 |
US11033810B2 (en) | 2017-10-31 | 2021-06-15 | Dwango Co., Ltd. | Interface system, program and control method for location game |
JP7248171B2 (ja) | 2017-12-08 | 2023-03-29 | ブラザー工業株式会社 | 画像処理プログラム、情報処理装置および画像処理方法 |
JP2022105573A (ja) * | 2017-12-08 | 2022-07-14 | ブラザー工業株式会社 | 画像処理プログラム、情報処理装置および画像処理方法 |
WO2020261336A1 (ja) * | 2019-06-24 | 2020-12-30 | ガンホー・オンライン・エンターテイメント株式会社 | サーバ装置、プログラム、方法及び端末装置 |
US11013996B2 (en) | 2019-06-24 | 2021-05-25 | GungHo Online Entertainment, Inc. | Server apparatus, program, method, and terminal device |
JP6877555B1 (ja) * | 2019-06-24 | 2021-05-26 | ガンホー・オンライン・エンターテイメント株式会社 | サーバ装置、プログラム、方法及び端末装置 |
WO2021166863A1 (ja) * | 2020-02-21 | 2021-08-26 | 株式会社セガ | プログラム及び情報処理装置 |
US11833432B2 (en) | 2020-02-21 | 2023-12-05 | Sega Corporation | Instructions and information processing device for gaming |
US11590423B2 (en) | 2021-03-29 | 2023-02-28 | Niantic, Inc. | Multi-user route tracking in an augmented reality environment |
JP2022153229A (ja) * | 2021-03-29 | 2022-10-12 | ナイアンティック, インコーポレイテッド | 拡張現実環境におけるマルチユーザルート追跡 |
JP7340746B2 (ja) | 2021-03-29 | 2023-09-08 | ナイアンティック, インコーポレイテッド | 拡張現実環境におけるマルチユーザルート追跡 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017090273A1 (ja) | 2018-08-16 |
CN108601978A (zh) | 2018-09-28 |
US20180345145A1 (en) | 2018-12-06 |
CN108601976B (zh) | 2021-06-15 |
JP6404489B2 (ja) | 2018-10-10 |
JPWO2017090272A1 (ja) | 2018-08-16 |
CN108601977B (zh) | 2021-06-11 |
US10188949B2 (en) | 2019-01-29 |
US10188948B2 (en) | 2019-01-29 |
JP6404490B2 (ja) | 2018-10-10 |
JPWO2017090274A1 (ja) | 2018-08-16 |
CN108601978B (zh) | 2020-05-15 |
CN108601976A (zh) | 2018-09-28 |
JP6404488B2 (ja) | 2018-10-10 |
US10357717B2 (en) | 2019-07-23 |
WO2017090272A1 (ja) | 2017-06-01 |
CN108601977A (zh) | 2018-09-28 |
US20180345147A1 (en) | 2018-12-06 |
WO2017090273A1 (ja) | 2017-06-01 |
US20180345146A1 (en) | 2018-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6404490B2 (ja) | ゲームシステム及びゲームプログラム | |
JP6275310B1 (ja) | 拡張現実表示システム、プログラム及び方法 | |
JP6279135B1 (ja) | 位置ゲーム用インターフェースシステム、プログラム及び制御方法 | |
JP6367450B1 (ja) | 位置ゲーム用インターフェースシステム、プログラム及び制御方法 | |
US11207595B2 (en) | Virtual map display system, program, and method | |
JP6279136B1 (ja) | 位置ゲームにおけるオブジェクト制御システム、プログラム及び方法 | |
JP6267383B1 (ja) | 位置ゲームにおけるオブジェクト制御システム、プログラム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16868225 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017552285 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16868225 Country of ref document: EP Kind code of ref document: A1 |