JP2022517194A - 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム - Google Patents

仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム Download PDF

Info

Publication number
JP2022517194A
JP2022517194A JP2021539360A JP2021539360A JP2022517194A JP 2022517194 A JP2022517194 A JP 2022517194A JP 2021539360 A JP2021539360 A JP 2021539360A JP 2021539360 A JP2021539360 A JP 2021539360A JP 2022517194 A JP2022517194 A JP 2022517194A
Authority
JP
Japan
Prior art keywords
mark
control
target
virtual object
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021539360A
Other languages
English (en)
Other versions
JP7247350B2 (ja
Inventor
俊翔 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022517194A publication Critical patent/JP2022517194A/ja
Priority to JP2023039817A priority Critical patent/JP2023076494A/ja
Application granted granted Critical
Publication of JP7247350B2 publication Critical patent/JP7247350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3278Power saving in modem or I/O interface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/572Communication between players during game play of non game information, e.g. e-mail, chat, file transfer, streaming of audio and streaming of video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本願は仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体を開示し、コンピュータの技術分野に関する。当該方法は、端末上にターゲット視点画面を表示するステップであって、当該ターゲット視点画面内に照星及びマークコントロールが表示される、ステップと、端末は第1視点切り替え操作を受信するステップと、第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更するステップと、マークコントロール上でトリガーされたマーク操作を受信するステップと、マーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成するステップと、を含む。

Description

本願はコンピュータの技術分野に関し、特に仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体に関する。
本願は、2019年5月30日に中国特許庁に提出した、出願番号が第2019104654835号、発明の名称が「仮想環境においてマーク情報を生成する方法、装置、機器及び記憶媒体」の中国特許出願の優先権を主張し、その全内容が引用により本願に組み込まれている。
仮想環境に基づくアプリケーションプログラムでは、ユーザーは仮想環境での仮想オブジェクトの走り、歩き、ジャンプ、戦闘等を制御できる。いくつかのシーンでは、ユーザーは仮想オブジェクトを制御して仮想環境における仮想物体をマークさせるようにすることがあり、たとえば、特定の地理的位置に1つの小さな赤い旗を挿して、当該地理的位置へ行くことをチームメートに通知する。
関連技術では、マーク情報を生成する方法を提供しており、アプリケーションプログラムに仮想環境の環境画面が表示され、当該環境画面の右上角に地図サムネイルが表示されている。ユーザーは地図上の特定の地理的位置をマークする必要がある場合、まず、クリック方式を採用して地図サムネイルを開く。アプリケーションプログラムは地図サムネイルを拡大表示し、次に、ユーザーは拡大後の地図サムネイル上で1つの地理的位置をクリックし、アプリケーションプログラムはユーザーのクリックに応じて当該地理的位置上でマーク情報を生成する。
上記過程にはユーザーは地図サムネイルを開いてからマークを行う必要があるが、拡大された地図サムネイルは仮想オブジェクトに対するユーザーの他の操作、たとえば、移動及び戦闘を中断する。
本願の各種の実施例によれば、仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体を提供する。
仮想環境においてマーク情報を生成する方法であって、電子機器によって実行され、当該方法は、
ターゲット視点画面を表示するステップであって、ターゲット視点画面は仮想オブジェクトのターゲット視点で仮想環境を観察して得られた画面であり、ターゲット視点画面内に照星及びマークコントロールが表示される、ステップと、
第1視点切り替え操作を受信するステップと、
第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更するステップと、
マークコントロール上でトリガーされたマーク操作を受信するステップと、
マーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成するステップと、を含む。
仮想環境においてマーク情報を生成する装置であって、当該装置は、表示モジュール、受信モジュール、切り替えモジュール、及び生成モジュールを含み、
前記表示モジュールは、ターゲット視点画面を表示することに用いられ、ターゲット視点画面は仮想オブジェクトのターゲット視点で仮想環境を観察して得られた画面であり、ターゲット視点画面内に照星及びマークコントロールが表示され、
前記受信モジュールは、第1視点切り替え操作を受信することに用いられ、
前記切り替えモジュールは、第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更することに用いられ、
前記受信モジュールは、マークコントロール上でトリガーされたマーク操作を受信することに用いられ、
前記生成モジュールはマーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成することに用いられる。
電子機器であって、当該電子機器はメモリ、及びメモリに接続されるプロセッサを含み、そのうち、プロセッサは実行可能命令をロード且つ実行して上記第1態様及びその選択可能な実施例に記載の仮想環境においてマーク情報を生成する方法を実現するように構成される。
コンピュータ可読記憶媒体であって、上記コンピュータ可読記憶媒体に少なくとも1つの命令が記憶され、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、上記少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットはプロセッサによってロードされ且つ実行されて上記第1態様及びその選択可能な実施例に記載の仮想環境においてマーク情報を生成する方法を実現する。
本願の1つ又は複数の実施例の詳細は以下の図面及び説明では言及される。本願の他の特徴及び利点は明細書、図面及び特許請求の範囲から明らかになる。
本願の実施例における技術的解決手段をより明確に説明するために、以下、実施例の説明に使用される必要がある図面を簡単に説明し、明らかなように、以下の説明における図面は単に本願のいくつかの実施例であり、当業者であれば、創造的な努力をせずに、これらの図面に基づいて他の図面を得ることができる。
本願の1つの例示的な実施例が提供するコンピュータシステムの構造模式図である。 本願の1つの例示的な実施例が提供する仮想環境においてマーク情報を生成する方法のフローチャートである。 本願の1つの例示的な実施例が提供するジョイスティックコントロールの構造模式図である。 本願の1つの例示的な実施例が提供する仮想環境においてマーク情報を生成するインタフェースの模式図である。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成するインタフェースの模式図である。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成する方法のフローチャートである。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成するインタフェースの模式図である。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成する方法のフローチャートである。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成するインタフェースの模式図である。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成する方法のフローチャートである。 本願の別の例示的な実施例が提供する仮想環境においてマーク情報を生成する装置のフローチャートである。 本願の1つの例示的な実施例が提供する端末の構造模式図である。 本願の1つの例示的な実施例が提供するサーバの構造模式図である。
本願の目的、技術的解決手段及び利点をより明確にするために、以下、図面を参照しながら本願の実施形態をさらに詳細に説明する。ここで説明される具体的な実施例は単に本願を解釈することに用いられ、且つ本願を限定することに用いられないと理解すべきである。
まず、本願の実施例に係る複数の名詞を解釈する。
仮想環境:アプリケーションプログラムが電子機器(たとえば、端末)上で運転される時に表示(又は提供)される仮想環境である。当該仮想環境は現実世界のシミュレーション環境であってもよく、半シミュレーション・半架空の3次元環境であってもよく、純粋に架空の3次元環境であってもよい。仮想環境は2次元仮想環境、2.5次元仮想環境及び3次元仮想環境のうちの任意の1種であってもよく、下記実施例では、仮想環境が3次元仮想環境であることを例示して説明するが、これについて限定しない。
仮想オブジェクト:仮想環境における可動オブジェクトである。当該可動オブジェクトは仮想キャラクター、仮想動物、及びアニメーションキャラクターのうちの少なくとも1種であってもよい。選択可能に、仮想環境が3次元仮想環境である場合、仮想オブジェクトはアニメーション骨格技術に基づいて構築された3次元立体モデルである。各仮想オブジェクトは3次元仮想環境でその形状及び体積を有し、3次元仮想環境中の一部の空間を占める。
仮想物体:仮想環境で展示される物体である。当該物体は可動物体、たとえば、仮想動物、及び移動可能な標的等であってもよく、固定物体、たとえば、仮想建物、及び仮想丘等であってもよい。選択可能に、仮想物体は3次元立体モデルであってもよく、各仮想物体は3次元仮想環境で形状及び体積を有し、3次元仮想環境中の一部の空間を占める。
視点:仮想オブジェクトの一人称視点又は三人称視点から仮想環境で観察を行う時の観察角度である。選択可能に、本願の実施例では、視点は仮想環境でビデオカメラモデルによって仮想オブジェクトを観察する時の角度である。
選択可能に、ビデオカメラモデルは仮想環境で仮想オブジェクトを自動的に追従し、すなわち、仮想オブジェクトの仮想環境における位置が変更されると、ビデオカメラモデルによって追従される仮想オブジェクトの仮想環境における位置が同時に変更され、且つ当該ビデオカメラモデルの仮想環境における位置は常に仮想オブジェクトの所定距離範囲内にある。選択可能に、自動追従過程では、カメラモデルと仮想オブジェクトとの相対的な位置が変化しない。
視点範囲内の仮想画面上に照星が設定され、当該照星は視点回転の基準として用いられ、選択可能に、当該照星は視点の中軸線上にある。
ビデオカメラモデル:ビデオカメラモデルは3次元仮想環境で仮想オブジェクトの周囲に位置する3次元モデルであり、一人称視点を採用する場合、当該ビデオカメラモデルは仮想オブジェクトの頭部付近に位置し、又は仮想オブジェクトの頭部に位置し、三人称視点を採用する場合、当該ビデオカメラモデルは仮想オブジェクトの後方に位置してもよく、且つ仮想オブジェクトとバインディングされ、仮想オブジェクトから所定距離離れた任意の位置に位置してもよく、当該ビデオカメラモデルによって、異なる角度から3次元仮想環境中に位置する仮想オブジェクトを観察でき、選択可能に、当該三人称視点が一人称の肩越し視点である場合、ビデオカメラモデルは仮想オブジェクト(たとえば、仮想キャラクターの頭や肩)の後方に位置する。選択可能に、一人称視点及び三人称視点に加えて、視点はさらに他の視点、たとえば、見下ろし視点を含み、見下ろし視点を採用する場合、当該ビデオカメラモデルは仮想オブジェクトの頭部の上空に位置してもよく、見下ろし視点は空中見下ろしの角度から仮想環境を観察する視点である。選択可能に、当該ビデオカメラモデルは3次元仮想環境で実際に表示されることがなく、すなわち、ユーザーインタフェースに表示される3次元仮想環境には当該ビデオカメラモデルが表示されない。
本願が提供する仮想環境においてマーク情報を生成する方法の実現は上記一人称視点又は三人称視点を採用でき、当該方法は図1に示すコンピュータシステムに適用できる。当該コンピュータシステム100は第1端末120、サーバ140及び第2端末160を含む。
第1端末120は、仮想環境をサポートするアプリケーションプログラムがインストール及び運転される。当該アプリケーションプログラム14は仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、サードパーソンシューティング(Third Person Shooting、TPS)ゲーム、ファーストパーソンシューティング(First Person Shooting、FPS)ゲーム、マルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena、MOBA)ゲーム、マルチプレイヤー銃撃戦類サバイバルゲーム、及びバトルロワイアルタイプのシューティングゲームのうちの任意の1種であってもよい。選択可能に、当該アプリケーションプログラム14はスタンドアロン版のアプリケーションプログラム、たとえば、スタンドアロン版の3Dゲームプログラムであってもよく、ネットワークオンライン版のアプリケーションプログラムであってもよい。第1端末120は第1ユーザーに使用される端末であり、第1ユーザーは第1端末120を使用して、仮想環境中に位置する第1仮想オブジェクトの活動を制御し、当該活動は、身体の姿勢の調整、這い、歩き、走り、騎行、ジャンプ、運転、拾い、シューティング、攻撃、投げのうちの少なくとも1種を含むが、これらに限定されない。例示的に、第1仮想オブジェクトは第1仮想キャラクター、たとえば、シミュレーションキャラクターロール又はアニメーションキャラクターロールである。
第1端末120は無線ネットワーク又は有線ネットワークを介してサーバ140に接続される。
サーバ140は1台のサーバ、複数台のサーバ、クラウドコンピューティングプラットフォーム及び仮想化センターのうちの少なくとも1種を含む。例示的に、サーバ140はプロセッサ144及びメモリ142を含み、メモリ142はさらにテーマ記憶モジュール1421、メッセージ及びインタラクション記憶モジュール1422、及び通知配信モジュール1423を含む。サーバ140は3次元仮想環境をサポートするアプリケーションプログラムにバックグラウンドサービスを提供することに用いられる。選択可能に、サーバ140は主計算作業を担い、第1端末120及び第2端末160は副計算作業を担い、又は、サーバ140は副計算作業を担い、第1端末120及び第2端末160は主計算作業を担い、又は、サーバ140、第1端末120及び第2端末160の三者間は分散型計算アーキテクチャを採用して協調計算を行う。
第2端末160は、仮想環境をサポートするアプリケーションプログラムがインストール及び運転される。当該アプリケーションプログラムは仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、TPSゲーム、FPSゲーム、MOBAゲーム、マルチプレイヤー銃撃戦類サバイバルゲーム、及びバトルロワイアル類タイプのシューティングゲームのうちの任意の1種であってもよい。第2端末160は第2ユーザーに使用される端末であり、第2ユーザーは第2端末160を使用して、仮想環境中に位置する第2仮想オブジェクトの活動を制御し、当該活動は身体の姿勢の調整、這い、歩き、走り、騎行、ジャンプ、運転、拾い、シューティング、攻撃、及び投げのうちの少なくとも1種を含むが、これらに限定されない。例示的に、第2仮想オブジェクトは第2仮想キャラクター、たとえば、シミュレーションキャラクターロール又はアニメーションキャラクターロールである。
選択可能に、第1仮想キャラクターと第2仮想キャラクターは同一仮想環境中に位置する。選択可能に、第1仮想キャラクターと第2仮想キャラクターは同一のチーム、同一の組織に属し、友達関係を有し、又は一時的な通信権限を有するようにしてもよい。
選択可能に、第1端末120と第2端末160にインストールされたアプリケーションプログラムは同じであり、又は2つの端末にインストールされたアプリケーションプログラムは異なる制御システムプラットフォームの同一タイプのアプリケーションプログラムである。第1端末120は一般に複数の端末のうちの1つを指し、第2端末160は一般に複数の端末のうちの1つを指し、本実施例は第1端末120と第2端末160のみを例示して説明する。第1端末120と第2端末160の機器タイプは同じであり又は異なり、当該機器タイプはスマートフォン、タブレットPC、電子書リーダー、MP3プレーヤー、MP4プレーヤー、ラップトップポータブルコンピュータ及びデスクトップコンピュータのうちの少なくとも1種を含む。以下の実施例は端末がスマートフォンを含むことを例示して説明する。
当業者が理解できるように、上記端末の数はより多い又はより少ないようにしてもよい。たとえば、上記端末は1つのみであってもよく、又は上記端末は数十個又は数百個、又はより多くの数である。本願の実施例は端末の数及び機器タイプを限定しない。
図2に参照されるように、1つの例示的な実施例が提供する仮想環境においてマーク情報を生成する方法のフローチャートを示し、当該方法は電子機器に適用でき、当該電子機器は図1に示す端末又はサーバであってもよく、当該方法が図1に示す端末中に適用されることを例に説明し、当該方法は、ステップ201~205を含む。
ステップ201、端末はターゲット視点画面を表示する。
1つの実施例では、端末はアプリケーションプログラムのターゲット視点画面を表示する。そのうち、アプリケーションプログラムは仮想現実アプリケーションプログラム、3次元地図アプリケーションプログラム、軍事シミュレーションプログラム、TPSゲーム、FPSゲーム、MOBAゲームのうちの少なくとも1種であってもよい。
当該ターゲット視点画面は仮想オブジェクトのターゲット視点で仮想環境を観察して得られた画面である。選択可能に、上記ターゲット視点は仮想オブジェクトの一人称視点を採用して仮想環境を観察する視点である、又は、上記ターゲット視点は仮想オブジェクトの三人称視点を採用して仮想環境を観察する視点である。
当該ターゲット視点画面内に照星及びマークコントロールが表示される。
当該照星は視点の基準として用いられ、選択可能に、当該照星はターゲット視点画面の中央位置に表示される。本実施例では、当該照星は位置の照準を行うことに用いられる。
当該マークコントロールは照準位置が指す仮想物体上でトリガーされてマーク情報を生成することに用いられる。選択可能に、マークコントロールはボタンコントロール又はジョイスティックコントロールである。例示的に、図3にジョイスティックコントロールが示され、左図はトリガーされていない時のジョイスティックコントロール11であり、右図はトリガードラッグ操作時のジョイスティックコントロール12である。
選択可能に、マーク情報は警戒マーク、資材マーク、ゴーイングマーク、攻撃マーク、撤退マーク、防御マーク、警告マーク、及び中性マークのうちの少なくとも1つを含む。
そのうち、警戒マークは仮想オブジェクトに警戒を通知する、又は、仮想オブジェクトにマークした位置に対して警戒を行うことを通知することに用いられ、資材マークは仮想オブジェクトにマークした位置に資材があることを通知することに用いられ、ゴーイングマークは仮想オブジェクトにマークした位置へ行くことを通知する、又は、仮想オブジェクトが自動でマークした位置に行くことを設定することに用いられ、攻撃マークは仮想オブジェクトに攻撃開始を通知する、又は、仮想オブジェクトにマークの位置への攻撃を通知することに用いられ、
撤退標識は仮想オブジェクトに撤退開始を通知する、又は仮想オブジェクトにマークの位置への撤退を通知することに用いられ、防御マークは仮想オブジェクトに防御を通知することに用いられ、警告マークは仮想オブジェクトにマークした位置が危険であることを通知する、又は、仮想オブジェクトにマークした位置に敵がいることを通知することに用いられ、中性マークは通知のマークとして、ユーザーが合意した内容を指示できる。
選択可能に、ターゲット視点画面上にさらに視点切り替えコントロールがオーバーラップ表示され、当該視点切り替えコントロールは仮想オブジェクトの視点の切り替えを制御することに用いられ、さらに照星の照準位置を変更することに用いられる。
ステップ202、端末は第1視点切り替え操作を受信する。
端末上にはタッチスクリーンが含まれ、視点切り替えコントロールに対応するスクリーン領域上でユーザーによってトリガーされた第1視点切り替え操作を受信する。当該第1視点切り替え操作はターゲット視点画面の観察方向及び照星の照準位置を変更することに用いられる。
ステップ203、端末は第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更する。
端末は第1視点切り替え操作に応じて仮想オブジェクトの視点を変更し、それによりターゲット視点画面の観察方向と照星の照準位置を変更する。そのうち、当該照星の照準位置の変更は仮想物体の位置を決定することに用いられる。
ステップ204、端末はマークコントロール上でトリガーされたマーク操作を受信する。
端末はマークコントロールに対応するスクリーン領域上でユーザーによってトリガーされたマーク操作を受信し、当該マーク操作は照準位置が指す仮想物体上でトリガーされてマーク情報を生成することに用いられる。
選択可能に、マークコントロールがボタンコントロールである場合、マーク操作はシングルクリック操作、ダブルクリック操作及びマルチクリック操作のうちの任意の1種であってもよい。
選択可能に、マークコントロールがジョイスティックコントロールである場合、マーク操作はクリック操作、スライド操作のうちの少なくとも1種であってもよい。
ステップ205、端末はマーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成する。
端末は照準位置が指す方向に仮想物体を決定し、上記仮想物体上でマーク情報を生成する。
選択可能に、マークコントロールがボタンコントロールである場合、端末はマーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成する。
選択可能に、マークコントロールがジョイスティックコントロールである場合、マーク操作はジョイスティックコントロールに作用するスライド操作を含み、マーク情報の生成は以下の例示的なステップを含む。
1)端末はジョイスティックコントロール上でスライド操作を受信する場合、ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示する。
ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプを含む。選択可能に、少なくとも2つの候補マークタイプは以下のタイプのうちの少なくとも2つを含む。
警戒マーク、資材マーク、ゴーイングマーク、攻撃マーク、撤退マーク、防御マーク、警告マーク、及び中性マーク。
2)端末はスライド操作の終了位置に応じて、少なくとも2つの候補マークタイプの中からターゲットマークタイプを決定する。
選択可能に、ジョイスティックコントロールのスライド領域中にルーレット領域が含まれ、ルーレット領域をM個のサブ領域に分割し、M個のサブ領域のうちの各サブ領域中には1つの候補マークタイプが対応して設定され、端末はスライド操作の終了位置が位置するサブ領域をi番目のサブ領域と決定し、i番目のサブ領域に対応するi番目の候補マークタイプをターゲットマークタイプと決定し、Mは1よりも大きい正の整数であり、iはM以下の正の整数である。
たとえば、ジョイスティックコントロールのスライド領域はサブ領域1、サブ領域2、サブ領域3及びサブ領域4を含み、サブ領域と候補マークタイプのマッピング関係は表1に示され、領域1に攻撃マークが対応して設定され、サブ領域2に撤退マークが対応して設定され、サブ領域3に防御マークが対応して設定され、サブ領域4に警告マークが対応して設定される。
スライド操作の終了位置がサブ領域1に位置する場合、ターゲットマークタイプは攻撃マークであり、スライド操作の終了位置がサブ領域2に位置する場合、ターゲットマークタイプは撤退マークであり、スライド操作の終了位置がサブ領域3に位置する場合、ターゲットマークタイプは防御マークであり、スライド操作の終了位置がサブ領域4に位置する場合、ターゲットマークタイプは警告マークである。
Figure 2022517194000002
M個のサブ領域はそれぞれルーレットオプションリスト中のM個のリストアイテムに対応し、端末はM個の候補マークタイプをそれぞれ対応するM個のリストアイテムに表示する。つまり、i番目のサブ領域はi番目のリストアイテムに対応し、端末がジョイスティックコントロールのスライド操作をトリガーすると、端末はi番目のサブ領域に対応する候補マークタイプをi番目のリストアイテムに表示し、たとえば、表1に示すように、端末がジョイスティックコントロールのスライド操作をトリガーすると、端末はサブ領域1に対応する攻撃マークをリストアイテム1に表示し、サブ領域2に対応する撤退マークをリストアイテム2に表示し、サブ領域3に対応する防御マークをリストアイテム3に表示し、サブ領域4に対応する警告マークをリストアイテム4に表示する。
ジョイスティックについては、ジョイスティックコントロールのスライド領域のM個のサブ領域は、ルーレットオプションリストのアイテムに対応する。
3)照準位置が指す仮想物体上でターゲットマークタイプに対応するマーク情報を生成する。
選択可能に、端末は照準位置に沿って前方へ射線を作り、射線と仮想環境中の地図シーン又は仮想物体との交差位置を決定し、交差位置上でターゲットマークタイプに対応するマーク情報を生成する。そのうち、射線は不可視の射線である、又は、射線はすべて又は一部が可視の射線である。
例示的に、マークコントロールがジョイスティックコントロールであることを例に、図4に示すように、ターゲット視点画面21内に照星22及びジョイスティックコントロール23が表示され、端末はジョイスティックコントロール23上でスライド操作を受信し、ターゲット視点画面24上にルーレットオプションリスト25をオーバーラップ表示し、当該ルーレットオプションリスト25にルーレットのエッジに沿って並ぶ4つの候補マークタイプが含まれ、それぞれ警告マーク1、ゴーイングマーク2、資材マーク3及び中性マーク4であり、スライド操作の終了位置がターゲット視点画面24に示す位置26である場合、対応するルーレットオプションリスト25中の中性マーク4(図中の斜線部分)であり、端末は照準位置に沿って前方へ射線を作り、仮想環境中の地図シーンとの交差位置31を決定し、図5に示すように、交差位置31に中性マーク4が表示される。
選択可能に、マークコントロールがジョイスティックコントロールである場合、マーク操作はジョイスティックコントロールに作用するクリック操作を含み、端末はジョイスティックコントロール上でクリック操作を受けると、照準位置が指す仮想物体上でマーク情報を生成する。
なお、上記ルーレットオプションリスト中の対応する異なるマークタイプのマーク情報はユーザーによって自ら設定されてもよく、アプリケーションプログラムのデフォルトであってもよい。上記クリック操作によってトリガーして生成されたマーク情報はユーザーによって自ら設定されてもよく、又は、アプリケーションプログラムのデフォルトであってもよい。例示的に、表1中の設定がアプリケーションプログラムのデフォルトであると仮定すると、ユーザーはサブ領域1に対応するマーク情報を資材マークと設定でき、この場合、リストアイテム1は資材マークを対応して表示し、ジョイスティックコントロール上でシングルクリック操作をトリガーすると仮定する場合、端末はデフォルトでは中性マークを生成し、ユーザーは設定を変更でき、シングルクリック操作に対応するマーク情報をゴーイングマークと設定でき、この場合、ジョイスティックコントロール上でシングルクリック操作をトリガーする場合、端末はゴーイングマークを生成する。
以上のように、本実施例が提供する仮想環境においてマーク情報を生成する方法は、端末上にアプリケーションプログラムのターゲット視点画面を表示し、当該ターゲット視点画面内に照星及びマークコントロールが表示され、端末は第1視点切り替え操作を受信し、第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更し、マークコントロール上でトリガーされたマーク操作を受信し、マーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成する。
当該方法は、仮想オブジェクトに対する他の操作を中断せずに、端末に仮想物体上でマーク情報を生成させることができ、ヒューマンマシンインタラクションの効率を向上させる。次に、当該方法は照星から発する射線によって仮想物体の位置を決定することで、仮想物体に対するマークをさらに正確にし、且つ遠距離の仮想物体に対しても正確なマークを行うことができる。さらに、当該方法は1つのジョイスティックコントロールによって少なくとも2つのマークタイプのマーク情報のマークトリガーを対応して設定でき、複数のマークコントロールを設定する必要がなく、スクリーン上の制御操作に悪影響をもたらし、誤トリガー率が増加することがなく、オプションリストを開いてマーク情報のマークタイプを選択する必要もなく、異なるマークタイプのマーク情報に対する迅速なマークを実現し、ヒューマンマシンインタラクションの効率を向上させる。
図2に基づいて、ユーザーがマーク操作をトリガーした後、マーク操作をキャンセルする状況が発生する可能性もあり、図6に示すように、マークコントロールがジョイスティックコントロールであり、マーク操作がジョイスティックコントロールに作用するスライド操作を含むことを例に、当該仮想環境においてマーク情報を生成する方法はさらに以下のステップ301~302を含んでもよい。
ステップ301、ジョイスティックコントロール上でスライド操作を受信する場合、ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示する。
そのうち、ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプ及び中央領域を含む。
ステップ302、スライド操作の終了位置が中央領域に位置する場合、マーク情報の生成をキャンセルする。
選択可能に、ジョイスティックコントロールに対応する操作領域をルーレット領域及び中央領域、たとえば、2つの同心円に分割し、内円及び外円を含み、内円内に含まれる領域は中央領域であり、内円外且つ外円内の領域はルーレット領域である。スライド操作の終了位置が中央領域に位置する場合、端末はマーク情報の生成をキャンセルする。
例示的に、図7に示すように、ターゲット視点画面24では、ジョイスティックが位置する位置26はルーレット領域に位置し、ルーレットオプションリスト中の対応するマークタイプは中性マーク4であり、スライド操作が位置26で終了した場合、対応して生成されるマーク情報は中性マーク4である。スライド操作が終了する前、ジョイスティックが位置41にスライドし、図中のターゲット視点画面42に示すように、位置41は中央領域に位置し、この場合、スライド操作が位置41で終了すると、マーク情報の生成をキャンセルする。ルーレットオプションリストの中央位置にさらにキャンセルマーク43が表示される。
以上のように、本実施例が提供する仮想環境においてマーク情報を生成する方法は、さらにマーク情報生成をトリガーする操作の後、マーク情報の生成をキャンセルすることができ、それによりユーザーは誤操作をトリガーした後、タイムリーにキャンセルでき、ユーザーの操作エクスペリエンスを向上させる。
また、当該方法は、マーク情報が地図中の地理的位置のみをマークでき、他の次元をマークできないという問題を解決し、それにより端末は仮想環境中の仮想道具等の仮想物体をマークできる。
マーク情報のキャンセルは、マーク情報生成をトリガーする操作の後であってもよいことに加えて、マーク情報生成が成功した後であってもよく、図2に基づいて、ステップ205の後、ステップ206~ステップ210を追加し、図8に示すように、例示的なステップは以下の通りである。
ステップ206、第2視点切り替え操作を受信する。
第2視点切り替え操作はさらに照星を既存のマーク情報に照準することに用いられてもよい。
ステップ207、第2視点切り替え操作に応じて照星を既存のマーク情報に照準する。
選択可能に、端末が照星を既存のマーク情報に照準する例示的なステップは以下の通りであってもよい。
1)端末は第2視点切り替え操作に応じて照星の照準位置を調整し、
2)端末は当該照準位置と既存のマーク情報のマーク位置の間の第1距離を計算し、
3)端末は第1距離が第1距離閾値未満であるか否かを判断し、第1距離が第1距離閾値未満である場合、ステップ208を実行し、そうでない場合、ステップ1)を実行する。
ステップ208、照星が既存のマーク情報に照準する場合、ターゲット視点画面上にキャンセルコントロールをオーバーラップ表示する。
上記キャンセルコントロールはマーク情報のマークをキャンセルすることに用いられ、選択可能に、当該キャンセルコントロールはボタンコントロールである。
選択可能に、照星の照準位置と既存のマーク情報のマーク位置の間の第1距離が第1距離閾値未満である場合、端末はターゲット視点画面上にキャンセルコントロールを表示する。
選択可能に、仮想オブジェクトがチームメートを有する場合、既存のマーク情報は当該仮想オブジェクトがマークしたマーク情報であってもよく、チームメートがマークしたマーク情報であってもよい。
ステップ209、キャンセルコントロール上でトリガーされたキャンセル操作を受信する。
選択可能に、キャンセルコントロールがボタンコントロールである場合、キャンセル操作はキャンセルコントロール上のクリック操作であってもよく、端末はボタンコントロールに対応するスクリーン領域上のクリック操作を受信する。
ステップ210、キャンセル操作に応じて既存のマーク情報の表示をキャンセルする。
例示的に、図9に示すように、照星がマーク情報のマーク位置52に照準する場合、ターゲット視点インタフェース51上にキャンセルボタン53を表示し、以上の図に示す通りであり、端末はキャンセルボタン53上のクリック操作を受信し、ターゲット視点インタフェース51中のマーク位置52にマーク情報を表示しなくなり、以下の図に示す通りである。
なお、既存のマーク情報が仮想オブジェクトのチームメートによりマークされたものである場合、ターゲット視点画面にキャンセルコントロールを表示すると同時に、さらに応答コントロールを表示してもよく、当該応答コントロールはチームメートのマーク情報に応答することに用いられる。たとえば、仮想オブジェクトのチームメートによりマークされたマーク情報が攻撃マークである場合、仮想オブジェクトは応答コントロールによって当該マーク情報に応答し、チームメートに仮想オブジェクトを制御するユーザーが既に攻撃メッセージを受信したことをわからせることができる。
以上のように、本実施例が提供する仮想環境においてマーク情報を生成する方法は、マーク情報を生成した後、マーク情報をキャンセルでき、それによりユーザーはマーク情報のマークを随時キャンセルでき、ユーザーの操作エクスペリエンスを向上させる。
図2に基づいて、マークコントロールがジョイスティックコントロールであり、且つマーク操作がジョイスティックコントロール上のスライド操作であることを例に、マーク情報のマークタイプの決定方法を説明し、そのうち、ルーレットオプションリストに4つの候補マークタイプが含まれ、図10に示すように、例示的なステップは以下の通りである。
ステップ401、ジョイスティックコントロール上でトリガーされたスライド操作を受信する。
端末はジョイスティックコントロール上でトリガーされたスライド操作を受信する。
ステップ402、ジョイスティックコントロール中のジョイスティックの位置座標を読み取る。
選択可能に、ジョイスティックコントロールのスライド領域が円形であることを例に、スライド領域の中心点を原点として直交座標系を構築し、ジョイスティックがスライドした後の位置座標(X,Y)を読み取り、すなわち横座標はX、縦座標はYである。
ステップ403、上記位置座標と原点の間の第2距離を計算する。
端末は上記位置座標(X,Y)から原点までの第2距離Lを計算し、計算式は[数式1]である。
Figure 2022517194000003
ステップ404、上記第2距離が第2距離閾値よりも大きいか否かを判断する。
端末は上記第2距離Lが第2距離閾値Rよりも大きいか否かを判断する。例示的に説明すると、スライド領域に対応する円形領域内に1つの同心円を設定し、上記Rは当該同心円の半径である。
LがRよりも大きい場合、ステップ405を実行し、L≦Rである場合、ステップ418を実行する。
ステップ405、スライド操作が終了するか否かを判断する。
端末はスライド操作が終了するか否かを判断し、上記スライド操作が終了していない場合、ステップ406を実行し、上記スライド操作が終了した場合、ステップ415を実行する。
ステップ406、横軸座標の正負を判断する。
端末は位置座標中の横座標Xの正負を判断し、横座標Xが正である場合、ステップ407を実行し、横座標Xが負である場合、ステップ408を実行する。
ステップ407、縦軸座標の正負を判断する。
端末は位置座標中の縦座標Yの正負を判断し、縦座標Yが正である場合、ステップ409を実行し、縦座標Yが負である場合、ステップ410を実行する。
ステップ408、縦軸座標の正負を判断する。
端末は位置座標中の縦座標Yの正負を判断し、縦座標Yが正である場合、ステップ411を実行し、縦座標Yが負である場合、ステップ412を実行する。
ステップ409、Xが正で、且つYが正である場合、端末は[数式2]に応じて角度βを計算する。
Figure 2022517194000004
そのうち、角度βは座標(X,Y)と横軸の正方向の間の夾角の角度であり、端末は角度βを計算して得た後、ステップ413を実行する。
ステップ410、Xが正で、且つYが負である場合、端末は[数式3]に応じて角度βを計算する。
Figure 2022517194000005
端末は角度βを計算して得た後、ステップ413を実行する。
ステップ411、Xが負で、且つYが正である場合、端末は[数式4]に応じて角度βを計算する。
Figure 2022517194000006
端末は角度βを計算して得た後、ステップ413を実行する。
ステップ412、Xが負で、且つYが負である場合、端末は[数式5]に応じて角度βを計算する。
Figure 2022517194000007
端末は角度βを計算して得た後、ステップ413を実行する。
ステップ413、角度βが存在する角度区間を決定する。
端末は直交座標系に応じてスライド領域に対応する円形領域内のRよりも大きい領域を角度βに応じて4つの角度区間に分割しており、それぞれ角度区間[0,90)、[90,180)、[180,270)及び[270,360)である。そのうち、[Z,Z)はZ以上且つZ未満を表し、Z、及びZはいずれも整数であり、且つZはZ未満である。
選択可能に、直交座標系をN個の角度区間に分割する場合、それぞれ角度区間[0,360/N)、[360/N,360x2/N)、...、[360(N-1)/N,360)であり、Nは正の整数である。
ステップ414、角度区間に対応するマークタイプを決定する。
上記4つの角度区間はそれぞれルーレットオプションリスト中の4つの候補マークタイプに対応する。そのうち、角度区間[0,90)は1番目の候補マークタイプに対応し、角度区間[90,180)は2番目の候補マークタイプに対応し、角度区間[180,270)は3番目の候補マークタイプに対応し、角度区間[270,360)は4番目の候補マークタイプに対応する。
角度βが存在する角度区間が[0,90)である場合、1番目の候補マークタイプをターゲットマークタイプとして決定し、角度βが存在する角度区間が[90,180)である場合、2番目の候補マークタイプをターゲットマークタイプとして決定し、角度βが存在する角度区間が[180,270)である場合、3番目の候補マークタイプをターゲットマークタイプとして決定し、角度βが存在する角度区間が[270,360)である場合、4番目の候補マークタイプをターゲットマークタイプとして決定する。
選択可能に、N個の角度区間はそれぞれルーレットオプションリスト中のN個の候補マークタイプに対応する。
端末は角度区間に対応するマークタイプを決定した後、ステップ305を実行する。
ステップ415、照星の照準位置に沿って前方へ射線を作り、且つジョイスティックコントロールを閉じる。
ステップ416、射線と仮想環境中の地図シーン又は仮想物体との交差位置を決定する。
ステップ417、交差位置上でターゲットマークタイプに対応するマーク情報を生成する。
ステップ418、スライド操作が終了するか否かを判断する。
端末はスライド操作が終了するか否かを判断し、上記スライド操作が終了していない場合、ステップ419を実行し、上記スライド操作が終了した場合、ステップ420を実行する。
ステップ419、キャンセル状態を表示する。
当該ステップは図6を参照でき、ここで詳細説明をしない。
ステップ420、ジョイスティックコントロールを閉じる。
以上のように、本実施例が提供する仮想環境においてマーク情報を生成する方法は、ジョイスティックコントロールのスライド領域を領域別に設定することで、複数のマークタイプのマーク情報のショートカット操作を実現でき、ユーザーの操作エクスペリエンスを向上させる。
上記実施例はゲームアプリケーションシーンに基づくものであり、以下、軍事シミュレーションの実施例のうちの一例を簡単に説明する。
シミュレーション技術は、ソフトウェアとハードウェアを使用して実際の環境の実験を模擬し、システムの行為又は過程を反映するモデル技術である。
軍事シミュレーションプログラムはシミュレーション技術を利用して軍事用途に対して特別に構築されたプログラムであり、海、陸、空等の作戦要素、武器装備の性能及び作戦行動等を定量的に分析し、さらに戦場環境を正確にシミュレートし、戦場状況を提示し、作戦体系の評価及び決定の支援を実現する。
一例では、ユーザーは軍事シミュレーションプログラムが位置する端末で1つの仮想戦場を構築し、且つチームの形で対戦する。ユーザーは戦場仮想環境中の仮想オブジェクトを戦場仮想環境下で歩き、走り、クライミング、運転、シューティング、投げ、偵察、及び近接格闘等の動作のうちの少なくとも1種の操作を行うように制御する。戦場仮想環境は平地、山や川、高原、盆地、砂漠、河、湖、海、植生、及び建物等のうちの少なくとも1種の形態を含む。仮想オブジェクトは、仮想キャラクター、仮想動物、及びアニメーションキャラクター等を含み、各仮想オブジェクトは3次元仮想環境でその形状及び体積を有し、3次元仮想環境中の一部の空間を占める。
上記状況に基づいて、選択可能に、ユーザーはチームメートに通知を送信する必要がある場合、ユーザーは軍事シミュレーションプログラムのターゲット視点画面上でターゲット位置を決定し、対応するマーク情報をマークすることができ、たとえば、資材がある位置上に資材マークをマークし、チームメートにここで資材を拾うことができることを通知し、また、たとえば、敵の体に敵軍マークをマークし、チームメートに当該仮想オブジェクトが敵軍陣営に属することを通知し、また、たとえば、前方の危険な領域に警告マークをマークし、チームメートに前方危険を通知する。そのうち、軍事シーンでマーク情報を生成する方法は上記ゲームアプリケーションシーンに基づくマーク情報生成シーンに参照されるため、ここでは詳細説明をしない。
理解すべき点は、図2、6、8、10のフローチャート中の各ステップは矢印の指示に従って順に表示されているが、これらのステップは必ずしも矢印で指示される順序で順に実行されないことである。本明細書に明確な説明がない限り、これらのステップの実行は厳密な順序に制限されず、これらのステップは他の順序で実行できる。且つ、図2、6、8、10中の少なくとも一部のステップは複数のサブステップ又は複数の段階を含んでもよく、これらのサブステップ又は段階は必ずしも同一時刻に実行されず、異なる時刻に実行でき、これらのサブステップ又は段階の実行順序も必ずしも順に行わず、他のステップ又は他のステップのサブステップ又は段階の少なくとも一部と交替で又は交互に実行できる。
図11に参照されるように、本願に示す1つの例示的な実施例が提供する仮想環境においてマーク情報を生成する装置であり、当該装置はソフトウェア、ハードウェア又はそれらの組み合わせによって端末の一部又はすべてとなるように実現でき、当該装置は表示モジュール501、受信モジュール502、切り替えモジュール503、及び生成モジュール504を含み、
上記表示モジュール501は、アプリケーションプログラムのターゲット視点画面を表示することに用いられ、ターゲット視点画面は仮想オブジェクトのターゲット視点で仮想環境を観察して得られた画面であり、ターゲット視点画面内に照星及びマークコントロールが表示され、
上記受信モジュール502は、第1視点切り替え操作を受信することに用いられ、
上記切り替えモジュール503は、第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更することに用いられ、
上記受信モジュール502は、マークコントロール上でトリガーされたマーク操作を受信することに用いられ、
上記生成モジュール504は、マーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成することに用いられる。
いくつかの実施例では、マークコントロールはジョイスティックコントロールであり、マーク操作はジョイスティックコントロールに作用するスライド操作を含み、
表示モジュール501は、ジョイスティックコントロール上でスライド操作を受信する場合、ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することに用いられ、ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプを含み、
決定モジュール505は、スライド操作の終了位置に応じて、少なくとも2つの候補マークタイプの中からターゲットマークタイプを決定することに用いられ、
生成モジュール504は、照準位置が指す仮想物体上でターゲットマークタイプに対応するマーク情報を生成することに用いられる。
いくつかの実施例では、少なくとも2つの候補マークタイプは以下のタイプのうちの少なくとも2つを含む。
警戒マーク、資材マーク、ゴーイングマーク、攻撃マーク、撤退マーク、防御マーク、警告マーク、及び中性マーク。
いくつかの実施例では、マークコントロールはジョイスティックコントロールであり、マーク操作はジョイスティックコントロールに作用するスライド操作を含み、
当該装置はさらに表示モジュール501、及びキャンセルモジュール506を含み、
上記表示モジュール501は、ジョイスティックコントロール上でスライド操作を受信する場合、ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することに用いられ、ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプ及び中央領域を含み、
上記キャンセルモジュール506は、スライド操作の終了位置が中央領域に位置する場合、マーク情報の生成をキャンセルすることに用いられる。
いくつかの実施例では、生成モジュール504は、照準位置に沿って前方へ射線を作り、射線と仮想環境中の地図シーン又は仮想物体との交差位置を決定し、交差位置上でターゲットマークタイプに対応するマーク情報を生成することに用いられる。
いくつかの実施例では、射線は不可視の射線である、又は、射線はすべて又は一部が可視の射線である。
いくつかの実施例では、当該装置はさらに、受信モジュール502、切り替えモジュール503、及び表示モジュール501を含み、
上記受信モジュール502は、第2視点切り替え操作を受信することに用いられ、
上記切り替えモジュール503は、第2視点切り替え操作に応じて照星を既存のマーク情報に照準することに用いられ、
上記表示モジュール501は、照星が既存のマーク情報に照準する場合、ターゲット視点画面上にキャンセルコントロールをオーバーラップ表示し、
上記受信モジュール502は、キャンセルコントロール上でトリガーされたキャンセル操作を受信することに用いられ、
上記表示モジュール501は、キャンセル操作に応じて既存のマーク情報の表示をキャンセルする。
以上のように、本実施例が提供する仮想環境においてマーク情報を生成する装置は、当該装置によってアプリケーションプログラムのターゲット視点画面を表示し、当該ターゲット視点画面内に照星及びマークコントロールが表示され、第1視点切り替え操作を受信し、第1視点切り替え操作に応じてターゲット視点画面の観察方向と照星の照準位置を変更し、マークコントロール上でトリガーされたマーク操作を受信し、マーク操作に応じて、照準位置が指す仮想物体上でマーク情報を生成する。当該装置は仮想オブジェクトに対する他の操作を中断せずに、仮想物体上でマーク情報を生成することができ、ヒューマンマシンインタラクションの効率を向上させる。次に、当該装置は照星から発する射線によって仮想物体の位置を決定することで、仮想物体に対するマークをさらに正確にし、且つ遠距離の仮想物体に対しても正確なマークを行うことができる。さらに、当該装置は1つのジョイスティックコントロールによって少なくとも2つのマークタイプのマーク情報のマークトリガーを対応して設定でき、複数のマークコントロールを設定する必要がなく、スクリーン上の制御操作に悪影響をもたらし、誤トリガー率が増加することがなく、オプションリストを開いてマーク情報のマークタイプを選択する必要もなく、異なるマークタイプのマーク情報に対する迅速なマークを実現し、ヒューマンマシンインタラクションの効率を向上させる。
また、当該装置はさらにマーク情報が地図中の地理的位置のみをマークでき、他の次元をマークできないという問題を解決し、それにより仮想環境中の仮想道具等の仮想物体をマーク情報によってマークできる。
1つの実施例では、電子機器を提供し、当該電子機器は端末600であってもよく、当該端末600の内部構造図は図12を参照する。当該端末600はスマートフォン、タブレットPC、ムービング・ピクチャー・エクスパーツ・グループオーディオレイヤー3(Moving Picture Experts Group Audio Layer III、MP3)プレーヤー、ムービング・ピクチャー・エクスパーツ・グループオーディオレイヤー4(Moving Picture Experts Group Audio Layer IV、MP4)プレーヤー、ノートパソコン又はデスクトップパソコンであってもよい。端末600はさらにユーザー装置、携帯端末、ラップトップ型端末、及びデスクトップ型端末等の他の名称と呼ばれることもある。
通常、端末600はプロセッサ601及びメモリ602を含む。
プロセッサ601は1つ又は複数の処理コアを含んでもよく、たとえば、4コアプロセッサ、8コアプロセッサ等である。プロセッサ601はデジタル信号処理(Digital Signal Processing、DSP)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGA)、及びプログラマブルロジックアレイ(Programmable Logic Array、PLA)のうちの少なくとも1種のハードウェア形態を採用して実現できる。プロセッサ601はさらにメインプロセッサ及びコプロセッサを含んでもよく、メインプロセッサはウェイク状態のデータを処理することに用いられるプロセッサであり、中央処理ユニット(Central Processing Unit、CPU)とも呼ばれ、コプロセッサは待機状態でのデータを処理することに用いられる低電力プロセッサである。いくつかの実施例では、プロセッサ601はグラフィックス処理ユニット(Graphics Processing Unit、GPU)を集積してもよく、GPUはディスプレイスクリーンに表示される必要がある内容のレンダリング及び描画を担うことに用いられる。いくつかの実施例では、プロセッサ601はさらに人工知能(Artificial Intelligence、AI)プロセッサを含んでもよく、当該AIプロセッサは機械学習に関連する計算操作を処理することに用いられる。
メモリ602は1つ又は複数のコンピュータ可読記憶媒体を含んでもよく、当該コンピュータ可読記憶媒体は非一時的であってもよい。メモリ602はさらに高速ランダムアクセスメモリ、及び不揮発性メモリを含んでもよく、たとえば、1つ又は複数の磁気ディスク記憶装置、及びフラッシュ記憶装置である。いくつかの実施例では、メモリ602中の非一時的コンピュータ可読記憶媒体は少なくとも1つの命令を記憶することに用いられ、当該少なくとも1つの命令はプロセッサ601によって実行されて、本願の方法実施例が提供する仮想環境においてマーク情報を生成する方法を実現することに用いられる。
いくつかの実施例では、端末600はさらに、周辺装置インタフェース603及び少なくとも1つの周辺装置を含んでもよい。プロセッサ601、メモリ602及び周辺装置インタフェース603間はバス又は信号線を介して接続されてもよい。各周辺装置はバス、信号線又は回路基板を介して周辺装置インタフェース603に接続されてもよい。具体的には、周辺装置は高周波回路604、タッチディスプレイスクリーン605、カメラ606、オーディオ回路607、測位ユニット608及び電源609のうちの少なくとも1種を含む。
周辺装置インタフェース603は入力/出力(Input/Output、I/O)に関連する少なくとも1つの周辺装置をプロセッサ601及びメモリ602に接続することに用いられ得る。いくつかの実施例では、プロセッサ601、メモリ602及び周辺装置インタフェース603は同一チップ又は回路基板に集積され、いくつかの他の実施例では、プロセッサ601、メモリ602及び周辺装置インタフェース603のうちの任意の1つ又は2つは単独なチップ又は回路基板上で実現でき、本実施例ではこれを限定しない。
高周波回路604は高周波(Radio Frequency、RF)信号を受信及び送信することに用いられ、この高周波信号は電磁信号とも呼ばれる。
ディスプレイスクリーン605はユーザーインタフェース(User Interface、UI)を表示することに用いられる。当該UIは図形、テキスト、アイコン、ビデオ及びそれらの任意の組み合わせを含んでもよい。
カメラユニット606は画像又はビデオを収集することに用いられる。選択可能に、カメラユニット606はフロントカメラ及びリアカメラを含む。
オーディオ回路607はマイクロホン及びスピーカを含んでもよい。マイクロホンはユーザー及び環境の音波を収集し、且つ音波を電気信号に変換しプロセッサ601に入力して処理し、又は高周波回路604に入力して音声通信を実現することに用いられる。
測位ユニット608は端末600の現在の地理的位置を測位して、ナビゲーション又は位置情報サービス(Location Based Service、LBS)を実現することに用いられる。
電源609は端末600中の各ユニットに給電することに用いられる。電源609は交流電力、直流電力、使い捨て電池又は充電式電池であってもよい。
いくつかの実施例では、端末600はさらに1つ又は複数のセンサ610を含む。当該1つ又は複数のセンサ610は加速度センサ611、ジャイロスコープセンサ612、圧力センサ613、指紋センサ614、光学センサ615及び近接センサ616を含むが、これらに限定されない。
加速度センサ611は端末600により構築される座標系の3つの座標軸上の加速度の大きさを検出できる。
ジャイロスコープセンサ612は端末600の本体の方向及び回転角度を検出でき、ジャイロスコープセンサ612は加速度センサ611と協働して端末600に対するユーザーの3D動作を収集できる。
圧力センサ613は端末600のサイドフレーム及び/又はタッチディスプレイスクリーン605の下層に設置できる。圧力センサ613が端末600のサイドフレームに設置される場合、端末600に対するユーザーの把持信号を検出し、プロセッサ601は圧力センサ613によって収集された把持信号に応じて左右手の認識又はショートカット操作を行うことができる。圧力センサ613がタッチディスプレイスクリーン605の下層に設置される場合、プロセッサ601によってタッチディスプレイスクリーン605に対するユーザーの圧力操作に応じて、UIインタフェース上の操作可能なコントロールに対する制御を実現する。操作可能なコントロールはボタンコントロール、スクロールバーコントロール、アイコンコントロール、及びメニューコントロールのうちの少なくとも1種を含む。
指紋センサ614はユーザーの指紋を収集することに用いられ、プロセッサ601は指紋センサ614によって収集された指紋に応じてユーザーの身元を認識し、又は、指紋センサ614は収集した指紋に応じてユーザーの身元を認識する。ユーザーの身元が信頼できる身元であると認識した場合、プロセッサ601は当該ユーザーに関連する敏感な操作を実行することを授権し、当該敏感操作はスクリーンアンロック、暗号化情報確認、ソフトウェアダウンロード、支払い及び設定変更等を含む。指紋センサ614は端末600の正面、裏面又は側面に設置されてもよい。端末600に物理キー又はメーカーLogoが設置される場合、指紋センサ614は物理キー又はメーカーLogoと一体に集積できる。
光学センサ615は環境光強度を収集することに用いられる。1つの実施例では、プロセッサ601は光学センサ615によって収集された環境光強度に応じて、タッチディスプレイスクリーン605の表示輝度を制御できる。具体的には、環境光強度が比較的高い場合、タッチディスプレイスクリーン605の表示輝度を高く調整し、環境光強度が比較的低い場合、タッチディスプレイスクリーン605の表示輝度を低く調整する。別の実施例では、プロセッサ601はさらに光学センサ615によって収集された環境光強度に応じて、カメラユニット606の撮影パラメータを動的に調整できる。
近接センサ616は、距離センサとも呼ばれ、通常、端末600のフロントパネルに設置される。近接センサ616はユーザーと端末600の正面の間の距離を収集することに用いられる。1つの実施例では、近接センサ616はユーザーと端末600の正面の間の距離が徐々に小さくなることを検出した場合、プロセッサ601はタッチディスプレイスクリーン605を点灯状態から消灯状態に切り替えるように制御し、近接センサ616はユーザーと端末600の正面の間の距離が徐々に大きくなることを検出した場合、プロセッサ601はタッチディスプレイスクリーン605を消灯状態から点灯状態に切り替えるように制御する。
当業者が理解できるように、図12に示す構造は端末600を限定するものではなく、図示よりも多い又は少ないユニットを含み、又はいくつかのユニットを組み合わせ、又は異なるユニットを採用して配置するようにしてもよい。
1つの実施例では、別の電子機器を提供し、当該電子機器はサーバ700であってもよく、当該サーバ700の内部構造図は図13を参照する。当該サーバ700は上記実施例が提供する仮想環境においてマーク情報を生成する方法を実施することに用いられる。具体的には、
前記サーバ700は中央処理ユニット(CPU)701、ランダムアクセスメモリ(RAM)702と読み出し専用メモリ(ROM)703を含むシステムメモリ704、及びシステムメモリ704と中央処理ユニット701を接続するシステムバス705を含む。前記サーバ700はさらに、コンピュータ内の各デバイス間での情報伝送を助ける基本的な入力/出力システム(I/Oシステム)706、及びオペレーティングシステム713、アプリケーションプログラム714及び他のプログラムモジュール715を記憶することに用いられる大容量記憶装置707を含む。
前記基本的な入力/出力システム706は情報を表示することに用いられるディスプレイ708、及びユーザーが情報を入力することに用いられる、たとえば、マウス、キーボードのような入力機器709を含む。そのうち、前記ディスプレイ708及び入力機器709はいずれもシステムバス705に接続された入力出力コントローラ710を介して中央処理ユニット701に接続される。前記基本的な入力/出力システム706はさらに入力出力コントローラ710を含んでもよく、それによりキーボード、マウス、又は電子スタイラス等の複数の他の機器からの入力を受信及び処理することに用いられる。同様に、入力出力コントローラ710はさらにディスプレイスクリーン、プリンタ又は他のタイプの出力機器への出力を提供する。
前記大容量記憶装置707はシステムバス705に接続される大容量記憶コントローラ(図示せず)を介して中央処理ユニット701に接続される。前記大容量記憶装置707及びその関連するコンピュータ可読媒体はサーバ700に不揮発性記憶を提供する。つまり、前記大容量記憶装置707はたとえば、ハードディスク又はCD-ROMドライバのようなコンピュータ可読媒体(図示せず)を含んでもよい。
一般性を失うことなく、前記コンピュータ可読媒体はコンピュータ記憶媒体及び通信媒体を含んでもよい。コンピュータ記憶媒体は、たとえば、コンピュータ可読命令、データ構造、プログラムモジュール又は他のデータ等の情報を記憶することに用いられる任意の方法又は技術で実現される揮発性と不揮発性、取り外し可能と取り外し不能な媒体を含む。コンピュータ記憶媒体はRAM、ROM、EPROM、EEPROM、フラッシュメモリ又は他のソリッドステート記憶技術、CD-ROM、DVD又は他の光学記憶、カセット、テープ、磁気ディスク記憶又は他の磁気記憶装置を含む。勿論、当業者には明らかなように、前記コンピュータ記憶媒体は上記いくつかの種類に限定されない。上記システムメモリ704及び大容量記憶装置707はメモリと総称されてもよい。
本願の各種の実施例によれば、前記サーバ700はさらに、たとえば、インターネット等のネットワークを介してネットワークにおけるリモートコンピュータに接続されて運転するようにしてもよい。すなわち、サーバ700は前記システムバス705に接続されたネットワークインタフェースユニット711を介してネットワーク712に接続されてもよく、又は、ネットワークインタフェースユニット711を使用して他のタイプのネットワーク又はリモートコンピュータシステム(図示せず)に接続されてもよい。
当業者が理解できるように、上記実施例の各種の方法のすべて又は一部のステップはプログラムによって関連ハードウェアに命令を出して完了させることができ、当該プログラムはコンピュータ可読記憶媒体に記憶でき、当該コンピュータ可読記憶媒体は上記実施例におけるメモリに含まれるコンピュータ可読記憶媒体であってもよく、単独に存在し、端末内に組み立てられていないコンピュータ可読記憶媒体であってもよい。当該コンピュータ可読記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットは前記プロセッサによってロードされ且つ実行されて、図2~図10のいずれか一項に記載の仮想環境においてマーク情報を生成する方法を実現する。
選択可能に、当該コンピュータ可読記憶媒体は読み出し専用メモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)又はフラッシュメモリを含んでもよい。揮発性メモリはランダムアクセスメモリ(RAM)又は外部高速キャッシュメモリを含んでもよい。非制限的な説明として、RAMは複数種の形態であってもよく、たとえばスタティックRAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張SDRAM(ESDRAM)、シンクリンク(Synchlink) DRAM(SLDRAM)、ラムバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)、及びメモリバスダイナミックRAM(RDRAM)等である。上記本願の実施例の番号は単に説明のためのものであり、実施例の優劣を示さない。
当業者が理解できるように、上記実施例のすべて又は一部のステップの実現はハードウェアによって完了してもよく、プログラムによって関連ハードウェアに命令を出して完了させてもよく、前記プログラムはコンピュータ可読記憶媒体に記憶されてもよく、上記言及された記憶媒体は読み出し専用メモリ、磁気ディスク又は光ディスク等であってもよい。
以上の実施例の各技術的特徴は任意に組み合わせることができ、説明を簡潔にするために、上記実施例の各技術的特徴のすべての可能な組み合わせを説明していないが、これらの技術的特徴の組み合わせが矛盾しない限り、本明細書に記載の範囲としてみなすべきである。以上の実施例は単に本願のいくつかの実施形態を述べており、その説明は比較的具体的かつ詳細であるが、それにより、出願特許の範囲を限定するものではないと理解すべきである。ただし、当業者であれば、本願の発想を逸脱せずに、さらに複数の変形や改良を行うことができ、これらはすべて本願の保護範囲に属する。従って、本願特許の保護範囲は添付特許請求の範囲に準じるべきである。
100 コンピュータシステム
120 第1端末
140 サーバ
142 メモリ
144 プロセッサ
160 第2端末
501 表示モジュール
502 受信モジュール
503 モジュール
504 生成モジュール
505 決定モジュール
506 キャンセルモジュール
600 端末
601 プロセッサ
602 メモリ
603 周辺装置インタフェース
604 高周波回路
605 ディスプレイスクリーン
606 カメラ
607 オーディオ回路
608 測位ユニット
609 電源
610 センサ
611 加速度センサ
612 ジャイロスコープセンサ
613 圧力センサ
614 指紋センサ
615 光学センサ
616 近接センサ
700 サーバ
701 中央処理ユニット
702 ランダムアクセスメモリ(RAM)
703 専用メモリ(ROM)
704 システムメモリ
705 システムバス
706 出力システム
707 大容量記憶装置
708 ディスプレイ
709 入力機器
710 入力出力コントローラ
711 ネットワークインタフェースユニット
712 ネットワーク
713 オペレーティングシステム
714 アプリケーションプログラム
715 プログラムモジュール
1421 テーマ記憶モジュール
1422 インタラクション記憶モジュール
1423 通知配信モジュール

Claims (20)

  1. 電子機器が実行する、仮想環境においてマーク情報を生成する方法であって、前記方法は、
    ターゲット視点画面を表示するステップであって、前記ターゲット視点画面は仮想オブジェクトのターゲット視点で前記仮想環境を観察して得られた画面であり、前記ターゲット視点画面内に照星及びマークコントロールが表示される、ステップと、
    第1視点切り替え操作を受信するステップと、
    前記第1視点切り替え操作に応じて前記ターゲット視点画面の観察方向と前記照星の照準位置を変更するステップと、
    前記マークコントロール上でトリガーされたマーク操作を受信するステップと、
    前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成するステップと、を含むことを特徴とする仮想環境においてマーク情報を生成する方法。
  2. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成する前記ステップは、
    前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示し、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプを含むステップと、
    前記スライド操作の終了位置に応じて、前記少なくとも2つの候補マークタイプの中からターゲットマークタイプを決定するステップと、
    前記照準位置が指す仮想物体上で前記ターゲットマークタイプに対応するマーク情報を生成するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記少なくとも2つの候補マークタイプは、
    警戒マーク、資材マーク、ゴーイングマーク、攻撃マーク、撤退マーク、防御マーク、警告マーク、及び中性マークのうちの少なくとも2つを含むことを特徴とする請求項2に記載の方法。
  4. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記方法はさらに、
    前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示するステップであって、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプ及び中央領域を含む、ステップと、
    前記スライド操作の終了位置が前記中央領域に位置する場合、前記マーク情報の生成をキャンセルするステップと、を含むことを特徴とする請求項1に記載の方法。
  5. 前記照準位置が指す仮想物体上で前記ターゲットマークタイプに対応するマーク情報を生成する前記ステップは、
    前記照準位置に沿って前方へ射線を作るステップと、
    前記射線と前記仮想環境中の地図シーン又は仮想物体との交差位置を決定するステップと、
    前記交差位置上で前記ターゲットマークタイプに対応するマーク情報を生成するステップと、を含むことを特徴とする請求項2に記載の方法。
  6. 前記射線は不可視の射線である、又は、前記射線はすべて又は一部が可視の射線であることを特徴とする請求項5に記載の方法。
  7. 前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成する前記ステップの後、さらに、
    第2視点切り替え操作を受信するステップと、
    前記第2視点切り替え操作に応じて前記照星を既存のマーク情報に照準するステップと、
    前記照星が前記既存のマーク情報に照準する場合、前記ターゲット視点画面上にキャンセルコントロールをオーバーラップ表示するステップと、
    前記キャンセルコントロール上でトリガーされたキャンセル操作を受信するステップと、
    前記キャンセル操作に応じて前記既存のマーク情報の表示をキャンセルするステップと、を含むことを特徴とする請求項1~6のいずれか一項に記載の方法。
  8. 前記方法はさらに
    前記第2視点切り替え操作に応じて前記照星の照準位置を調整するステップと、
    調整後の前記照準位置と前記既存のマーク情報に対応するマーク位置の間の第1距離を計算するステップと、を含み、
    前記照星が前記既存のマーク情報に照準する場合、前記ターゲット視点画面上にキャンセルコントロールをオーバーラップ表示する前記ステップは
    前記第1距離が第1距離閾値未満であり、且つ前記照星が前記既存のマーク情報に照準する場合、前記ターゲット視点画面上にキャンセルコントロールをオーバーラップ表示するステップを含むことを特徴とする請求項7に記載の方法。
  9. 前記仮想オブジェクトがチームメートを有する場合、前記既存のマーク情報は前記仮想オブジェクトがマークしたマーク情報及び前記チームメートがマークしたマーク情報を含むことを特徴とする請求項7に記載の方法。
  10. 仮想環境においてマーク情報を生成する装置であって、前記装置は、表示モジュール、受信モジュール、切り替えモジュール、及び生成モジュールを含み、
    前記表示モジュールは、ターゲット視点画面を表示することに用いられ、前記ターゲット視点画面は仮想オブジェクトのターゲット視点で前記仮想環境を観察して得られた画面であり、前記ターゲット視点画面内に照星及びマークコントロールが表示され、
    前記受信モジュールは、第1視点切り替え操作を受信することに用いられ、
    前記切り替えモジュールは、前記第1視点切り替え操作に応じて前記ターゲット視点画面の観察方向と前記照星の照準位置を変更することに用いられ、
    前記受信モジュールは、前記マークコントロール上でトリガーされたマーク操作を受信することに用いられ、
    前記生成モジュールは、前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成することに用いられることを特徴とする仮想環境においてマーク情報を生成する装置。
  11. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記表示モジュールは、前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することに用いられ、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプを含み、
    決定モジュールは、前記スライド操作の終了位置に応じて、前記少なくとも2つの候補マークタイプの中からターゲットマークタイプを決定することに用いられ、
    前記生成モジュールは、前記照準位置が指す仮想物体上で前記ターゲットマークタイプに対応するマーク情報を生成することに用いられることを特徴とする請求項10に記載の装置。
  12. 前記少なくとも2つの候補マークタイプは警戒マーク、資材マーク、ゴーイングマーク、攻撃マーク、撤退マーク、防御マーク、警告マーク、及び中性マークのうちの少なくとも2つを含むことを特徴とする請求項11に記載の装置。
  13. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記装置はさらに、前記表示モジュール及びキャンセルモジュールを含み、
    前記表示モジュールは、前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することに用いられ、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプ及び中央領域を含み、
    前記キャンセルモジュールは、前記スライド操作の終了位置が前記中央領域に位置する場合、前記マーク情報の生成をキャンセルすることに用いられることを特徴とする請求項10に記載の装置。
  14. 前記生成モジュールは、前記照準位置に沿って前方へ射線を作り、前記射線と前記仮想環境中の地図シーン又は仮想物体との交差位置を決定し、前記交差位置上で前記ターゲットマークタイプに対応するマーク情報を生成することに用いられることを特徴とする請求項11に記載の装置。
  15. 前記装置はさらに前記受信モジュール、前記切り替えモジュール、及び前記表示モジュールを含み、
    前記受信モジュールは、第2視点切り替え操作を受信することに用いられ、
    前記切り替えモジュールは、前記第2視点切り替え操作に応じて前記照星を既存のマーク情報に照準することに用いられ、
    前記表示モジュールは、前記照星が前記既存のマーク情報に照準する場合、前記ターゲット視点画面上にキャンセルコントロールをオーバーラップ表示し、
    前記受信モジュールは、前記キャンセルコントロール上でトリガーされたキャンセル操作を受信することに用いられ、
    前記表示モジュールは、前記キャンセル操作に応じて前記既存のマーク情報の表示をキャンセルすることを特徴とする請求項10~14のいずれか一項に記載の装置。
  16. 端末であって、前記端末は、メモリ、及び前記メモリに接続されるプロセッサを含み、前記メモリに少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットはプロセッサがロードし、且つ実行し、それにより前記プロセッサは、
    ターゲット視点画面を表示することであって、前記ターゲット視点画面は仮想オブジェクトのターゲット視点で仮想環境を観察して得られた画面であり、前記ターゲット視点画面内に照星及びマークコントロールが表示される、ことと、
    第1視点切り替え操作を受信することと、
    前記第1視点切り替え操作に応じて前記ターゲット視点画面の観察方向と前記照星の照準位置を変更することと、
    前記マークコントロール上でトリガーされたマーク操作を受信することと、
    前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成することと、を実行する端末。
  17. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットはプロセッサがロードし、且つ前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成することを実行する時、前記プロセッサは、具体的には、
    前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することであって、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプを含む、ことと、
    前記スライド操作の終了位置に応じて、前記少なくとも2つの候補マークタイプの中からターゲットマークタイプを決定することと、
    前記照準位置が指す仮想物体上で前記ターゲットマークタイプに対応するマーク情報を生成することと、を実行することを特徴とする請求項16に記載の端末。
  18. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットはプロセッサがロードし、且つ実行する時、前記プロセッサはさらに、
    前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することであって、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプ及び中央領域を含む、ことと、
    前記スライド操作の終了位置が前記中央領域に位置する場合、前記マーク情報の生成をキャンセルすることと、を実行することを特徴とする請求項16に記載の端末。
  19. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体に少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットはプロセッサがロードし、且つ実行し、それにより前記プロセッサは、
    ターゲット視点画面を表示することであって、前記ターゲット視点画面は仮想オブジェクトのターゲット視点で仮想環境を観察して得られた画面であり、前記ターゲット視点画面内に照星及びマークコントロールが表示される、ことと、
    第1視点切り替え操作を受信することと、
    前記第1視点切り替え操作に応じて前記ターゲット視点画面の観察方向と前記照星の照準位置を変更することと、
    前記マークコントロール上でトリガーされたマーク操作を受信するステップと、
    前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成することと、を実行することを特徴とするコンピュータ可読記憶媒体。
  20. 前記マークコントロールはジョイスティックコントロールであり、前記マーク操作は前記ジョイスティックコントロールに作用するスライド操作を含み、
    前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は命令セットはプロセッサがロードし、且つ前記マーク操作に応じて、前記照準位置が指す仮想物体上でマーク情報を生成することを実行する時、前記プロセッサは、具体的には、
    前記ジョイスティックコントロール上で前記スライド操作を受信する場合、前記ターゲット視点画面上にルーレットオプションリストをオーバーラップ表示することであって、前記ルーレットオプションリストはルーレットのエッジに沿って並ぶ少なくとも2つの候補マークタイプを含む、ことと、
    前記スライド操作の終了位置に応じて、前記少なくとも2つの候補マークタイプの中からターゲットマークタイプを決定することと、
    前記照準位置が指す仮想物体上で前記ターゲットマークタイプに対応するマーク情報を生成することと、を実行することを特徴とする請求項19に記載のコンピュータ可読記憶媒体。
JP2021539360A 2019-05-30 2020-05-11 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム Active JP7247350B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023039817A JP2023076494A (ja) 2019-05-30 2023-03-14 仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910465483.5 2019-05-30
CN201910465483.5A CN110115838B (zh) 2019-05-30 2019-05-30 虚拟环境中生成标记信息的方法、装置、设备及存储介质
PCT/CN2020/089534 WO2020238592A1 (zh) 2019-05-30 2020-05-11 虚拟环境中生成标记信息的方法、装置、电子设备及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023039817A Division JP2023076494A (ja) 2019-05-30 2023-03-14 仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2022517194A true JP2022517194A (ja) 2022-03-07
JP7247350B2 JP7247350B2 (ja) 2023-03-28

Family

ID=67523450

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021539360A Active JP7247350B2 (ja) 2019-05-30 2020-05-11 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム
JP2023039817A Pending JP2023076494A (ja) 2019-05-30 2023-03-14 仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023039817A Pending JP2023076494A (ja) 2019-05-30 2023-03-14 仮想環境においてマーク情報を生成する方法、装置、電子機器及び記憶媒体

Country Status (6)

Country Link
US (2) US11675443B2 (ja)
JP (2) JP7247350B2 (ja)
KR (1) KR102592632B1 (ja)
CN (1) CN110115838B (ja)
SG (1) SG11202108773VA (ja)
WO (1) WO2020238592A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110585704B (zh) * 2019-09-20 2021-04-09 腾讯科技(深圳)有限公司 虚拟场景中的对象提示方法、装置、设备及存储介质
CN110738738B (zh) * 2019-10-15 2023-03-10 腾讯科技(深圳)有限公司 三维虚拟场景中的虚拟对象标记方法、设备及存储介质
CN110866940B (zh) * 2019-11-05 2023-03-10 广东虚拟现实科技有限公司 虚拟画面的控制方法、装置、终端设备及存储介质
CN111097171B (zh) * 2019-12-17 2022-03-11 腾讯科技(深圳)有限公司 虚拟标记的处理方法和装置、存储介质及电子装置
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN111530075B (zh) * 2020-04-20 2022-04-05 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
CN111589142B (zh) * 2020-05-15 2023-03-21 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备及介质
CN111773705A (zh) * 2020-08-06 2020-10-16 网易(杭州)网络有限公司 一种游戏场景中的互动方法和装置
CN112221123B (zh) * 2020-10-01 2022-08-09 腾讯科技(深圳)有限公司 一种虚拟对象切换方法、装置、计算机设备和存储介质
CN112286362B (zh) * 2020-11-16 2023-05-12 Oppo广东移动通信有限公司 真实环境画面中虚拟道具的显示方法、系统及存储介质
CN112486321B (zh) * 2020-11-30 2022-12-13 郑州捷安高科股份有限公司 三维模型操作控制方法、装置以及终端设备
CN112717392B (zh) * 2021-01-21 2023-04-07 腾讯科技(深圳)有限公司 标记显示方法、装置、终端及存储介质
CN113244621A (zh) * 2021-05-07 2021-08-13 网易(杭州)网络有限公司 一种游戏中的信息处理方法、装置、电子设备及存储介质
CN113244603A (zh) * 2021-05-13 2021-08-13 网易(杭州)网络有限公司 信息处理方法、装置和终端设备
CN113262481A (zh) * 2021-05-18 2021-08-17 网易(杭州)网络有限公司 游戏中的互动方法、装置、设备及存储介质
CN113398572B (zh) * 2021-05-26 2022-08-09 腾讯科技(深圳)有限公司 虚拟道具切换方法、技能切换方法、虚拟对象切换方法
CN113289331B (zh) * 2021-06-09 2022-12-06 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、电子设备及存储介质
CN113289336A (zh) * 2021-06-09 2021-08-24 腾讯科技(深圳)有限公司 在虚拟环境中标记物品的方法、装置、设备及介质
CN113398601B (zh) * 2021-06-25 2022-11-04 网易(杭州)网络有限公司 信息发送方法、信息发送装置、计算机可读介质及设备
CN113499585A (zh) * 2021-08-09 2021-10-15 网易(杭州)网络有限公司 游戏中交互方法、装置、电子设备和存储介质
CN113827986A (zh) * 2021-09-24 2021-12-24 网易(杭州)网络有限公司 角色阵亡后的游戏观战方法及装置、电子设备、存储介质
CN114191811A (zh) * 2021-10-20 2022-03-18 腾讯科技(深圳)有限公司 信息确定方法、装置、设备及存储介质
US11914858B1 (en) * 2022-12-09 2024-02-27 Helen Hyun-Min Song Window replacement display device and control method thereof
CN116704843B (zh) * 2023-06-07 2024-02-23 广西茜英信息技术有限公司 基于通信工程勘察设计的虚拟仿真实训平台

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010207404A (ja) * 2009-03-10 2010-09-24 Taito Corp ゲーム装置、ゲームプログラム
JP2012168931A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US20140066195A1 (en) * 2012-08-31 2014-03-06 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) Video game processing apparatus and video game processing program product
JP2015022583A (ja) * 2013-07-19 2015-02-02 株式会社コナミデジタルエンタテインメント 操作システム、操作制御方法、操作制御プログラム
JP2016059554A (ja) * 2014-09-17 2016-04-25 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
CN108671543A (zh) * 2018-05-18 2018-10-19 腾讯科技(深圳)有限公司 虚拟场景中的标记元素显示方法、计算机设备及存储介质
US20190007639A1 (en) * 2017-06-29 2019-01-03 Canon Kabushiki Kaisha Imaging apparatus, imaging system, moving object, and manufacturing method for imaging apparatus
US20190118078A1 (en) * 2017-10-23 2019-04-25 Netease (Hangzhou) Network Co.,Ltd. Information Processing Method and Apparatus, Storage Medium, and Electronic Device

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186038A (ja) * 1997-03-03 1999-03-30 Sega Enterp Ltd 画像処理装置、画像処理方法及び媒体並びにゲーム機
JP2007014457A (ja) * 2005-07-06 2007-01-25 Sega Corp ビデオゲーム制御プログラムおよびビデオゲーム装置
US7803048B2 (en) * 2006-03-15 2010-09-28 Microsoft Corporation Radar manipulation in a video game
US8342926B2 (en) * 2008-07-13 2013-01-01 Sony Computer Entertainment America Llc Game aim assist
JP5480347B2 (ja) * 2012-08-31 2014-04-23 株式会社スクウェア・エニックス ビデオゲーム処理装置、およびビデオゲーム処理プログラム
US9480921B2 (en) * 2014-03-12 2016-11-01 Wargaming.Net Limited Potential damage indicator of a targeted object
US9764226B2 (en) * 2014-03-12 2017-09-19 Wargaming.Net Limited Providing enhanced game mechanics
JP5945297B2 (ja) * 2014-06-10 2016-07-05 任天堂株式会社 ゲームプログラムおよびゲーム装置
CN105335064B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105335065A (zh) 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
US9919213B2 (en) * 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
CN107376339B (zh) * 2017-07-18 2018-12-28 网易(杭州)网络有限公司 在游戏中锁定目标的交互方法及装置
US10807001B2 (en) * 2017-09-12 2020-10-20 Netease (Hangzhou) Network Co., Ltd. Information processing method, apparatus and computer readable storage medium
CN107992281A (zh) * 2017-10-27 2018-05-04 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
CN107837529B (zh) * 2017-11-15 2019-08-27 腾讯科技(上海)有限公司 一种对象选择方法、装置、终端和存储介质
CN108465240B (zh) * 2018-03-22 2020-08-11 腾讯科技(深圳)有限公司 标记点位置显示方法、装置、终端及计算机可读存储介质
CN108619721B (zh) * 2018-04-27 2020-08-11 腾讯科技(深圳)有限公司 虚拟场景中的距离信息显示方法、装置及计算机设备
CN109513209B (zh) * 2018-11-22 2020-04-17 网易(杭州)网络有限公司 虚拟对象处理方法及装置、电子设备以及存储介质
CN109806585B (zh) * 2019-02-19 2024-02-23 网易(杭州)网络有限公司 游戏的显示控制方法、装置、设备和存储介质
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010207404A (ja) * 2009-03-10 2010-09-24 Taito Corp ゲーム装置、ゲームプログラム
JP2012168931A (ja) * 2011-02-10 2012-09-06 Sony Computer Entertainment Inc 入力装置、情報処理装置および入力値取得方法
US20140066195A1 (en) * 2012-08-31 2014-03-06 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) Video game processing apparatus and video game processing program product
JP2015022583A (ja) * 2013-07-19 2015-02-02 株式会社コナミデジタルエンタテインメント 操作システム、操作制御方法、操作制御プログラム
JP2016059554A (ja) * 2014-09-17 2016-04-25 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
US20190007639A1 (en) * 2017-06-29 2019-01-03 Canon Kabushiki Kaisha Imaging apparatus, imaging system, moving object, and manufacturing method for imaging apparatus
US20190118078A1 (en) * 2017-10-23 2019-04-25 Netease (Hangzhou) Network Co.,Ltd. Information Processing Method and Apparatus, Storage Medium, and Electronic Device
CN108671543A (zh) * 2018-05-18 2018-10-19 腾讯科技(深圳)有限公司 虚拟场景中的标记元素显示方法、计算机设备及存储介质

Also Published As

Publication number Publication date
CN110115838B (zh) 2021-10-29
KR102592632B1 (ko) 2023-10-20
US20230214026A1 (en) 2023-07-06
SG11202108773VA (en) 2021-09-29
WO2020238592A1 (zh) 2020-12-03
US11675443B2 (en) 2023-06-13
JP2023076494A (ja) 2023-06-01
JP7247350B2 (ja) 2023-03-28
KR20210097201A (ko) 2021-08-06
US20210286446A1 (en) 2021-09-16
CN110115838A (zh) 2019-08-13

Similar Documents

Publication Publication Date Title
JP7247350B2 (ja) 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム
WO2019153750A1 (zh) 用于对虚拟环境进行视角切换的方法、装置、设备及存储介质
WO2021227682A1 (zh) 虚拟对象的控制方法、装置、设备及介质
JP7383135B2 (ja) 仮想対象の制御方法及びその装置、機器、並びにコンピュータープログラム
CN109529319B (zh) 界面控件的显示方法、设备及存储介质
WO2019153836A1 (zh) 虚拟环境中虚拟对象的姿态确定方法、装置及介质
WO2021184806A1 (zh) 互动道具显示方法、装置、终端及存储介质
CN110613938B (zh) 控制虚拟对象使用虚拟道具的方法、终端及存储介质
CN111467802B (zh) 虚拟环境的画面显示方法、装置、设备及介质
CN111399639B (zh) 虚拟环境中运动状态的控制方法、装置、设备及可读介质
CN111035918A (zh) 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111481934B (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
JP2023545053A (ja) 仮想オブジェクトの制御方法、装置、端末、記憶媒体及びコンピュータプログラム
AU2020428058B2 (en) Method and apparatus for skill aiming in three-dimensional virtual environment, device and storage medium
CN112870715B (zh) 虚拟道具的投放方法、装置、终端及存储介质
CN113440846A (zh) 游戏的显示控制方法、装置、存储介质及电子设备
WO2021031765A1 (zh) 虚拟环境中瞄准镜的应用方法和相关装置
JP2024509064A (ja) 位置マークの表示方法及び装置、機器並びにコンピュータプログラム
US20230082928A1 (en) Virtual aiming control
CN111273780A (zh) 基于虚拟环境的动画播放方法、装置、设备及存储介质
WO2022237076A1 (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
CN113713383A (zh) 投掷道具控制方法、装置、计算机设备及存储介质
CN113181648B (zh) 基于虚拟对象的交互方法、装置、设备及介质
JP7413563B2 (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7247350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150