WO2023246310A1 - 选中对象的方法、装置和电子设备 - Google Patents

选中对象的方法、装置和电子设备 Download PDF

Info

Publication number
WO2023246310A1
WO2023246310A1 PCT/CN2023/091470 CN2023091470W WO2023246310A1 WO 2023246310 A1 WO2023246310 A1 WO 2023246310A1 CN 2023091470 W CN2023091470 W CN 2023091470W WO 2023246310 A1 WO2023246310 A1 WO 2023246310A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
user interface
graphical user
target object
interaction
Prior art date
Application number
PCT/CN2023/091470
Other languages
English (en)
French (fr)
Inventor
李伟楠
Original Assignee
网易(杭州)网络有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 网易(杭州)网络有限公司 filed Critical 网易(杭州)网络有限公司
Publication of WO2023246310A1 publication Critical patent/WO2023246310A1/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface

Definitions

  • the present disclosure relates to the field of game technology, and in particular, to a method, device and electronic device for selecting an object.
  • embodiments of the present disclosure provide a method for selecting an object, providing a graphical user interface through a terminal device; the method includes: in response to the target object appearing in the graphical user interface, obtaining the target object in the above graphical user interface. Object position; based on the object position, set the interaction area corresponding to the target object in the graphical user interface; wherein, the interaction area is larger than the display area of the above target object in the graphical user interface, and the interaction area is used: in response to the specified trigger operation, Selects the target object; selects the target object in response to a specified trigger operation acting on the interaction area.
  • embodiments of the present disclosure also provide a device for selecting an object, including: a position acquisition module configured to obtain the object position of the target object in the graphical user interface in response to the appearance of the target object in the above graphical user interface;
  • the area setting module is configured to set the interaction area corresponding to the target object in the graphical user interface based on the object position; wherein the interaction area is larger than the display area of the target object in the graphical user interface, and the interaction area is used to: respond to the specified trigger operation Afterwards, the target object is selected; the object selection module is configured to execute a specified trigger operation in response to the interaction area and select the target object.
  • embodiments of the present disclosure provide a machine-readable storage medium.
  • the machine-readable storage medium stores machine-executable instructions.
  • the machine-executable instructions When the machine-executable instructions are called and executed by a processor, the machine-executable instructions cause the processor to Implement the above method of selecting objects.
  • the target object By triggering the interaction area, the target object can be selected; this method can expand the available range of the selected object.
  • the operation area can select objects conveniently and efficiently.
  • the operation success rate of the selected object is high, which reduces the operating burden of the selected object, improves the player's gaming experience, reduces the running time of the terminal device, and saves the power consumption of the terminal device.
  • Figure 1 is a schematic diagram of a scene of selecting an object provided by one embodiment of the present disclosure
  • Figure 2 is a flow chart of a method for selecting an object provided by one embodiment of the present disclosure
  • Figure 5 is a schematic diagram of an interactive area in a graphical user interface provided by one embodiment of the present disclosure
  • Figure 7 is a schematic diagram showing multiple objects in a graphical user interface provided by one embodiment of the present disclosure.
  • Figure 8 is a schematic diagram of an interaction area corresponding to multiple objects in a graphical user interface provided by one embodiment of the present disclosure
  • Figure 9 is a schematic diagram of selecting multiple objects in a graphical user interface provided by one embodiment of the present disclosure.
  • Figure 11 is a schematic diagram of an interactive area in another adjusted graphical user interface provided by one embodiment of the present disclosure.
  • Figure 12 is a schematic structural diagram of a device for selecting objects provided by one embodiment of the present disclosure.
  • the success rate of the player's operation of selecting objects is low, and the operation convenience is poor, which results in a greater operational burden on the selected object and reduces the player's enjoyment of the game experience.
  • the method for selecting an object in one embodiment of the present disclosure can be run on a terminal device or a server, and the terminal device can be a touch terminal device.
  • the method of the selected object is run on the server, the method can be implemented and executed based on the cloud interaction system, where the cloud interaction system includes the server and the client device.
  • cloud gaming refers to a gaming method based on cloud computing.
  • the client device can be a display device with data transmission function close to the user side, such as a mobile terminal, a television, a computer, a handheld computer, etc.; however, the information processing is done in the cloud.
  • Cloud gaming server When playing a game, the player operates the client device to send operating instructions to the cloud game server.
  • the cloud game server runs the game according to the operating instructions, encodes and compresses the game screen and other data, and returns it to the client device through the network. Finally, the cloud game server performs operations through the client device. Decode and output game screen.
  • the method of selecting an object provides a graphical user interface through a terminal device.
  • the terminal device can be the local terminal device recorded above or the client device recorded above. This method includes the following steps:
  • the object position of the target object in the graphical user interface is obtained, where the object position can include : The position coordinate information of the target object in the graphical user interface. Specifically, it may be the position coordinate information of the edge point (for example, a vertex) corresponding to the target object.
  • the three-dimensional position information of the target object in the game scene can be obtained first, and then the three-dimensional position information is mapped to the two-dimensional space of the scene according to the shooting parameters of the virtual camera, and the target object's position in the scene is obtained.
  • Position information that is, the position information of the target object in the graphical user interface.
  • a target object is displayed on the graphical user interface, and the area occupied by the target object in the graphical user interface is the display area of the target object.
  • the area occupied by each virtual object in the image user interface is usually relatively small, and the display area of the target object is also relatively small.
  • the player can also quickly and accurately select the target object, which reduces the player's
  • the operation burden of the selected object improves the player's gaming experience, reduces the running time of the terminal device, and saves the power consumption of the terminal device.
  • the interactive area may not be displayed in the graphical user interface.
  • the player may be notified in advance of the setting rules for the interactive area.
  • the setting rules may include the size of the interactive area, how it changes as the position of the target object changes, etc. This allows the player to directly determine the interaction area of the target object through the position of the target object. But usually, the interaction area is larger than the display area of the target object. In one way, the display area of the target object is included in the interaction area, which also includes part of the scene area; in another way, the display area of the target object is located in outside the interaction area.
  • the purpose of this embodiment is to provide a new method for selecting an object.
  • an interaction area corresponding to the target object is set.
  • the interaction area is larger than the display area of the target object in the graphical user interface.
  • the target object can be selected by executing the specified trigger operation in the area. Based on this, the area where the player selects the object is expanded, which facilitates the player's operation and increases the fun of the game experience.
  • Step S206 Select the target object in response to the specified trigger operation acting on the interaction area.
  • Players can select the target object based on the status of the virtual objects appearing in the graphical user interface or the current game status. For example, if an enemy object appears in the game scene and has low health, the player can determine the enemy object as The target object, or when a teammate in poor condition appears in the graphical user interface and the player wants to rescue the teammate, the player can identify the teammate as the target object.
  • the specified trigger operation will be responded to, thereby selecting the target object corresponding to the interaction area.
  • the player can perform subsequent operations on the target object. For example, when the target object is an enemy object, after the player selects the target object, he can release skills to cause damage to the target object; when the target object is a teammate, after the player selects the target object , can help your teammates recover their status, etc.
  • the specified trigger operation for the interactive area can be the same as or different from the trigger operation for the target object; the specified trigger operation can include specific operations such as click, double-click, and long press.
  • the above method of selecting an object in response to the appearance of the target object in the graphical user interface, obtains the object position of the target object in the graphical user interface; based on the object position, sets an interaction area corresponding to the target object in the graphical user interface; wherein the interaction area is larger than The display area of the target object in the graphical user interface.
  • the interactive area is used to: select the target object in response to the specified trigger operation; select the target object in response to the specified trigger operation acting on the interactive area.
  • the interaction area of the target object is set in the interface according to the object position of the target object.
  • the interaction area is larger than the display area of the target object.
  • the following embodiment provides a method of obtaining the object position of a target object in a graphical user interface.
  • the capsule body of the target object's object model in the game scene In response to the target object appearing in the graphical user interface, obtain the capsule body of the target object's object model in the game scene; determine the capsule plane area of the capsule body in the scene screen displayed in the graphical user interface, and set the capsule plane area relative to the capsule plane area.
  • the position information of the specified position point is determined as the object position of the target object in the graphical user interface.
  • virtual objects in the game scene have corresponding models.
  • developers create the model, they will also create a three-dimensional capsule model that is invisible to the camera and matches the size of the virtual object model.
  • the capsule of the target object's object model in the game scene is obtained. Further, the capsule is projected in the graphical user interface to determine
  • the plane area of the capsule draws a minimum rectangle, the length of the minimum rectangle is the length of the capsule projection, the width of the minimum rectangle is the width of the capsule projection, and the minimum rectangle includes the capsule projection inside the rectangle.
  • the capsule plane area of the capsule in the scene picture displayed on the graphical user interface determines the position point in the upper left corner direction of the capsule plane area as the object position of the target object in the graphical user interface.
  • the above-mentioned designated position point relative to the plane area of the capsule can be the vertex of the upper left corner of the minimum rectangle. Of course, it can also be other position points in the upper left corner direction of the plane area of the capsule.
  • the designated position point is the upper left corner of the minimum rectangle
  • the vertex of the corner is determined
  • the position of the vertex of the upper left corner of the minimum rectangle is determined as the object position of the target object in the graphical user interface.
  • the following embodiment provides a specific implementation method for obtaining the object position of a target object in a graphical user interface.
  • the distribution state may include both the object number and the density of the target object, or may include only one of the object number or density.
  • the distribution status of the target objects appearing in the graphical user interface will be counted.
  • the distribution status includes the number and density of the target objects. etc., the degree of density can be represented by level one, level two, and level three, corresponding to sparse, relatively sparse, dense, etc., respectively.
  • a target object appears in the graphical user interface.
  • the distribution status of the target object in the graphical user interface is: the number of objects in the target object is 1, the density is small, and it can be sparse.
  • multiple target objects can also appear in the graphical user interface.
  • the number of target objects is multiple and the density is relatively large.
  • obtain the object position in the graphical user interface of the target object and then generate an interaction area based on the object position to expand the interaction range of the selected target object.
  • an interaction area corresponding to the target object will be generated, and when the target object moves, the interaction area corresponding to the target object will also move accordingly.
  • the object position of the target object is obtained to generate an interaction area, and the player can be prompted by prompt information that the interaction area of the target object has been generated. , or display the interactive area in the graphical user interface through area identification.
  • the object position of the object is obtained, and then the interaction area is set based on the object position, thereby improving the success rate of selecting an object when there are many objects.
  • the interaction area corresponding to the target object is set in the graphical user interface according to the object position of the target object. Specifically, the interaction area corresponding to the target object is set according to the object position of the target object and the reference position in the graphical user interface. In order to make the set interaction area more in line with the player's operating habits, the base position is determined based on the trigger position of the historical trigger operation, and then based on the object position of the target object and the above-mentioned base position, the interaction area corresponding to the target object is set. Based on this, the player only needs By executing a specified trigger operation at any position in the interaction area, the target object corresponding to the interaction area can be selected, which expands the area for players to select objects and reduces the difficulty of operations for players to select objects.
  • the base position can be determined from the right area.
  • the base position is the lower right corner of the graphical user interface. position, or a specified position on the right edge, etc.
  • the base position can be determined from the left area.
  • the base position is the lower left corner of the graphical user interface. Or a specified position on the left edge, etc.
  • the area with more triggering positions can be understood as the area where the player's operations are relatively borderline; therefore, the base position is determined based on the triggering positions of the historical triggering operations, and then based on The reference position determines the interaction area, which can make the interaction area more in line with the player's operating habits.
  • the target object is in the middle or on the right side of the graphical user interface
  • the right area in the interface optionally, uses point A in the figure and the vertex of the lower right corner of the graphical user interface as the reference position to generate an interactive area as a touchable rectangle for the selected target object.
  • a The point is the vertex of the upper left corner, and the opposite corner of point A is located in the lower right corner of the graphical user interface. Based on this, an interactive area A is created. The player can select the target object by clicking anywhere in the interactive area A.
  • an interactive area that is convenient for player operations can be generated based on the location information of the target object. For example, if the position of the target object is on the right side, the interaction area is generated on the right side, as shown in Figure 4, and if the position of the target object is on the left side, the interaction area is generated on the left side. As long as the target object appears in the graphical user interface, the corresponding interaction area will appear. When the target object moves in the graphical user interface, the interaction area will also move or deform.
  • this embodiment generates an interactive area in the lower right area of the target object.
  • the player's right thumb can quickly select the object without any effort, which greatly improves the efficiency of selecting the target object.
  • the success rate improves the player's gaming experience, reduces the running time of the terminal device, and saves the power consumption of the terminal device.
  • the reference position in the graphical user interface is located in the lower right corner of the graphical user interface; based on the object position and the reference position, a rectangular area is generated; where the object position and the reference position are opposite corners of the rectangular area; the above rectangular area is determined is the interaction area corresponding to the target object.
  • the above-mentioned object position can be specifically the upper left corner position point of the capsule plane area of the target object; that is, the target object is provided with a capsule in the game scene, and the capsule corresponds to the capsule in the scene screen.
  • Planar area set a minimum circumscribed rectangle for the capsule planar area
  • the object position is the upper left corner point of the minimum circumscribed rectangle.
  • the above object position can also be other position points in the direction of the upper left corner of the target object.
  • the above-mentioned reference position may be the position point of the lower right corner of the graphical user interface. Of course, it may also be other position points in the direction of the lower right corner of the graphical user interface.
  • a rectangular area can be generated based on the object position and the reference position. The object position and the reference position in the rectangular area are diagonal to each other, that is, the line connecting the object position and the reference position is the diagonal line of the rectangular area, and the rectangular area is the target object. Corresponding interaction area.
  • point A is the object position in the upper left corner of the target object
  • point B is the lower right corner of the graphical user interface, that is, the reference position, where point A and point B are the opposite corners of the rectangular interaction area A.
  • the above-mentioned target object includes a first object and a second object; in response to the display area of the first object blocking the display area of the second object, the first interaction area of the first object and the first interaction area of the second object are determined.
  • multiple target objects can appear in the graphical user interface.
  • the two target objects can be far away or close.
  • point A is the position point corresponding to the position information of the first object.
  • Point A is the upper left corner vertex of the interaction area of the first object, and forms a touchable rectangle with the lower right corner of the graphical user interface, that is, the first Interaction area
  • point B in the figure is the position point corresponding to the position information of the second object.
  • Point B is the upper left corner vertex of the interaction area of the second object, and forms another touchable rectangle with the lower right corner of the graphical user interface. , that is, the second interaction area. Further, the overlapping area of the first interaction area of the first object and the second interaction area of the second object can be determined. In this method, since the display area of the first object blocks the display area of the second object, according to the same display level, the first interaction area blocks the second interaction area; when a specified trigger operation is performed in the first interaction area, the first interaction area can be selected. Object; Since part of the second interaction area is blocked by the first interaction area, that is, the overlapping area of the entire area, the second object can be selected only by performing a specified trigger operation in the remaining area outside the overlapping area in the second interaction area.
  • Figure 6 is an example.
  • the first interaction area of the first object is determined as the display area of the first object.
  • the display area of the first object is in an unobstructed state, and the player can more conveniently trigger the display area of the first object to select the first object; but because The display area of the second object is blocked, making it inconvenient for the player to select the second object through the display area of the second object.
  • the specified trigger operation can be performed in the remaining area outside the display area of the first object in the second interaction area. Select the second object.
  • the first object when the first object blocks the second object, the first object is selected through the display area of the first object itself, and the second object is selected through the interaction area of the second object, which can improve the convenience and convenience of the selection operation of the blocked object. Success rate.
  • the first object position of the first object and the second object position of the second object in response to a specified trigger operation acting on the overlapping area, determine the first object position of the first object and the second object position of the second object; based on the positional relationship between the first object position and the second object position, A hierarchical relationship between the first interaction area and the second interaction area is determined.
  • the specified trigger operation can be implemented in a variety of ways, for example, click to determine the first object
  • the object position can be the vertex position of the minimum rectangle.
  • the object position of the first object can be the upper left corner vertex position of the minimum rectangle of the capsule plane area of the first object.
  • the interaction area of the target object includes the target pair A rectangular area composed of the object position and the reference position of the object; among them, the object position and the reference position are opposite corners of the rectangular area.
  • the interaction area corresponding to each target object is formed based on the above method. Therefore, when in the graphical user interface When multiple target objects appear, the interaction areas of the target objects may form overlapping areas.
  • the hierarchical relationship between the interaction areas of the first object and the second object is determined based on the positional relationship between the object positions of the first object and the second object.
  • a coordinate system can be set on the graphical user interface, and the coordinate system includes a coordinate axis in the horizontal direction and a coordinate axis in the vertical direction.
  • the hierarchical relationship between the interactive areas of multiple target objects is set based on the same principle.
  • the player when the player performs a target selection operation, he usually performs a click operation on the object display area of the target object. Due to the limited length of the player's finger, he often clicks on the area on the right side of the object display area, that is, the operation position deviates.
  • the target object can be selected smoothly even when there is a slight deviation in the player's operation position, thereby improving the convenience of the target selection operation.
  • the player wants to select the first object and the second object at the same time, he can select the first object and the second object at the same time.
  • the first object and the second object can be selected at the same time. It should be noted that the starting point or end point of the sliding operation is located in the overlapping area.
  • an interaction area corresponding to each target object is set in the graphical user interface; when the interaction areas corresponding to the above multiple objects have overlapping areas, if the player When you want to select one of the target objects, you can accurately select the object based on the above method.
  • the player wants to select multiple target objects for example, the player wants to select the target objects corresponding to C, D, and E in the picture.
  • an indicator arrow will be displayed in the graphical user interface.
  • the player can perform a sliding operation along the direction of the indicator arrow and respond. At The above sliding operation determines the target interaction area that the sliding path of the sliding operation passes through, and selects multiple target objects corresponding to the target interaction area.
  • the position point of the interaction area where the target object is generated can be adjusted.
  • the graphical user interface includes two target objects, namely a first object and a second object, and the interaction area of the first object and the interaction area of the second object overlap, and then the interaction area of the first object and the interaction area of the second object overlap.
  • the area of the overlapping area of the interaction area of the two objects is compared with the preset area area threshold. If the area of the overlapping area is greater than the preset area area threshold, the position point for generating the interaction area is adjusted.
  • Figure 11 is another example.
  • the vertex of the upper left corner of the first interaction area that is, the above-mentioned area edge position
  • the lower right corner of the display area of the target object that is, point A1
  • takes the lower right corner of the graphical user interface as the lower right corner vertex of the first interaction area
  • sets the first interaction area when , the first interaction area does not include the display area of the target object.
  • the player can either choose to perform the specified trigger operation in the display area of the target object, or perform the specified trigger operation in the first interaction area. Based on this, all objects in the graphical user interface All can be easily selected, further improving the success rate and convenience of players selecting objects.
  • the above-mentioned area identifier matches the object attribute of the target object corresponding to the interaction area. For example, if the area identification is the area color, then the color of the interaction area corresponding to each target object can be consistent with the color of the clothing worn by the model of the target object, such as , the model of the target object is wearing pink clothes. At this time, the interaction area corresponding to the target object is pink translucent color; similarly, if the identification area is an area outline, it can be outlined by the color of the clothes worn by the model of the target object. The interaction area of this target object.
  • the object selection module 126 is configured to select the target object in response to a specified trigger operation acting on the interaction area.
  • the target object By triggering the interactive area, the target object can be selected; this method can expand the operable area of the selected object, and can Convenient and efficient object selection, the operation success rate of the selected object is high, which reduces the operating burden of the selected object, improves the player's gaming experience, reduces the running time of the terminal device, and saves the power consumption of the terminal device.
  • the above-mentioned area setting module is also configured to perform: using the object position and the reference position in the graphical user interface as a reference position to generate the interactive area of a specified shape; wherein the display area of the target object in the graphical user interface is included in in the interactive area.
  • This embodiment also provides an electronic device, including a processor and a memory.
  • the memory stores machine-executable instructions that can be executed by the processor.
  • the processor executes the machine-executable instructions to implement the above method of selecting an object.
  • the electronic device may be a server or a terminal device.
  • the capsule body of the target object's object model in the game scene In response to the target object appearing in the graphical user interface, obtain the capsule body of the target object's object model in the game scene; determine the capsule plane area of the capsule body in the scene screen displayed in the graphical user interface, and set the capsule plane area relative to the capsule plane area.
  • the position information of the specified position point is determined as the object position of the target object in the graphical user interface.
  • the interaction area of the target object is much larger than the display area of the target object, making it easier for the player to accurately select the target object.
  • the target object includes a first object and a second object; the first object is provided with a first interaction area, and the second object is provided with a second interaction area; there is an overlapping area between the first interaction area and the second interaction area; in response to the Specify a trigger operation to determine the hierarchical relationship between the first interaction area and the second interaction area; in this hierarchical relationship, the levels of the first interaction area and the second interaction area are arranged in order from high to low; the interaction with the highest level is The target object corresponding to the area is determined to be the selected target object.
  • the graphical user interface is preset with a coordinate system; the coordinate system includes a coordinate axis in the horizontal direction and a coordinate axis in the vertical direction; the position located on the graphical user interface has coordinate values in the horizontal direction and coordinate values in the vertical direction. ;exist In the above coordinate system, the first coordinate value of the first object's position in the horizontal direction is determined, and the second coordinate value of the second object's position in the horizontal direction is determined; based on the size relationship between the first coordinate value and the second coordinate value, determine Hierarchical relationships between multiple target interaction areas.
  • the first object and the second object are selected; wherein the operating starting point or the operating end point of the sliding operation is located in the overlapping area.
  • the edge position of the interaction area by adjusting the edge position of the interaction area, the degree of overlap of the interaction areas corresponding to multiple target objects is reduced, the success rate and convenience of the player's selection of objects are improved, and the fun of the game experience is improved.
  • the area identifier corresponding to the interaction area in the graphical user interface; wherein, the area identifier is used to: indicate the area location of the interaction area; the identification display format of the area identifier matches the object attribute of the target object corresponding to the interaction area.
  • the electronic device shown in FIG. 13 also includes a bus 102 and a communication interface 103.
  • the processor 100, the communication interface 103 and the memory 101 are connected through the bus 102.
  • the memory 101 may include high-speed random access memory (RAM, Random Access Memory), and may also include non-volatile memory (non-volatile memory), such as at least one disk memory.
  • RAM random access memory
  • non-volatile memory non-volatile memory
  • the communication connection between the system network element and at least one other network element is realized through at least one communication interface 103 (which can be wired or wireless), and the Internet, wide area network, local network, metropolitan area network, etc. can be used.
  • the bus 102 may be an ISA bus, a PCI bus, an EISA bus, etc.
  • the bus can be divided into address bus, data bus, control bus, etc. For ease of presentation, only one bidirectional arrow is used in Figure 13, but it does not mean that there is only one bus or one type of bus.
  • the processor 100 may be an integrated circuit chip with signal processing capabilities. During the implementation process, each step of the above method can be completed by instructions in the form of hardware integrated logic circuits or software in the processor 100 .
  • the above-mentioned processor 100 can be a general-purpose processor, including a Central Processing Unit (CPU for short), a Network Processor (NP for short), etc.; it can also be a Digital Signal Processor (DSP for short). ), Application Specific Integrated Circuit (ASIC for short), Field-Programmable Gate Array (FPGA for short) or other programmable logic devices, discrete gate or transistor logic devices, and discrete hardware components.
  • CPU Central Processing Unit
  • NP Network Processor
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • a general-purpose processor may be a microprocessor or the processor may be any conventional processor, etc.
  • the steps of the method disclosed in conjunction with the embodiments of the present disclosure can be directly implemented by a hardware decoding processor, or executed by a combination of hardware and software modules in the decoding processor.
  • software The module can be located in random access memory, flash memory, read-only memory, programmable read-only memory or electrically erasable programmable memory, registers and other mature storage media in this field.
  • the storage medium is located in the memory 101.
  • the processor 100 reads the information in the memory 101 and completes the steps of the method in the aforementioned embodiment in combination with its hardware.
  • This embodiment also provides a machine-readable storage medium.
  • the machine-readable storage medium stores machine-executable instructions.
  • the machine-executable instructions prompt the processor to implement the above-mentioned selected object.
  • the interactive area is used to: select the target object in response to the specified trigger operation; select the target object in response to the specified trigger operation acting on the interactive area.
  • This method can expand the operable area of the selected object, and can select the object conveniently and efficiently.
  • the operation success rate of the selected object is high, which reduces the operating burden of the selected object, improves the player's gaming experience, reduces the running time of the terminal device, and saves money. reduce the power consumption of terminal equipment.
  • the capsule body of the target object's object model in the game scene In response to the target object appearing in the graphical user interface, obtain the capsule body of the target object's object model in the game scene; determine the capsule plane area of the capsule body in the scene screen displayed in the graphical user interface, and set the capsule plane area relative to the capsule plane area.
  • the position information of the specified position point is determined as the object position of the target object in the graphical user interface.
  • an interaction area corresponding to the target object is set in the graphical user interface; wherein the reference position is used to jointly determine the interaction area with the object position on the graphical user interface.
  • an interaction area of a specified shape is generated; where the display area of the target object in the graphical user interface is included in the interaction area.
  • an interaction area of a specified shape is generated by using the position point in the object position and the reference position as the reference position.
  • the player can select the target object without moving the finger to a large extent, which improves the convenience of the player's operation of selecting the object.
  • the reference position in the graphical user interface is located in the lower right corner of the graphical user interface; based on the object position and the reference position, a rectangular area is generated; where the object position and the reference position are opposite corners of the rectangular area; the above rectangular area is determined as the target object Corresponding interaction area.
  • the interaction area of the target object is much larger than the display area of the target object, making it easier for the player to accurately select the target object.
  • the target object includes a first object and a second object; the first object is provided with a first interaction area, and the second object is provided with a second interaction area; there is an overlapping area between the first interaction area and the second interaction area; in response to the Specify a trigger operation to determine the hierarchical relationship between the first interaction area and the second interaction area; where, the hierarchical relationship , the levels of the first interactive area and the second interactive area are arranged in descending order; the target object corresponding to the highest level interactive area is determined as the selected target object.
  • the graphical user interface is preset with a coordinate system; the coordinate system includes a coordinate axis in the horizontal direction and a coordinate axis in the vertical direction; the position located on the graphical user interface has coordinate values in the horizontal direction and coordinate values in the vertical direction. ; In the above coordinate system, determine the first coordinate value of the first object position in the horizontal direction, and the second coordinate value of the second object position in the horizontal direction; based on the size relationship between the first coordinate value and the second coordinate value , determine the hierarchical relationship between multiple target interaction areas.
  • the first object and the second object are selected; wherein the operating starting point or the operating end point of the sliding operation is located in the overlapping area.
  • the edge position of the interaction area by adjusting the edge position of the interaction area, the degree of overlap of the interaction areas corresponding to multiple target objects is reduced, the success rate and convenience of the player's selection of objects are improved, and the fun of the game experience is improved.
  • the area identifier corresponding to the interaction area in the graphical user interface; wherein, the area identifier is used to: indicate the area location of the interaction area; the identification display format of the area identifier matches the object attribute of the target object corresponding to the interaction area.
  • the computer program products of the methods, devices and systems for selecting objects provided by the embodiments of the present disclosure include computer-readable storage media storing program codes.
  • the instructions included in the program codes can be used to execute the steps described in the previous method embodiments. For specific implementation of the method, please refer to the method embodiment and will not be described again here.
  • connection should be understood in a broad sense.
  • it can be a fixed connection or a detachable connection. , or integrally connected; it can be a mechanical connection or an electrical connection; it can be a direct connection or an indirect connection through an intermediate medium; it can be an internal connection between two components.
  • connection should be understood in specific situations. Terms have their specific meanings in this disclosure.
  • the functions are implemented in the form of software functional units and sold or used as independent products, they can be stored in a computer-readable storage medium.
  • the technical solution of the present disclosure is essentially or the part that contributes to the relevant technology or the part of the technical solution can be embodied in the form of a software product.
  • the computer software product is stored in a storage medium and includes several The instructions are used to cause a computer device (which may be a personal computer, a server, or a network device, etc.) to execute all or part of the steps of the methods described in various embodiments of the present disclosure.
  • the aforementioned storage media include: U disk, mobile hard disk, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), magnetic disk or optical disk and other media that can store program code. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了一种选中对象的方法、装置和电子设备,其中,该方法包括:响应于图形用户界面中出现目标对象,基于目标对象在图形用户界面中的对象位置,在图形用户界面中设置目标对象对应的交互区域;交互区域大于目标对象在图形用户界面中的显示区域,交互区域用于响应于指定触发操作后选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。该方式中,根据目标对象的对象位置,在界面中设置目标对象的交互区域,该交互区域大于目标对象的显示区域,通过触发该交互区域,可以选中目标对象;该方式可以扩大选中对象的可操作区域,可以便捷高效的选中对象,选中对象的操作成功率较高,降低了选中对象的操作负担,提高了玩家的游戏体验。 (图2)

Description

选中对象的方法、装置和电子设备
相关申请的交叉引用
本公开要求于2022年06月24日提交的申请号为202210731386.8、名称为“选中对象的方法、装置和电子设备”的中国专利申请的优先权,该中国专利申请的全部内容通过引用全部并入本文。
技术领域
本公开涉及游戏技术领域,尤其是涉及一种选中对象的方法、装置和电子设备。
背景技术
在部分手游游戏中,游戏场景中会出现虚拟对象,玩家需要从虚拟对象中选中目标对象,然后再对选中的目标对象执行释放技能、聊天、交易等操作。然而,由于虚拟对象比较小,导致对象选中操作的触控范围比较小;当游戏场景中的虚拟对象在移动时,或者游戏场景中同时出现多个虚拟对象且多个虚拟对象相互重叠时,玩家很难成功执行对象选中操作,往往需要多次执行该对象选中操作才可成功选中目标对象,导致选中对象的操作负担较大,降低了玩家的游戏体验,操作负担的提升延长了终端设备的运行时长,耗费终端设备的电量。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的相关技术的信息。
发明内容
有鉴于此,本公开的目的在于提供一种选中对象的方法、装置和电子设备,以便捷高效的选中对象,提高选中对象的操作成功率,降低选中对象的操作负担,提高玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
第一方面,本公开实施例提供了一种选中对象的方法,通过终端设备提供一图形用户界面;方法包括:响应于图形用户界面中出现目标对象,获取该目标对象在上述图形用户界面中的对象位置;基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,该交互区域大于上述目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。
第二方面,本公开实施例还提供一种选中对象的装置,包括:位置获取模块,被配置为执行响应于上述图形用户界面中出现目标对象,获取目标对象在图形用户界面中的对象位置;区域设置模块,被配置为执行基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,交互区域大于目标对象在图形用户界面的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;对象选中模块,被配置为执行响应作用于交互区域的指定触发操作,选中目标对象。
第三方面,本公开实施例提供了一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的机器可执行指令,处理器执行机器可执行指令以实现上述选中对象的方法。
第四方面,本公开实施例提供了一种机器可读存储介质,机器可读存储介质存储有机器可执行指令,机器可执行指令在被处理器调用和执行时,机器可执行指令促使处理器实现上述选中对象的方法。
本公开实施例带来了以下有益效果:
上述选中对象的方法、装置和电子设备,响应于图形用户界面中出现目标对象,获取该目标对象在上述图形用户界面中的对象位置;基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,该交互区域大于上述目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。该方式中,根据目标对象的对象位置,在界面中设置目标对象的交互区域,该交互区域大于目标对象的显示区域,通过触发该交互区域,可以选中目标对象;该方式可以扩大选中对象的可操作区域,可以便捷高效的选中对象,选中对象的操作成功率较高,降低了选中对象的操作负担,提高了玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开其中之一实施例提供的一种选中对象的场景示意图;
图2为本公开其中之一实施例提供的一种选中对象的方法的流程图;
图3为本公开其中之一实施例提供的一种目标对象在图像用户界面中的位置信息的示意图;
图4为本公开其中之一实施例提供的一种设置交互区域的示意图;
图5为本公开其中之一实施例提供的一种图形用户界面中交互区域的示意图;
图6为本公开其中之一实施例提供的另一种图形用户界面中交互区域的示意图;
图7为本公开其中之一实施例提供的一种图形用户界面中存在多个对象的示意图;
图8为本公开其中之一实施例提供的一种图形用户界面中多个对象对应的交互区域的示意图;
图9为本公开其中之一实施例提供的一种图形用户界面中选中多个对象的示意图;
图10为本公开其中之一实施例提供的一种调整后的图形用户界面中交互区域的示意图;
图11为本公开其中之一实施例提供的另一种调整后的图形用户界面中交互区域的示意图;
图12为本公开其中之一实施例提供的一种选中对象的装置的结构示意图;
图13为本公开其中之一实施例提供的一种选中对象的电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合附图对本公开的 技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
在部分手游游戏中,选中目标对象是玩家执行释放技能、聊天等操作的基础,然而游戏场景中虚拟对象比较小,导致对象选中操作的触控范围比较小,增加了玩家选中目标对象的难度,当虚拟对象在游戏画面中移动,或者游戏画面中出现多个虚拟对象且多个虚拟对象存在重叠的情况时,如图1所示,玩家执行点击操作,很难精准地选中目标对象,此外,当目标对象出现在画面中间时,玩家需要将手指移动到中心才能进行点击,操作便捷性较差。
综上,玩家选择对象的操作成功率较低,操作便捷性较差,导致选中对象的操作负担较大,降低了玩家的游戏体验乐趣。
基于此,本公开实施例提供的一种选中对象的方法、装置和电子设备,该技术可以应用于各类游戏中需要选中对象的场景,例如,选中攻击对象、选中要互动或救助的队友等。
在本公开其中一种实施例中的选中对象的方法,可以运行于终端设备或者是服务器,该终端设备可以是触控终端设备。当选中对象的方法运行于服务器时,该方法则可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,选中对象的方法的储存与运行是在云游戏服务器上完成的,客户端设备的作用用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息处理的为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
在一可选的实施方式中,以游戏为例,终端设备存储有游戏程序并用于呈现游戏画面。终端设备用于通过图形用户界面与玩家进行交互,即,常规的通过电子设备下载安装游戏程序并运行。该终端设备将图形用户界面提供给玩家的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给玩家。举例而言,终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
在一种可能的实施方式中,本公开实施例提供了一种选中对象的方法,通过终端设备提供一图形用户界面,其中,终端设备可以是前述提到的终端设备,也可以是前述提到的云交互系统中的客户端设备。通过该终端设备提供一图形用户界面,该图形用户界面上可以根据启动的应用程序的类型,显示界面内容,例如,游戏场景画面、通信交互窗口等等。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种选中对象的方法进 行详细介绍,如图2所示,该选中对象的方法,通过终端设备提供一图形用户界面,其中,终端设备可以为前述记载的本地终端设备,也可以为前述记载的客户端设备,本方法包括如下步骤:
步骤S202,响应于图形用户界面中出现目标对象,获取目标对象在图形用户界面中的对象位置;
图形用户界面中出现的目标对象,具体可以是游戏场景中存在的虚拟对象,例如,目标对象可以为玩家自己控件的受控虚拟对象、攻击对象、NPC(non-player character,非玩家角色)等,再如,在组队作战的游戏中,目标对象可以为游戏场景中的敌方对象,还可以是己方队友,或者NPC等等。
图形用户界面中可以仅出现一个目标对象,也可以同时出现多个目标对象,当目标对象出现在图形用户界面,则获取该目标对象在图像用户界面中的对象位置,其中,该对象位置可以包括:目标对象在图形用户界面中的位置坐标信息,具体可以是目标对象对应的边缘点(例如,顶点)的位置坐标信息。在实际实现时,可以先获取目标对象在游戏场景中的三维位置信息,然后再根据虚拟摄像机的拍摄参数,将三维位置信息映射至场景画面的二维空间中,得到目标对象在场景画面中的位置信息,即目标对象在图形用户界面中的位置信息。
步骤S204,基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,交互区域大于目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;
具体的,在图形用户界面显示有目标对象,该目标对象在图形用户界面中所占据的区域,为目标对象的显示区域,在3D(3-dimensional,三维)视角下的作战游戏场景中,由于虚拟摄像机通常与虚拟对象的距离较远,以广视角的方式拍摄虚拟场景,因而各个虚拟对象在图像用户界面中所占据的区域通常比较小,目标对象的显示区域也比较小。
本实施例中,根据目标对象的对象位置,在图形用户界面中设置与目标对象对应的交互区域,该交互区域具体用于:当玩家执行指定的触发操作后,响应于指定触发操作,选中目标对象。上述指定的触发操作可以为点击、双击等操作,为了方便玩家执行选中目标的指定触发操作,设置的交互区域大于目标对象在图形用户界面中的显示区域,基于此,玩家可以通过区域较大的交互区域来选中目标对象,当目标对象出现在图形用户界面的中间位置,或者目标对象在移动时,或者目标对象周围存在其他虚拟对象时,玩家也可以快速、精确地选中目标对象,降低了玩家选中对象的操作负担,提升玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
交互区域的设置方式可以有多种。在一可选的方式中,可以按照游戏场景中各个目标对象的位置,将图形用户界面分成多个区域,多个区域之间可以重叠,也可以不重叠,每个目标对象对应一个区域,作为目标对象的交互区域。每个交互区域可以通过颜色、边框或文本的方式标识显示在图形用户界面中,该情况下,交互区域的形状或区域大小可以具有一定的随机性,但通常情况下,该交互区域与对应的目标对象的位置相关。例如,该交互区域的位置随着目标对象的位置变化而变化,或者,该交互区域的大小随着目标对象的位置变化而变化等。
交互区域也可以不显示在图形用户界面中,该情况下,可以预先告知玩家交互区域的设置规则,该设置规则可以包括交互区域的大小、随着目标对象的位置变化的变化方式等。使得玩家可以通过目标对象的位置,直接可以确定该目标对象的交互区域。但通常,交互区域大于目标对象的显示区域,一种方式中,目标对象的显示区域包含在交互区域中,该交互区域中还包括部分场景区域;另一种方式中,目标对象的显示区域位于交互区域以外。
本实施例的目的是,提供一种新的选中对象的方法,根据目标对象的位置信息,设置与目标对象对应的交互区域,该交互区域大于目标对象在图形用户界面的显示区域,玩家在交互区域执行指定触发操作即可选中目标对象,基于此,扩大了玩家选中对象的区域,方便玩家操作,增加了游戏的体验乐趣。
步骤S206,响应作用于交互区域的指定触发操作,选中目标对象。
玩家可以根据图形用户界面中出现的虚拟对象的状态,或者当前对局状态,选择目标对象,例如:游戏场景画面中出现一敌方对象而且血量较低,玩家可以将该敌方对象确定为目标对象,或者当图形用户界面中出现状态不佳的己方队友,玩家想要救助队友时,可以将该己方队友确定为目标对象。
实际实现时,只要玩家在交互区域中执行指定触发操作,就会响应该指定触发操作,从而选中与交互区域对应的目标对象。玩家即可对目标对象执行后续操作,例如,当目标对象为敌方对象时,玩家选中目标对象后,可以释放技能,对目标对象造成伤害;当目标对象为己方队友时,玩家选中目标对象后,可以帮助己方队友恢复状态等。
在选中目标对象时,针对交互区域的指定触发操作,与针对目标对象的触发操作可以相同,也可以不同;指定触发操作可以包括单击、双击、长按等具体操作。
上述选中对象的方法,响应于图形用户界面中出现目标对象,获取目标对象在图形用户界面中的对象位置;基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,交互区域大于目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。该方式中,根据目标对象的对象位置,在界面中设置目标对象的交互区域,该交互区域大于目标对象的显示区域,通过触发该交互区域,可以选中目标对象;该方式可以扩大选中对象的可操作区域,可以便捷高效的选中对象,选中对象的操作成功率较高,降低了选中对象的操作负担,提高了玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
下述实施例提供一种获取目标对象在图形用户界面中的对象位置的方式。
响应于图形用户界面中出现目标对象,获取目标对象的对象模型在游戏场景中的胶囊体;确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域,将相对于胶囊体平面区域的指定位置点的位置信息,确定为目标对象在图形用户界面中的对象位置。
在实际实现时,游戏场景中的虚拟对象都有与之对应的模型,开发人员在创建模型时,会同时创建一个摄像机不可见的、与虚拟对象模型尺寸大小匹配的三维胶囊体模型。当图形用户界面中出现目标对象,需要获取该目标对象的对象位置时,则获取目标对象的对象模型在游戏场景中的胶囊体,进一步的,将该胶囊体投影在图形用户界面中,以确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域,可参阅图3,然后在 该胶囊体平面区域绘制一最小矩形,该最小矩形的长度为胶囊体投影的长度,该最小矩形的宽度为胶囊体投影的宽度,而且上述最小矩形把胶囊体投影包含在矩形内部。
进一步的,确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域;将胶囊体平面区域的左上角方向的位置点,确定为目标对象在图形用户界面中的对象位置。具体的,上述相对于胶囊体平面区域的指定位置点具体可以为最小矩形左上角的顶点,当然,也可以为胶囊体平面区域的左上角方向的其他位置点,当指定位置点为最小矩形左上角的顶点时,将最小矩形左上角的顶点位置,确定为目标对象在图形用户界面中的对象位置。
下述实施例提供一种获取目标对象在图形用户界面中的对象位置的具体实现方式。
响应于图形用户界面中出现目标对象,统计图形用户界面中出现的目标对象的分布状态;其中,该分布状态包括目标对象的对象数量和/或密集程度;响应于分布状态满足预设条件,获取目标对象在图形用户界面中的对象位置。
该分布状态可以同时包括目标对象的对象数量和密集程度,也可以仅包括对象数量或密集程度之一。实际实现时,出现在图形用户界面中的目标对象可以有一个或者多个,针对图形用户界面中目标对象出现的数量不同,以及多个目标对象的密集程度不同,玩家选中目标对象的难度也会不同。具体的,当图形用户界面中出现的目标对象的数量少,且分布稀疏时,玩家选中目标对象的成功率也最高,当图形用户界面中出现的目标对象数量较多,且分布密集,玩家成功选中目标对象的难度会变大。
为了降低玩家选中目标对象的操作难度,本实施例中,当图形用户界面中出现目标对象时,会统计图形用户界面中出现的目标对象的分布状态,该分布状态包括目标对象的数量、密集程度等,该密集程度可以用一级、二级、三级来表示,分别对应稀疏、比较稀疏、密集等,当上述分布状态满足预设条件时,则获取目标对象在图形用户界面中的位置信息。
一种可选的方式中,图形用户界面中出现一个目标对象,此时图形用户界面中目标对象分布状态为:目标对象的对象数量为1,密集程度较小,可以为稀疏,此时,无需获取目标对象的对象位置,并基于对象位置设置交互区域,直接通过目标对象的显示区域选中目标对象即可。
另一种可选的方式中,图形用户界面中还可以出现多个目标对象,此时图形用户界面中目标对象的分布状态中,目标对象的对象数量为多个,密集程度较大,此时,则获取目标对象的图形用户界面中的对象位置,然后基于该对象位置生成交互区域,以扩大选中目标对象的交互范围。
需要说明的是,只要图形用户界面中出现目标对象,就会生成与目标对象对应的交互区域,而且在目标对象移动时,目标对象对应的交互区域也会随之移动,当目标对象较少或者密集程度较小时,无需获取目标对象的对象位置;当目标对象较多或者密集程度较大时,获取目标对象的对象位置生成交互区域,可以通过提示信息的方式提示玩家已生成目标对象的交互区域,或者,通过区域标识的方式将交互区域显示在图形用户界面中。
上述方式中,当对象较多或较密集时,才获取对象的对象位置,进而基于该对象位置设置交互区域,从而提高在对象较多的情况下的选中对象的操作成功率。
下述实施例提供一种设置所述目标对象对应的交互区域的具体实现方式。
具体的,基于对象位置,以及图形用户界面中的基准位置,在图形用户界面中设置目标对象对应的交互区域;其中,该基准位置用于和对象位置在图形用户界面上共同确定交互区域。
实际实现时,根据目标对象的对象位置,在图形用户界面设置目标对象对应的交互区域,具体可以为根据目标对象的对象位置和图形用户界面中的基准位置共同来设置目标对象对应的交互区域,为了使设置的交互区域更加符合玩家的操作习惯,基于历史触发操作的触发位置确定基准位置,再基于目标对象的对象位置和上述基准位置,设置目标对象对应的交互区域,基于此,玩家只需要在交互区域中任一位置执行指定触发操作,就可以选中该交互区域对应的目标对象,扩大了玩家选中对象的区域,降低了玩家选中对象的操作难度。
一种具体的实现方式中,如果历史触发操作的触发位置主要分布在图形用户界面中的右侧区域,则可以从右侧区域中确定基准位置,例如,该基准位置为图形用户界面的右下角位置,或者右侧边缘上的指定位置等。另一种方式中,如果历史触发操作的触发位置主要分布在图形用户界面中的左侧区域,则可以从左侧区域中确定基准位置,例如,该基准位置为图形用户界面的左下角位置,或者左侧边缘上的指定位置等。
由于历史触发操作的触发位置可以代表玩家的操作习惯,触发位置较多的区域,可以理解为,该区域是玩家操作较为边界的区域;因而,基于历史触发操作的触发位置确定基准位置,进而基于该基准位置确定交互区域,可以使交互区域更加符合玩家的操作习惯。
进一步的,将对象位置,以及图形用户界面中的基准位置作为参考位置,生成指定形状的交互区域;其中,目标对象在图形用户界面中的显示区域包含在交互区域中。
目标对象在图形用户界面中占据一定的显示区域,可以从该显示区域中确定上述对象位置对应的位置点,例如,该显示区域的左上角的位置点、右下角的位置点等。一种具体的实现方式中,目标对象在虚拟场景中的对象模型,通常设置有对应的三维胶囊体,该三维胶囊体投影在图形用户界面中,形成一个二维图形,针对该二维图形绘制一最小矩形,可以将胶囊体模型的投影包含在此最小矩形的内部,上述对象位置对应的位置点,可以为上述最小矩形的顶点,例如;左上角的顶点、右上角的顶点等。
然后将上述位置点和图形用户界面中的基准位置作为参考位置,生成指定形状的交互区域,可选的,上述指定形状可以是矩形,此外,生成的交互区域会包含目标对象的显示区域。作为示例,当指定形状为矩形时,上述目标对象的位置信息对应的位置点为位于目标对象的显示区域的左上角的点,如点A,基准位置为图形用户界面右下角的点,如点B,点A和点B作为矩形的对角,可以唯一的确定出一个矩形,该矩形即目标对象的交互区域,同时,由于点A位于目标对象的显示区域的左上角,目标对象的显示区域包含在交互区域中。
为了便于理解,可以参阅图4,当目标对象处在图形用户界面的中间或者偏右侧的位置时,考虑到用户通常使用右手来执行选中目标对象的指定触发操作,即上述基准位置处于图形用户界面中右侧区域,可选的,以图中A点和图形用户界面中右下角的顶点作为参考位置,生成交互区域,作为选中目标对象的可触控矩形,该交互区域中,A 点为左上角的顶点,A点的对角位于图形用户界面的右下角,基于此,创建交互区域A,玩家点击交互区域A中任一位置,都可以选中目标对象。
另一种方式中,可以根据最小矩形的右上角的顶点与图形用户界面的左下角生成一可触控矩形,作为交互区域。例如,当目标对象处在图形用户界面中靠近左侧的位置时,此时,以最小矩形的右上角的顶点作为交互区域右上角的顶点,该点的对角位于图形用户界面的左下角。
本实施例中,可以根据目标对象的位置信息,生成方便玩家操作的交互区域。例如,如果目标对象的位置在右侧,则在右侧生成交互区域,如图4所示,如果目标对象的位置在左侧,则在左侧生成交互区域。只要目标对象出现在图形用户界面中,与之对应的交互区域就会随之出现,当目标对象在图形用户界面中移动时,该交互区域也会随之移动或发生形变。
该方式中,通过对象位置中的位置点与基准位置作为参考位置生成指定形状的交互区域,玩家无须将手指移动很大幅度即可选中目标对象,提高了玩家选中对象的操作的便捷性。
需要说明的是,在手游游戏中,图形用户界面的左侧设置移动控件,玩家通过左手拇指操作移动控件,从而控制受控虚拟对象的移动;同时,图形用户界面的右侧设置技能控件;玩家通过右手拇指选中目标对象,进而对选中的目标对象释放技能、进行通信等操作;具体的,在选中目标对象时,玩家使用右手拇指在目标对象自身的显示区域进行单击或双击操作。但是,由于触控屏幕面积比较大,游戏场景中的虚拟对象可能会分布在场景的各个位置,同时,右手拇指的长度又非常有限,玩家通过右手拇指选中虚拟对象时,很难精确的点击到目标对象本身,容易发生误选中,需要玩家费力伸右手拇指并多次执行点击操作,才可以正确选中目标对象,操作便捷性较差。
为了解决上述问题,本实施例在目标对象的右下方区域生成交互区域,通过目标对象的右下方区域,玩家的右手拇指可以在不费力的情况下快捷的选中对象,大大地提升了选中目标对象的成功率,从而提高了玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
基于上述,图形用户界面中的基准位置位于图形用户界面的右下角方向;基于对象位置和基准位置,生成矩形区域;其中,对象位置和基准位置互为矩形区域的对角;将上述矩形区域确定为目标对象对应的交互区域。
在一可选的方式中,上述对象位置具体可以为目标对象的胶囊体平面区域的左上角位置点;即,目标对象在游戏场景中设置有胶囊体,该胶囊体在场景画面中对应胶囊体平面区域,对该胶囊体平面区域设置一最小外接矩形,对象位置即该最小外接矩形的左上角点。当然,上述对象位置也可以是目标对象左上角方向的其他位置点。
由于图形用户界面是矩形,上述基准位置可以是图形用户界面的右下角的位置点,当然,也可以是图形用户界面的右下角方向的其他位置点。根据对象位置和基准位置可以生成一矩形区域,该矩形区域中对象位置和基准位置互为对角,即对象位置和基准位置的连线为矩形区域的对角线,该矩形区域即为目标对象对应的交互区域。
在图4的示例中,A点即目标对象左上角方向的对象位置;B点即图形用户界面的右下角点,即基准位置,其中,A点和B点为矩形交互区域A的对角。
在上述方式中,目标对象的交互区域比目标对象的显示区域大得多,便于玩家精准地选中目标对象。
下述实施例提供一种当多个目标对象发生重叠时,交互区域的设置方式以及目标对象的选中方式。
一种具体的方式中,上述目标对象包括第一对象和第二对象;响应于第一对象的显示区域遮挡第二对象的显示区域,确定第一对象的第一交互区域和第二对象的第二交互区域的重叠区域;其中,第一交互区域用于:响应于指定触发操作后,选中第一对象;响应于第二交互区域中重叠区域以外的剩余区域的指定触发操作,选中第二对象。
实际实现时,图形用户界面中可以出现多个目标对象,当出现两个目标对象时,即第一对象和第二对象,这两个目标对象可以距离很远,也可以距离较近,当两个目标对象距离较近时,容易出现第一对象的显示区域遮挡第二对象的显示区域,相对应的第一对象的第一交互区域和第二对象的第二交互区域会发生重叠,可参阅图5,其中A点即为第一对象位置信息对应的位置点,该A点为第一对象的交互区域的左上角顶点,与图形用户界面的右下角构成一可触控矩形,即第一交互区域,同样地,图中B点为第二对象位置信息对应的位置点,以B点为第二对象的交互区域的左上角顶点,与图形用户界面的右下角构成另一可触控矩形,即第二交互区域,进一步的,可以确定第一对象的第一交互区域和第二对象的第二交互区域的重叠区域。在该方式中,由于第一对象的显示区域遮挡第二对象的显示区域,按照同样的显示层级,第一交互区域遮挡第二交互区域;在第一交互区域执行指定触发操作,可以选中第一对象;由于第二交互区域中有部分区域被第一交互区域遮挡,即整个区域的重叠区域,在第二交互区域中重叠区域以外的剩余区域中执行指定触发操作,才可以选中第二对象。
另一具体的方式中,上述目标对象包括第一对象和第二对象;响应于第一对象的显示区域遮挡第二对象的显示区域,确定第一对象的第一交互区域为第一对象的显示区域;其中,第一交互区域用于:响应于指定触发操作后,选中第一对象;响应于第二交互区域中第一对象的显示区域以外的剩余区域的指定触发操作,选中第二对象。
图6作为一个示例,当图形用户界面中出现两个目标对象,且第一对象的显示区域遮挡第二对象的显示区域时,将第一对象的第一交互区域确定为第一对象的显示区域,即,由于第一对象的显示区域遮挡第二对象的显示区域,第一对象的显示区域处于无遮挡状态,玩家可以比较方便的触发第一对象的显示区域,从而选中第一对象;但由于第二对象的显示区域被遮挡,不便于玩家通过第二对象的显示区域选中第二对象,基于此,在第二交互区域中第一对象的显示区域以外的剩余区域执行指定的触发操作,可以选中第二对象。
上述方式中,当第一对象遮挡第二对象,通过第一对象的显示区域本身选中第一对象,通过第二对象的交互区域选中第二对象,可以提高被遮挡对象的选中操作的便捷性和成功率。
下述实施例继续说明当目标对象包括多个时,选中目标对象的具体实施方式。
上述目标对象包括第一对象和第二对象;第一对象设置有第一交互区域,第二对象设置有第二交互区域;第一交互区域和第二交互区域存在重叠区域;响应作用于重叠区域的指定触发操作,确定第一交互区域和第二交互区域之间的层级关系;其中,该层级 关系中,第一交互区域的第二交互区域的层级由高到低顺序排列;将层级最高的交互区域对应的目标对象,确定为选中的目标对象。
在实际实现时,图形用户界面中可以出现多个目标对象,如图7所示,当图形用户界面出现多个目标对象时,目标对象对应的交互区域可能会产生重叠区域,从而影响玩家选中目标对象,为了使玩家拥有良好的游戏体验,本实施例中,针对图形用户界面中出现多个目标对象的情况,预先设置好目标对象对应的交互区域的层级关系,每个目标对象的交互区域对应一个层级,当多个目标对象中,至少两个目标对象的交互区域存在重叠区域时,例如,目标对象为第一对象和第二对象,第一对象的第二对象的交互区域存在重叠区域,响应作用于重叠区域的指定触发操作,确定第一交互区域和第二交互区域之间的层级关系,在该层级关系中,至少第一交互区域和第二交互区域之间的层级可以按照由高到低顺序进行排列;然后将层级最高的交互区域对应的目标对象确定为选中的目标对象。
前述第一对象和第二对象的交互区域存在重叠区域,可以是图形用户界面中出现的全部目标对象之间的交互区域存在重叠区域,也可以是部分目标对象之间的交互区域存在重叠区域。如果玩家针对重叠区域执行指定触发操作,为了确定最终选中哪个目标对象,需要设置存在重叠区域的交互区域之间的层级关系。该层级关系可以基于目标对象之间的位置关系确定,也可以基于目标对象在图形用户界面中出现的先后顺序确定。
该方式中,通过设置交互区域的层级关系,使得在图形用户界面中出现多个目标对象,多个目标对象的交互区域存在重叠区域时,也能够精准地选中目标对象,提高了玩家的游戏体验。
可选的,响应作用于重叠区域的指定触发操作,确定第一对象的第一对象位置,以及第二对象的第二对象位置;基于第一对象位置和第二对象位置之间的位置关系,确定第一交互区域和第二交互区域之间的层级关系。
一种方式中,当第一对象和第二对象的交互区域存在重叠区域时,响应作用于重叠区域的执行触发操作,该指定触发操作可以有多种实现方式,例如,点击,确定第一对象的对象位置和第二对象的对象位置,该对象位置可以为最小矩形的顶点位置,比如,第一对象的对象位置可以为第一对象的胶囊体平面区域的最小矩形的左上角顶点位置,第二对象的对象位置可以为第二对象的胶囊体平面区域的最小矩形的左上角顶点位置,然后根据第一对象和第二对象的对象位置之间的关系,也就是,比较第一对象对应的最小矩形的左上角顶点位置与第二对象对应的最小矩形的左上角顶点的位置之间的关系,进而确定第一交互区域和第二交互区域之间的层级关系。
下述实施例继续说明确定多个目标对象的交互区域之间的层级关系的具体实施方式。
图形用户界面预设有坐标系;该坐标系包括水平方向上的坐标轴和竖直方向上的坐标轴;位于图形用户界面上的位置具有水平方向上的坐标值和竖直方向上的坐标值;在上述坐标系中,确定第一对象位置在水平方向上的第一坐标值,以及第二对象位置在水平方向上的第二坐标值;基于第一坐标值和第二坐标值的大小关系,确定多个目标交互区域之间的层级关系。
具体的,当图形用户界面中出现多个目标对象时,目标对象的交互区域包括目标对 象的对象位置与基准位置组成的矩形区域;其中,对象位置和基准位置互为矩形区域的对角,每个目标对象对应的交互区域都是基于上述方式形成的,因此,当图形用户界面中出现多个目标对象时,目标对象的交互区域可能会形成重叠区域。
本实施例中,基第一对象和第二对象的对象位置之间的位置关系来确定第一对象和第二对象的交互区域之间的层级关系。具体的,可以在图形用户界面上设置一坐标系,该坐标系包括水平方向上的坐标轴和竖直方向上的坐标轴。获取至少两个目标对象在水平方向上的坐标值,比较上述两个目标对象的对象位置的横坐标的大小,目标对象的对象位置的横坐标越大,其对应的交互区域的层级越高。当图形用户界面中出现至少两个目标对象时,也是基于相同的原理来设置多个目标对象的交互区域之间的层级关系。
为了便于理解,可参阅图8,当图形用户界面中出现5个目标对象时,按从左至右的顺序,每个目标对象对应的第一位置点分别为点A、B、C、D、E,上述第一位置点A、B、C、D、E的横坐标依次变大,因此,上述第一位置点A、B、C、D、E对应的交互区域的层级关系为A<B<C<D<E。基于此,通过设置交互区域的层级关系,即使多个目标对象对应的交互区域存在重叠区域,也可以从中精确地选中某一目标对象。
需要说明的是,玩家在执行目标选择操作时,通常会对目标对象的对象显示区域执行点击操作,由于玩家手指长度有限,经常会点击到对象显示区域右侧的区域,即操作位置出现偏差,通过本实施例的交互区域的设置方式,可以在玩家操作位置产生微小偏差时,也可以顺利的选中目标对象,从而提高目标选中操作的便捷性。
另一种具体的方式中,响应作用于重叠区域的滑动操作,选中第一对象和第二对象;其中,滑动操作的操作起点或操作终点位于重叠区域。
具体的,当图形用户界面中出现第一对象和第二对象,并且第一对象和第二对象的交互区域存在重叠区域,当玩家想要同时选中第一对象和第二对象时,可以在重叠区域执行滑动操作,就可以实现同时选中第一对象和第二对象。需要说明的是,该滑动操作的操作起点或者操作终点位于重叠区域。
同样的,当图形用户界面中,出现多个目标对象,多个目标对象对应的交互区域存在重叠区域时,如果玩家想要同时选中多个目标对象,可以在重叠区域执行滑动操作,进而选中具有层级关系的交互区域对应的目标对象。上述滑动操作的操作起点或操作终点位于重叠区域,为了便于理解,可以参阅图9,如果玩家想要同时选中C、D、E三个目标对象,可以从重叠区域开始向左滑动至目标对象C对应的交互区域,即按照图9中虚线箭头的轨迹滑动,也可以从目标对象C对应的交互区域开始向右滑动至重叠区域,即按照图9中实线箭头的轨迹滑动。类似的,如果玩家想要选中目标对象D和E,可以从目标对象D对应的交互区域向右滑动至重叠区域,也可以从重叠区域向左滑动至目标对象D对应的交互区域。
实际实现时,目标对象可以有多个,当有多个目标对象时,在图形用户界面中设置有每个目标对象对应的交互区域;上述多个对象对应的交互区域存在重叠区域时,如果玩家想要选中其中一个目标对象时,可以基于上述方法精准地选中对象,如果玩家想要选中多个目标对象,例如,玩家想要选中图中的C、D、E对应的目标对象,此时,玩家在交互区域中执行指定触发操作,例如、长按、点击、双击等,即会在图形用户界面中显示一指示箭头,可参阅图9,玩家可以沿着指示箭头的方向执行滑动操作,响应于 上述滑动操作,确定滑动操作的滑动路径经过的目标交互区域,选中目标交互区域对应的多个目标对象。
该方式中,当目标对象的数量较多、密集程度较大时,若玩家想要选中多个对象,可以执行指定触发操作,例如、长按、点击、双击等,图形用户界面会出现一指示箭头,当玩家根据指示箭头执行滑动操作时,选中滑动路径经过的目标交互区域对应的目标对象,基于此,简化了玩家选中多个对象的操作,提高了玩家选中多个对象的操作的便捷性。
进一步的,响应于重叠区域的区域面积高于预设的区域面积阈值;调整第一交互区域和/或第二交互区域的区域边缘位置,以使重叠区域的区域面积低于预设区域面积阈值。
实际实现时,当图形用户界面中出现的目标对象有多个,且存在重叠现象,可以对生成目标对象的交互区域的位置点进行调整。例如,图形用户界面中包括两个目标对象,分别为第一对象和第二对象,且第一对象的交互区域和第二对象的交互区域存在重叠区域,然后将第一对象的交互区域和第二对象的交互区域的重叠区域的区域面积与预设区域面积阈值进行比较,如果上述重叠区域的区域面积大于预设区域面积阈值,则调整生成交互区域的位置点。
图10作为一个示例,当第一对象和第二对象的重叠区域的区域面积大于预设区域面积阈值时,可以将第一交互区域右下角的顶点,即上述区域边缘位置,稍向左上方移动,使得重叠区域的区域面积小于预设区域面积阈值,此时,降低了第一对象的交互区域和第二对象的交互区域的重叠程度,以提高玩家准确选中第一对象或者第二对象的成功率。
图11作为另一个示例,当第一对象和第二对象的重叠区域的区域面积大于预设区域面积阈值时,还可以将第一交互区域的左上角的顶点,即上述区域边缘位置,移动至目标对象的显示区域的右下角,即A1点,以A1点为第一交互区域的左上角顶点,以图形用户界面的右下角为第一交互区域的右下角顶点,设置第一交互区域,此时,第一交互区域不包括目标对象的显示区域,玩家既可以选择在目标对象的显示区域执行指定触发操作,也可以在第一交互区域执行指定触发操作,基于此,图形用户界面中所有对象都可被轻易选中,进一步提高玩家选中对象的成功率和便捷性。
该方式中,通过调整交互区域的边缘位置,降低了多个目标对象对应的交互区域的重叠程度,提高玩家选中对象的成功率和便捷性,提高游戏体验乐趣。
进一步的,在图形用户界面中显示交互区域对应的区域标识;其中,区域标识用于:指示交互区域的区域位置;区域标识的标识显示格式与交互区域对应的目标对象的对象属性相匹配。
实际实现时,当图形用户界面中出现目标对象时,便会生成与目标对象相对应的交互区域,针对目标对象的数量较少或者密集程度较小时,由于设置了较大的与目标对象对应的交互区域,此时是否在图形用户界面显示目标对象的交互区域,对于玩家执行指定触发操作的影响不大,可以由玩家自行设定,当目标对象的数量较多或者密集程度较大时,会在图形用户界面中显示交互区域对应的区域标识,该区域标识可以指示目标对象对应的交互区域的区域位置,具体可以为区域颜色,也可以是区域轮廓,上述区域标 识的显示格式与交互区域对应的目标对象的对象属性相匹配,例如,如果区域标识为区域颜色,那么每个目标对象对应的交互区域的颜色可以与目标对象的模型穿戴的衣物颜色一致,比如,目标对象的模型身穿粉色衣物,此时,该目标对象对应的交互区域即为粉色半透明颜色;类似的,如果标识区域为区域轮廓,那么可以由目标对象的模型穿戴的衣物颜色来勾勒该目标对象的交互区域。
该方式中,通过设定交互区域对应的区域标识,方便玩家在图形用户界面中出现多个目标对象时,快速区分每个目标对象对应的交互区域,提高了玩家选中对象的成功率和准确率。
对于上述方法实施例,参见图12所示的一种选中对象的装置的结构示意图,通过终端设备提供一图像用户界面,该装置包括:
位置获取模块122,被配置为执行响应于图形用户界面中出现目标对象,获取目标对象在图形用户界面中的对象位置;
区域设置模块124,被配置为执行基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,交互区域大于目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;
对象选中模块126,被配置为执行响应作用于交互区域的指定触发操作,选中目标对象。
上述选中对象的装置,响应于图形用户界面中出现目标对象,获取目标对象在图形用户界面中的对象位置;基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,交互区域大于目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。根据目标对象的对象位置,在界面中设置目标对象的交互区域,该交互区域大于目标对象的显示区域,通过触发该交互区域,可以选中目标对象;该方式可以扩大选中对象的可操作区域,可以便捷高效的选中对象,选中对象的操作成功率较高,降低了选中对象的操作负担,提高了玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
上述位置获取模块,还被配置为执行:响应于图形用户界面中出现目标对象,获取该目标对象的对象模型在游戏场景中的胶囊体;确定该胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域,将相对于胶囊体平面区域的指定位置点,确定为目标对象在图形用户界面中的对象位置。
上述位置获取模块,还被配置为执行:确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域;将胶囊体平面区域的左上角方向的位置点,确定为目标对象在所述图形用户界面中的对象位置。
上述位置获取模块,还被配置为执行:响应于图形用户界面中出现目标对象,统计图形用户界面中出现的目标对象的分布状态;其中,该分布状态包括目标对象的对象数量和/或密集程度;响应于分布状态满足预设条件,获取目标对象在图形用户界面中的对象位置。
上述区域设置模块,还被配置为执行:基于对象位置,以及图形用户界面中的基准位置,在图形用户界面中设置目标对象对应的交互区域;其中,基准位置用于和对象位 置在图形用户界面上共同确定交互区域。
上述区域设置模块,还被配置为执行:将对象位置,以及图形用户界面中的基准位置作为参考位置,生成指定形状的所述交互区域;其中,目标对象在图形用户界面中的显示区域包含在交互区域中。
上述图形用户界面中的基准位置位于图形用户界面的右下角方向;上述区域设置模块,还被配置为执行:基于对象位置和基准位置,生成矩形区域;其中,对象位置和基准位置互为矩形区域的对角;将该矩形区域确定为交互区域。
上述目标对象包括第一对象和第二对象;第一对象设置有第一交互区域,第二对象设置有第二交互区域;第一交互区域和第二交互区域存在重叠区域;上述对象选中模块,还被配置为执行:响应作用于重叠区域的指定触发操作,确定第一交互区域和第二交互区域之间的层级关系;其中,该层级关系中,第一交互区域和第二交互区域的层级由高到低顺序排列;将层级最高的交互区域对应的目标对象,确定为选中的目标对象。
上述对象选中模块,还被配置为执行:响应作用于重叠区域的指定触发操作,确定第一对象的第一对象位置,以及第二对象的第二对象位置;基于第一对象位置和第二对象位置之间的位置关系,确定第一交互区域和第二交互区域之间的层级关系。
上述图形用户界面预设有坐标系;该坐标系包括水平方向上的坐标轴和竖直方向上的坐标轴;位于图形用户界面上的位置具有水平方向上的坐标值和竖直方向上的坐标值;上述对象选中模块,还被配置为执行:在坐标系中,确定第一对象位置在水平方向上的第一坐标值,以及第二对象位置在水平方向上的第二坐标值;基于第一坐标值和第二坐标值的大小关系,确定多个目标交互区域之间的层级关系。
上述装置还包括:滑动模块,被配置为执行:响应作用于所述重叠区域的滑动操作,选中所述第一对象和所述第二对象;其中,所述滑动操作的操作起点或操作终点位于所述重叠区域。
上述装置还包括:调整模块,被配置为执行:响应于重叠区域的区域面积高于预设的区域面积阈值;调整第一交互区域和/或第二交互区域的区域边缘位置,以使重叠区域的区域面积低于区域面积阈值。
上述装置还包括:显示模块,被配置为执行:在图形用户界面中显示交互区域对应的区域标识;其中,该区域标识用于:指示交互区域的区域位置;区域标识的标识显示格式与交互区域对应的目标对象的对象属性相匹配。
本实施例还提供一种电子设备,包括处理器和存储器,存储器存储有能够被处理器执行的机器可执行指令,处理器执行机器可执行指令以实现上述选中对象的方法。该电子设备可以是服务器,也可以是终端设备。
参见图13所示,该电子设备包括处理器100和存储器101,该存储器101存储有能够被处理器100执行的机器可执行指令,该处理器100执行机器可执行指令以实现上述选中对象的方法,例如:
响应于图形用户界面中出现目标对象,获取该目标对象在上述图形用户界面中的对象位置;基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,该交互区域大于上述目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。
该方式可以扩大选中对象的可操作区域,可以便捷高效的选中对象,选中对象的操作成功率较高,降低了选中对象的操作负担,提高了玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
响应于图形用户界面中出现目标对象,获取目标对象的对象模型在游戏场景中的胶囊体;确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域,将相对于胶囊体平面区域的指定位置点的位置信息,确定为目标对象在图形用户界面中的对象位置。
确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域;将胶囊体平面区域的左上角方向的位置点,确定为目标对象在图形用户界面中的对象位置。
响应于图形用户界面中出现目标对象,统计图形用户界面中出现的目标对象的分布状态;其中,该分布状态包括目标对象的对象数量和/或密集程度;响应于分布状态满足预设条件,获取目标对象在图形用户界面中的对象位置。
上述方式中,当对象较多或较密集时,才获取对象的位置信息,进而基于位置信息设置交互区域,从而提高在对象较多的情况下的选中对象的操作成功率。
基于对象位置,以及图形用户界面中的基准位置,在图形用户界面中设置目标对象对应的交互区域;其中,该基准位置用于和对象位置在图形用户界面上共同确定交互区域。
将对象位置,以及图形用户界面中的基准位置作为参考位置,生成指定形状的交互区域;其中,目标对象在图形用户界面中的显示区域包含在交互区域中。
该方式中,通过对象位置中的位置点与基准位置作为参考位置生成指定形状的交互区域,玩家无须将手指移动很大幅度即可选中目标对象,提高了玩家选中对象的操作的便捷性。
图形用户界面中的基准位置位于图形用户界面的右下角方向;基于对象位置和基准位置,生成矩形区域;其中,对象位置和基准位置互为矩形区域的对角;将上述矩形区域确定为目标对象对应的交互区域。
在上述方式中,目标对象的交互区域比目标对象的显示区域大得多,便于玩家精准地选中目标对象。
目标对象包括第一对象和第二对象;第一对象设置有第一交互区域,第二对象设置有第二交互区域;第一交互区域和第二交互区域存在重叠区域;响应作用于重叠区域的指定触发操作,确定第一交互区域和第二交互区域之间的层级关系;其中,该层级关系中,第一交互区域的第二交互区域的层级由高到低顺序排列;将层级最高的交互区域对应的目标对象,确定为选中的目标对象。
该方式中,通过设置交互区域的层级关系,使得在图形用户界面中出现多个目标对象,多个目标对象的交互区域存在重叠区域时,也能够精准地选中目标对象,提高了玩家的游戏体验。
响应作用于重叠区域的指定触发操作,确定第一对象的第一对象位置,以及第二对象的第二对象位置;基于第一对象位置和第二对象位置之间的位置关系,确定第一交互区域和第二交互区域之间的层级关系。
图形用户界面预设有坐标系;该坐标系包括水平方向上的坐标轴和竖直方向上的坐标轴;位于图形用户界面上的位置具有水平方向上的坐标值和竖直方向上的坐标值;在 上述坐标系中,确定第一对象位置在水平方向上的第一坐标值,以及第二对象位置在水平方向上的第二坐标值;基于第一坐标值和第二坐标值的大小关系,确定多个目标交互区域之间的层级关系。
响应作用于重叠区域的滑动操作,选中第一对象和第二对象;其中,滑动操作的操作起点或操作终点位于重叠区域。
该方式中,当目标对象的数量较多、密集程度较大时,若玩家想要选中多个对象,可以执行指定触发操作,例如、长按、点击、双击等,图形用户界面会出现一指示箭头,当玩家根据指示箭头执行滑动操作时,选中滑动路径经过的目标交互区域对应的目标对象,基于此,简化了玩家选中多个对象的操作,提高了玩家选中多个对象的操作的便捷性。
响应于重叠区域的区域面积高于预设的区域面积阈值;调整第一交互区域和/或第二交互区域的区域边缘位置,以使重叠区域的区域面积低于预设区域面积阈值。
该方式中,通过调整交互区域的边缘位置,降低了多个目标对象对应的交互区域的重叠程度,提高玩家选中对象的成功率和便捷性,提高游戏体验乐趣。
在图形用户界面中显示交互区域对应的区域标识;其中,区域标识用于:指示交互区域的区域位置;区域标识的标识显示格式与交互区域对应的目标对象的对象属性相匹配。
该方式中,通过设定交互区域对应的区域标识,方便玩家在图形用户界面中出现多个目标对象时,快速区分每个目标对象对应的交互区域,提高了玩家选中对象的成功率和准确率。
进一步地,图13所示的电子设备还包括总线102和通信接口103,处理器100、通信接口103和存储器101通过总线102连接。
其中,存储器101可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图13中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
处理器100可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器100中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器100可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本公开实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本公开实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件 模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器101,处理器100读取存储器101中的信息,结合其硬件完成前述实施例的方法的步骤。
本实施例还提供一种机器可读存储介质,机器可读存储介质存储有机器可执行指令,机器可执行指令在被处理器调用和执行时,机器可执行指令促使处理器实现上述选中对象的方法,例如:
响应于图形用户界面中出现目标对象,获取该目标对象在上述图形用户界面中的对象位置;基于对象位置,在图形用户界面中设置目标对象对应的交互区域;其中,该交互区域大于上述目标对象在图形用户界面中的显示区域,交互区域用于:响应于指定触发操作后,选中目标对象;响应作用于交互区域的指定触发操作,选中目标对象。
该方式可以扩大选中对象的可操作区域,可以便捷高效的选中对象,选中对象的操作成功率较高,降低了选中对象的操作负担,提高了玩家的游戏体验,降低终端设备的运行时长,节省了终端设备的电量消耗。
响应于图形用户界面中出现目标对象,获取目标对象的对象模型在游戏场景中的胶囊体;确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域,将相对于胶囊体平面区域的指定位置点的位置信息,确定为目标对象在图形用户界面中的对象位置。
确定胶囊体在图形用户界面显示的场景画面中的胶囊体平面区域;将胶囊体平面区域的左上角方向的位置点,确定为目标对象在图形用户界面中的对象位置。
响应于图形用户界面中出现目标对象,统计图形用户界面中出现的目标对象的分布状态;其中,该分布状态包括目标对象的对象数量和/或密集程度;响应于分布状态满足预设条件,获取目标对象在图形用户界面中的对象位置。
上述方式中,当对象较多或较密集时,才获取对象的位置信息,进而基于位置信息设置交互区域,从而提高在对象较多的情况下的选中对象的操作成功率。
基于对象位置,以及图形用户界面中的基准位置,在图形用户界面中设置目标对象对应的交互区域;其中,该基准位置用于和对象位置在图形用户界面上共同确定交互区域。
将对象位置,以及图形用户界面中的基准位置作为参考位置,生成指定形状的交互区域;其中,目标对象在图形用户界面中的显示区域包含在交互区域中。
该方式中,通过对象位置中的位置点与基准位置作为参考位置生成指定形状的交互区域,玩家无须将手指移动很大幅度即可选中目标对象,提高了玩家选中对象的操作的便捷性。
图形用户界面中的基准位置位于图形用户界面的右下角方向;基于对象位置和基准位置,生成矩形区域;其中,对象位置和基准位置互为矩形区域的对角;将上述矩形区域确定为目标对象对应的交互区域。
在上述方式中,目标对象的交互区域比目标对象的显示区域大得多,便于玩家精准地选中目标对象。
目标对象包括第一对象和第二对象;第一对象设置有第一交互区域,第二对象设置有第二交互区域;第一交互区域和第二交互区域存在重叠区域;响应作用于重叠区域的指定触发操作,确定第一交互区域和第二交互区域之间的层级关系;其中,该层级关系 中,第一交互区域的第二交互区域的层级由高到低顺序排列;将层级最高的交互区域对应的目标对象,确定为选中的目标对象。
该方式中,通过设置交互区域的层级关系,使得在图形用户界面中出现多个目标对象,多个目标对象的交互区域存在重叠区域时,也能够精准地选中目标对象,提高了玩家的游戏体验。
响应作用于重叠区域的指定触发操作,确定第一对象的第一对象位置,以及第二对象的第二对象位置;基于第一对象位置和第二对象位置之间的位置关系,确定第一交互区域和第二交互区域之间的层级关系。
图形用户界面预设有坐标系;该坐标系包括水平方向上的坐标轴和竖直方向上的坐标轴;位于图形用户界面上的位置具有水平方向上的坐标值和竖直方向上的坐标值;在上述坐标系中,确定第一对象位置在水平方向上的第一坐标值,以及第二对象位置在水平方向上的第二坐标值;基于第一坐标值和第二坐标值的大小关系,确定多个目标交互区域之间的层级关系。
响应作用于重叠区域的滑动操作,选中第一对象和第二对象;其中,滑动操作的操作起点或操作终点位于重叠区域。
该方式中,当目标对象的数量较多、密集程度较大时,若玩家想要选中多个对象,可以执行指定触发操作,例如、长按、点击、双击等,图形用户界面会出现一指示箭头,当玩家根据指示箭头执行滑动操作时,选中滑动路径经过的目标交互区域对应的目标对象,基于此,简化了玩家选中多个对象的操作,提高了玩家选中多个对象的操作的便捷性。
响应于重叠区域的区域面积高于预设的区域面积阈值;调整第一交互区域和/或第二交互区域的区域边缘位置,以使重叠区域的区域面积低于预设区域面积阈值。
该方式中,通过调整交互区域的边缘位置,降低了多个目标对象对应的交互区域的重叠程度,提高玩家选中对象的成功率和便捷性,提高游戏体验乐趣。
在图形用户界面中显示交互区域对应的区域标识;其中,区域标识用于:指示交互区域的区域位置;区域标识的标识显示格式与交互区域对应的目标对象的对象属性相匹配。
该方式中,通过设定交互区域对应的区域标识,方便玩家在图形用户界面中出现多个目标对象时,快速区分每个目标对象对应的交互区域,提高了玩家选中对象的成功率和准确率。
本公开实施例所提供的选中对象的方法、装置以及系统的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本公开实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域技术人员而言,可以具体情况理解上述 术语在本公开中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对相关技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本公开的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本公开和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本公开的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。

Claims (16)

  1. 一种选中对象的方法,通过终端设备提供一图形用户界面;所述方法包括:
    响应于所述图形用户界面中出现目标对象,获取所述目标对象在所述图形用户界面中的对象位置;
    基于所述对象位置,在所述图形用户界面中设置所述目标对象对应的交互区域;其中,所述交互区域大于所述目标对象在所述图形用户界面中的显示区域,所述交互区域用于:响应于指定触发操作后,选中所述目标对象;
    响应作用于所述交互区域的指定触发操作,选中所述目标对象。
  2. 根据权利要求1所述的方法,其中,响应于所述图形用户界面中出现目标对象,获取所述目标对象在所述图形用户界面中的对象位置的步骤,包括:
    响应于所述图形用户界面中出现目标对象,获取所述目标对象的对象模型在游戏场景中的胶囊体;
    确定所述胶囊体在所述图形用户界面显示的场景画面中的胶囊体平面区域,将相对于所述胶囊体平面区域的指定位置点,确定为所述目标对象在所述图形用户界面中的对象位置。
  3. 根据权利要求2所述的方法,其中,确定所述胶囊体在所述图形用户界面显示的场景画面中的胶囊体平面区域,将相对于所述胶囊体平面区域的指定位置点,确定为所述目标对象在所述图形用户界面中的对象位置的步骤,包括:
    确定所述胶囊体在所述图形用户界面显示的场景画面中的胶囊体平面区域;
    将所述胶囊体平面区域的左上角方向的位置点,确定为所述目标对象在所述图形用户界面中的对象位置。
  4. 根据权利要求1所述的方法,其中,响应于所述图形用户界面中出现目标对象,获取所述目标对象在所述图形用户界面中的对象位置的步骤,包括:
    响应于所述图形用户界面中出现目标对象,统计所述图形用户界面中出现的目标对象的分布状态;其中,所述分布状态包括所述目标对象的对象数量和/或密集程度;
    响应于所述分布状态满足预设条件,获取所述目标对象在所述图形用户界面中的对象位置。
  5. 根据权利要求1所述的方法,其中,基于所述对象位置,在所述图形用户界面中设置所述目标对象对应的交互区域的步骤,包括:
    基于所述对象位置,以及所述图形用户界面中的基准位置,在所述图形用户界面中设置所述目标对象对应的交互区域;其中,所述基准位置用于和所述对象位置在所述图形用户界面上共同确定所述交互区域。
  6. 根据权利要求5所述的方法,其中,基于所述对象位置,以及所述图形用户界面中的基准位置,在所述图形用户界面中设置所述目标对象对应的交互区域的步骤,包括:
    将所述对象位置,以及所述图形用户界面中的基准位置作为参考位置,生成指定形状的所述交互区域;其中,所述目标对象在所述图形用户界面中的显示区域包含在所述交互区域中。
  7. 根据权利要求6所述的方法,其中,所述图形用户界面中的基准位置位于所述 图形用户界面的右下角方向;
    所述将所述对象位置,以及所述图形用户界面中的基准位置作为参考位置,生成指定形状的所述交互区域的步骤,包括:
    基于所述对象位置和所述基准位置,生成矩形区域;其中,所述对象位置和所述基准位置互为所述矩形区域的对角;
    将所述矩形区域确定为所述交互区域。
  8. 根据权利要求1所述的方法,其中,所述目标对象包括第一对象和第二对象;所述第一对象设置有第一交互区域,所述第二对象设置有第二交互区域;所述第一交互区域和所述第二交互区域存在重叠区域;
    所述响应作用于所述交互区域的指定触发操作,选中所述目标对象的步骤,包括:
    响应作用于所述重叠区域的指定触发操作,确定所述第一交互区域和所述第二交互区域之间的层级关系;其中,所述层级关系中,所述第一交互区域和所述第二交互区域的层级由高到低顺序排列;
    将所述层级最高的交互区域对应的目标对象,确定为选中的目标对象。
  9. 根据权利要求8所述的方法,其中,响应作用于所述重叠区域的指定触发操作,确定所述第一交互区域和所述第二交互区域之间的层级关系的步骤,包括:
    响应作用于所述重叠区域的指定触发操作,确定所述第一对象的第一对象位置,以及所述第二对象的第二对象位置;
    基于所述第一对象位置和所述第二对象位置之间的位置关系,确定所述第一交互区域和所述第二交互区域之间的层级关系。
  10. 根据权利要求9所述的方法,其中,所述图形用户界面预设有坐标系;所述坐标系包括水平方向上的坐标轴和竖直方向上的坐标轴;位于所述图形用户界面上的位置具有所述水平方向上的坐标值和所述竖直方向上的坐标值;
    所述基于所述第一对象位置和所述第二对象位置之间的位置关系,确定所述第一交互区域和所述第二交互区域之间的层级关系的步骤,包括:
    在所述坐标系中,确定所述第一对象位置在所述水平方向上的第一坐标值,以及所述第二对象位置在所述水平方向上的第二坐标值;
    基于所述第一坐标值和所述第二坐标值的大小关系,确定所述多个目标交互区域之间的层级关系。
  11. 根据权利要求8所述的方法,其中,所述方法还包括:
    响应作用于所述重叠区域的滑动操作,选中所述第一对象和所述第二对象;其中,所述滑动操作的操作起点或操作终点位于所述重叠区域。
  12. 根据权利要求8所述的方法,其中,所述方法还包括:
    响应于所述重叠区域的区域面积高于预设的区域面积阈值;
    调整所述第一交互区域和/或所述第二交互区域的区域边缘位置,以使所述重叠区域的区域面积低于所述区域面积阈值。
  13. 根据权利要求1所述的方法,其中,基于所述对象位置,在所述图形用户界面中设置所述目标对象对应的交互区域的步骤之后,所述方法还包括:
    在所述图形用户界面中显示所述交互区域对应的区域标识;其中,所述区域标识用 于:指示所述交互区域的区域位置;所述区域标识的标识显示格式与所述交互区域对应的目标对象的对象属性相匹配。
  14. 一种选中对象的装置,通过终端设备提供一图形用户界面,所述装置包括:
    位置获取模块,被配置为执行响应于所述图形用户界面中出现目标对象,获取所述目标对象在所述图形用户界面中的对象位置;
    区域设置模块,被配置为执行基于所述对象位置,在所述图形用户界面中设置所述目标对象对应的交互区域;其中,所述交互区域大于所述目标对象在所述图形用户界面中的显示区域,所述交互区域用于:响应于指定触发操作后,选中所述目标对象;
    对象选中模块,被配置为执行响应作用于所述交互区域的指定触发操作,选中所述目标对象。
  15. 一种电子设备,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器执行所述机器可执行指令以实现权利要求1-13任一项所述的选中对象的方法。
  16. 一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现权利要求1-13任一项所述的选中对象的方法。
PCT/CN2023/091470 2022-06-24 2023-04-28 选中对象的方法、装置和电子设备 WO2023246310A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210731386.8A CN117298586A (zh) 2022-06-24 2022-06-24 选中对象的方法、装置和电子设备
CN202210731386.8 2022-06-24

Publications (1)

Publication Number Publication Date
WO2023246310A1 true WO2023246310A1 (zh) 2023-12-28

Family

ID=89241370

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2023/091470 WO2023246310A1 (zh) 2022-06-24 2023-04-28 选中对象的方法、装置和电子设备

Country Status (2)

Country Link
CN (1) CN117298586A (zh)
WO (1) WO2023246310A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657048A (zh) * 2013-11-20 2015-05-27 腾讯科技(深圳)有限公司 一种响应区域的调整方法及装置
US20170043251A1 (en) * 2014-04-23 2017-02-16 King.Com Limited Opacity method and device therefor
CN109407831A (zh) * 2018-09-28 2019-03-01 维沃移动通信有限公司 一种交互方法及终端
CN111399743A (zh) * 2020-03-18 2020-07-10 网易(杭州)网络有限公司 游戏中的显示控制方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657048A (zh) * 2013-11-20 2015-05-27 腾讯科技(深圳)有限公司 一种响应区域的调整方法及装置
US20170043251A1 (en) * 2014-04-23 2017-02-16 King.Com Limited Opacity method and device therefor
CN109407831A (zh) * 2018-09-28 2019-03-01 维沃移动通信有限公司 一种交互方法及终端
CN111399743A (zh) * 2020-03-18 2020-07-10 网易(杭州)网络有限公司 游戏中的显示控制方法和装置

Also Published As

Publication number Publication date
CN117298586A (zh) 2023-12-29

Similar Documents

Publication Publication Date Title
CN107648847B (zh) 信息处理方法及装置、存储介质、电子设备
US20190325634A1 (en) Foveal adaptation of particles and simulation models in a foveated rendering system
JP2019076721A (ja) 情報処理方法及び装置、記憶媒体、電子機器
JP7050883B2 (ja) 中心窩レンダリングシステムにおける、遅延ライティングの最適化、パーティクルの中心窩適応、及びシミュレーションモデル
US11194400B2 (en) Gesture display method and apparatus for virtual reality scene
JP2020523687A (ja) 中心窩レンダリングシステムにおけるシャドーの最適化及びメッシュスキンの適応
CN113069759B (zh) 游戏中的场景处理方法、装置和电子设备
JP2024016244A (ja) インタフェース表示方法、装置、端末及び記憶媒体
CN110652725A (zh) 游戏中瞄准方向的控制方法、装置、电子设备及存储介质
CN112791410A (zh) 一种游戏控制方法、装置、电子设备及存储介质
CN113546412B (zh) 游戏中的显示控制方法、装置和电子设备
US7621812B2 (en) Game system and game program
CN113750522A (zh) 游戏技能的处理方法、装置及电子设备
WO2023246310A1 (zh) 选中对象的方法、装置和电子设备
CN112807692A (zh) 游戏中的信息控制方法、装置和终端设备
CN115920395A (zh) 游戏中的交互控制方法、装置和电子设备
CN115738230A (zh) 游戏的操作控制方法、装置和电子设备
CN114995930A (zh) 控件的显示控制方法、装置和电子设备
CN111841003B (zh) 游戏中的信息处理方法、装置及电子设备
US8840469B2 (en) Game system and game program
WO2023246172A9 (zh) 技能指示器的显示控制方法、装置和电子设备
WO2023246313A1 (zh) 游戏画面控制方法、装置和电子设备
CN113332712B (zh) 游戏场景画面移动方法、装置和电子设备
WO2024000980A1 (zh) 游戏交互方法、装置和电子设备
CN117797465A (zh) 游戏技能的控制方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23825963

Country of ref document: EP

Kind code of ref document: A1