WO2019154255A1 - 视角调整方法、装置、电子装置及计算机可读存储介质 - Google Patents

视角调整方法、装置、电子装置及计算机可读存储介质 Download PDF

Info

Publication number
WO2019154255A1
WO2019154255A1 PCT/CN2019/074131 CN2019074131W WO2019154255A1 WO 2019154255 A1 WO2019154255 A1 WO 2019154255A1 CN 2019074131 W CN2019074131 W CN 2019074131W WO 2019154255 A1 WO2019154255 A1 WO 2019154255A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual object
preset
virtual
distance
rotation speed
Prior art date
Application number
PCT/CN2019/074131
Other languages
English (en)
French (fr)
Inventor
郝懿
周喆
吴硕桓
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to JP2020564303A priority Critical patent/JP7045486B2/ja
Publication of WO2019154255A1 publication Critical patent/WO2019154255A1/zh
Priority to US16/878,866 priority patent/US11977713B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Definitions

  • the angle adjustment method generally detects that the first virtual object directly uses the preset range around the first virtual object as the adsorption area, so that after the aiming point is moved to the adsorption area, the aiming point is detected.
  • the control operation of the first virtual object moves, the rotation speed of the angle of view corresponding to the control operation is accelerated, so that the aiming point can be quickly moved to the body of the first virtual object.
  • the embodiment of the invention provides a viewing angle adjustment method, device, electronic device and computer readable storage medium, which solves the problem of high operation difficulty.
  • the technical solution is as follows:
  • an adjusting module configured to adjust a viewing angle of the virtual scene according to a target rotating speed of the viewing angle.
  • an electronic device comprising: a processor; a memory for storing a computer program; wherein the processor is configured to execute a computer program stored on the memory to implement the viewing angle adjustment method The method steps of any of the above.
  • a computer readable storage medium having stored therein a computer program, the computer program being executed by a processor to implement the method steps of any one of the viewing angle adjustment methods.
  • the present invention determines the adsorption area of the first virtual object based on the distance between the first virtual object and the second virtual object, even if the distance is large, the display size of the first virtual object is small, and the first virtual object is adsorbed.
  • the size of the area is not too small, and the user can move the aiming point to the adsorption area of the first virtual object by a simple operation, thereby assisting the user to perform the angle of view rotation when the aiming point is located in the adsorption area, thereby reducing the operation of the user. Difficulty.
  • FIG. 1 is a flowchart of a method for adjusting a viewing angle according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram of an adsorption area of a first virtual object according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram of a method for adjusting a viewing angle according to an embodiment of the present invention.
  • FIG. 5 is a schematic structural diagram of a viewing angle adjusting device according to an embodiment of the present invention.
  • the embodiment of the present invention mainly relates to an electronic game scenario in which a user can perform an operation on the terminal in advance.
  • the terminal After detecting the operation of the user, the terminal can download a game configuration file of the electronic game, and the game configuration file can be The application of the electronic game, the interface display data or the virtual scene data, and the like are included, so that the user can call the game configuration file when the user logs in the electronic game on the terminal, and display and display the electronic game interface.
  • the user can perform a control operation on the terminal.
  • the terminal After detecting the control operation, the terminal can determine the game data corresponding to the control operation, and perform rendering display on the game data.
  • the game data can include virtual scene data in the virtual scene. Behavior data of virtual objects, etc.
  • the virtual scene related to the embodiment of the present invention may be used to simulate a virtual space, where the virtual space may be an open space, and the virtual scene may be used to simulate a three-dimensional virtual space, or may be used to simulate a two-dimensional virtual space.
  • the embodiment of the invention is not limited thereto.
  • the virtual scene may be used to simulate a real environment in reality.
  • the virtual scene may include sky, land, ocean, etc., and the land may include environment elements such as deserts and cities, and the user may control the virtual objects to be performed in the virtual scene.
  • the terminal screen displays a view image of the second virtual object
  • the aiming point of the second virtual object may also be displayed on the terminal screen, and the aiming point may be used to mark the target in the view image of the second virtual object.
  • the aiming point can be used as an attack landing point of the second virtual object, and the direction of the aiming point is used to indicate the attack direction of the second virtual object.
  • the aiming point may be displayed at a central position of the screen of the terminal.
  • the aiming point may also be displayed at other positions, which is not specifically limited in the embodiment of the present invention.
  • the display style of the aiming point may include a plurality of types, and the aiming point may be displayed in a system default display style or may be adjusted according to a user's setting.
  • the user sees the aiming point displayed on the terminal, and can determine whether the current aiming point is the area that he wants to aim at. If not, the user can adjust the angle of view of the virtual scene by controlling the operation to adjust the area targeted by the aiming point.
  • the user usually wants to quickly and accurately adjust the aiming point to other virtual objects in the virtual scene, so that the other virtual objects can be shot, slap or boxing.
  • the controlling operation may be a sliding operation
  • the terminal detects the sliding operation, and determining a rotation direction and a rotation of the viewing angle corresponding to the sliding operation based on a sliding direction, a sliding distance, and a sliding speed of the sliding operation.
  • Angle and speed of rotation For example, the sliding direction of the sliding operation may correspond to the rotation direction of the viewing angle, and the sliding distance of the sliding operation may be positively correlated with the rotation angle of the viewing angle.
  • the sliding speed of the sliding operation may also be positively correlated with the rotating speed of the viewing angle. .
  • the control operation may also be a pressing operation.
  • the terminal may be pre-configured with a control area, and the user may perform a pressing operation in the control area, and the terminal detects the control area.
  • the rotation direction, the rotation speed, and the rotation angle of the angle of view corresponding to the pressing operation may be determined based on the specific position of the pressing operation with respect to the specific position of the control region, the pressing force of the pressing operation, and the pressing time.
  • the direction of the pressing operation relative to the center of the control area may correspond to the rotation direction of the viewing angle, and the pressing force of the pressing operation may be positively correlated with the rotation speed of the viewing angle, and the pressing time of the pressing operation may be positive with the rotation angle of the viewing angle.
  • control effects can also be implemented by combining the above several control operations.
  • the user controls the viewing angle as a sliding operation, and in the sliding operation, the terminal detects the The pressing force of the operation during the sliding operation, thereby determining whether to perform shooting or the like based on whether the pressing force is greater than a preset pressing force.
  • the foregoing is only an exemplary description.
  • the embodiment of the present invention does not specifically limit the control effect of how to combine the above several control operations.
  • the viewing angle adjustment method provided by the embodiment of the present invention can adjust the viewing angle of the virtual scene, so that the position of the aiming point is changed, and the auxiliary aiming service is provided when the user wants to aim the shooting of the first virtual object, thereby reducing the operation of the user. Difficulty.
  • the specific flow of the viewing angle adjustment method and how to provide the auxiliary aiming service for the user's aiming shot in the flow are described in detail below through the embodiment shown in FIG.
  • the viewing angle adjusting method includes the following: step:
  • the terminal detects whether the first virtual object is included in the virtual scene. If yes, step 102 is performed; if no, step 104 is performed.
  • the direction of the line of sight of the person is the direction of aiming.
  • the aiming direction is usually changed by adjusting the body orientation, that is, the person is usually aiming at it.
  • the viewing direction of the virtual scene is usually the line of sight direction and the body orientation of the virtual object controlled by the terminal. Therefore, the user can adjust the angle of the virtual scene by controlling the operation to adjust the position of the aiming point, thereby adjusting
  • the control unit may be a combination of the sliding operation, the pressing operation, the rotating operation, the key operation, and the toggle operation. The embodiment of the present invention does not specifically limit this.
  • the step 101 may be triggered by the terminal to detect the control operation of the user, or may be performed periodically by the terminal, and the execution period may be preset by a technician or adjusted according to actual needs of the user. In the following, only the step 101 is used to detect the triggering of the control operation by the terminal.
  • the terminal may first detect whether there is a person in the current virtual scene to determine whether it is necessary to provide the auxiliary aiming service. Specifically, the terminal may detect whether the first virtual object is included in the virtual scene. When the first virtual object is included in the virtual scene, the user may perform a control operation on the first virtual object. The terminal may further determine whether the current aiming point position meets the condition for providing the auxiliary aiming service.
  • the terminal determines an adsorption area of the first virtual object according to a distance between the first virtual object and the second virtual object.
  • the terminal may provide an auxiliary aiming service for the user when the aiming point is closer to the first virtual object. Therefore, the terminal may determine an adsorption area of the first virtual object, where the adsorption area refers to a location of the aiming point at which the terminal can provide an auxiliary aiming service when the first virtual object is aimed, that is, when the aiming point is located in the adsorption In the area, the aiming point can be considered to be closer to the first virtual object, and the terminal can provide an auxiliary aiming service to reduce the operation difficulty of the user. When the aiming point is far from the first virtual object, the terminal may not provide the auxiliary aiming service.
  • the terminal When determining the adsorption area of the first virtual object, the terminal needs to consider the distance between the first virtual object and the second virtual object, and the distance is positively related to the size of the adsorption area, that is, the larger the distance, the adsorption The larger the size of the area, the smaller the distance, the smaller the size of the adsorption area, so that when the distance between the first virtual object and the second virtual object is very long, the display size of the first virtual object is small, and the first The display size of the adsorption area of a virtual object is not too small, so that the user can also adjust the angle of view by the control operation relatively easily, thereby moving the position of the aiming point into the adsorption area of the first virtual object, thereby obtaining the auxiliary aiming. Supporting role.
  • the first preset distance may be a relatively small distance
  • the second preset distance may be a relatively large distance
  • the first preset distance and the second preset distance may be It is set by the technicians according to their own experience, and can be adjusted according to the test result, which is not specifically limited in the embodiment of the present invention.
  • the terminal no longer provides this situation.
  • the auxiliary aiming service determines that the size of the adsorption area of the first virtual object is zero.
  • the first virtual object is far away from the second virtual object, and the display size of the first virtual object is relatively small, and even a point may be displayed in the virtual scene.
  • the terminal After the terminal determines the adsorption area of the first virtual object, it may be determined whether the aiming point is located in the adsorption area to determine whether an auxiliary aiming service can be provided.
  • the terminal may first determine the position of the aiming point in the virtual scene. Specifically, the terminal may use a point on the straight line where the current aiming point is located closest to the first virtual object as an aiming point, and an intersection point between the horizontal plane of the aiming point and the central axis of the first virtual object may be used as a target point, and the aiming point points
  • the directed segment of the target point may be the shortest path that moves the aiming point to the first virtual object.
  • the aiming point and the shortest path that approximate the aiming point can also be obtained by simple calculation. In order to reduce the amount of calculation, the position determining process of the aiming point in the embodiment of the present invention is not specifically limited.
  • the terminal may determine whether the aiming point is located in the adsorption area. If the aiming point is located in the adsorption area, the terminal may provide an auxiliary aiming service, that is, a target rotation of the virtual scene acquired by the terminal. Speed is different than when no auxiliary aiming service is provided. When the aiming point is not located in the adsorption area, the terminal may not provide the auxiliary aiming service, and thus, the terminal may directly acquire the first preset rotational speed as the target rotational speed of the angle of view.
  • the first preset rotational speed refers to a normal rotational speed of the viewing angle when the terminal does not provide the auxiliary aiming service and the user operates.
  • the aiming point When the aiming point is located in the adsorption area, the aiming point is located in different sub-areas of the adsorption area, and the target rotational speed of the angle of view acquired by the terminal may also be different.
  • the adsorption area may be an area covering the whole body of the first virtual object, and the first sub-area, the second sub-area and the third sub-area are described as an example. The area is surrounded by the second sub-area, and the second sub-area is surrounded by the third sub-area.
  • FIG. 3 is a schematic diagram of an adsorption area of a first virtual object according to an embodiment of the present invention.
  • the terminal may acquire the preset second preset rotation speed as the target rotation speed, or On the basis of the first preset rotation speed, a second preset rotation speed greater than the first preset rotation speed is calculated, and the specific value and determination process of the second preset rotation speed are not specifically limited in the embodiment of the present invention. .
  • the terminal acquires a third preset rotation speed as a target rotation speed of the viewing angle of the virtual scene, and the third preset rotation speed is smaller than the first preset. Rotation speed.
  • the third preset rotation speed may be preset by a technician, or may be determined by the terminal according to the first preset rotation speed. Accordingly, the terminal may acquire a preset third preset rotation. The speed is used as the target rotation speed, or based on the first preset rotation speed, a third preset rotation speed smaller than the first preset rotation speed is calculated, and the specific preset rotation speed of the embodiment of the present invention is The value is not specifically limited.
  • the terminal acquires a fourth preset rotation speed as a target rotation speed of the viewing angle of the virtual scene, and the fourth preset rotation speed is smaller than the first pre-predetermined Set the rotation speed.
  • the fourth preset rotation speed may be smaller than the third preset rotation speed.
  • the fourth preset rotation speed may also be equal to or greater than the third preset rotation speed, and the fourth preset rotation speed of the embodiment of the present invention is The size relationship of the third preset rotation is not specifically limited.
  • the fourth preset rotation speed may be preset by a technician, or determined by the terminal according to the first preset rotation speed.
  • the terminal acquires a first preset rotation speed of the perspective of the virtual scene.
  • the terminal can obtain the default viewing angle of the system, that is, the user performs the control operation.
  • the normal rotational speed of the time angle of view (the first preset rotational speed).
  • the server adjusts the angle of view of the virtual scene according to the target rotation speed of the perspective.
  • the user operates on the terminal, and the virtual scene displayed by the terminal has a first virtual object, and the current aiming point is far away from the first virtual object.
  • the user performs a control operation, and the terminal acquires the first preset rotation speed as the target rotation speed of the angle of view, thereby adjusting the angle of view such that the aiming point moves toward the first virtual object.
  • the terminal acquires the second preset rotational speed as the target rotational speed of the viewing angle, and the speed of the viewing angle is faster.
  • the user operation remains unchanged.
  • the terminal acquires the third preset rotational speed as the target rotational speed of the viewing angle, and the moving speed of the viewing angle becomes slower, and the user feels that the operation of adjusting the viewing angle is A sticky feeling.
  • the aiming point is already in the torso area of the first virtual object, the user continues to perform the control operation, and the terminal acquires the fourth preset rotation speed, and when the angle of view is controlled to rotate, the angle of view rotation is slower, so that the user can greatly
  • the control operation is performed, and the terminal can control the angle of view adjustment so that the aiming point accurately targets each part of the first virtual object.
  • the step 105 may be: the terminal may display, according to the target rotational speed of the perspective and the moving speed of the first virtual object, that the aiming point follows the first virtual object to move in the virtual scene. Specifically, the terminal may acquire the moving speed of the viewing angle by using the moving speed of the viewing angle in the above step 103, and then superimpose a speed for following the first virtual object based on the target rotating speed of the viewing angle.
  • FIG. 4 is only used to describe the relative position of the aiming point and the first virtual object.
  • the display position of the aiming point may be the center of the screen, and the angle of view of the virtual scene may also be adjusted during the adjustment process. A change has occurred, which is not shown in FIG.
  • the control operation of the user is ended, but the viewing angle can also follow the first virtual object for a certain period of time, so that the user can perform the operation of the virtual scene without interruption during the switching operation, thereby making the user's operation more consistent.
  • the user ends the current control operation during the viewing angle adjustment process, clicks the shooting button, and then continues the control operation, so that the aiming point can follow the first virtual object to move without interruption.
  • a delay mechanism is further provided: when the control operation ends in the viewing angle adjustment process, the terminal may follow the target rotation speed of the viewing angle at the previous moment according to the control operation within the preset time, The perspective of the virtual scene is adjusted; when the control operation has not been detected for the preset time, the terminal may stop adjusting the perspective of the virtual scene.
  • the preset time may also be set by the technician based on the operation habits of the general user, and the preset time may be the same as the preset time automatically followed by the aiming point, or may be different, for example, the preset time may also be 0.5s, The specific value of the preset time is not limited in the embodiment of the invention. In this way, when the user switches operations, the viewing angle adjustment process of the virtual scene is uninterrupted, thereby making the user's operation more consistent and providing a better user experience.
  • the adsorption area of the first virtual object is determined based on the distance between the first virtual object and the second virtual object, and even if the distance is large, the display size of the first virtual object is small, the first virtual object The size of the adsorption area is not too small, and the user can move the aiming point to the adsorption area of the first virtual object by a simple operation, thereby assisting the user to perform the angle of view rotation when the aiming point is located in the adsorption area, thereby reducing the user.
  • the difficulty of operation is not too small, and the user can move the aiming point to the adsorption area of the first virtual object by a simple operation, thereby assisting the user to perform the angle of view rotation when the aiming point is located in the adsorption area, thereby reducing the user.
  • the embodiment of the present invention further defines the distance, and provides the auxiliary aiming service only when the distance meets the requirements, thereby ensuring the fairness and impartiality of the electronic game competition while reducing the operation difficulty. Further, the embodiment of the present invention further improves the rotation speed of the viewing angle when the aiming point is near the first virtual object, so that the aiming point can move to the first virtual object more quickly, thereby achieving the purpose of assisting the user to quickly aim, and reducing the The difficulty of the user's operation.
  • the embodiment of the present invention when the aiming point is located in the second sub-area or the third sub-area of the adsorption area, the rotation speed of the viewing angle is reduced, and the situation that the user moves the aiming point out of the adsorption area by the control operation is avoided. Thereby, the operation difficulty of the user is reduced, and the user can also realize small adjustment of the angle of view by performing the control operation greatly, thereby realizing a small adjustment of the aiming point and more precisely adjusting the area targeted by the aiming point. Further, the embodiment of the present invention further provides a speed following the first virtual object during the viewing angle adjustment process when the aiming point is located in the adsorption area, so that the user can make the aiming point follow the first virtual object through a simple operation.
  • the user's operation difficulty is reduced. Further, in the embodiment of the present invention, by setting a preset time, when the control operation of the user ends, the viewing angle adjustment is continued, so that the aiming point moves to the first virtual object without interruption during the user switching operation, so that the user operates. More coherent and more convenient.
  • FIG. 5 is a schematic structural diagram of a viewing angle adjusting device according to an embodiment of the present invention.
  • the device includes:
  • a determining module 501 configured to determine, according to a distance between the first virtual object and the second virtual object, an adsorption area of the first virtual object, where the distance is positively correlated with a size of the adsorption area;
  • the obtaining module 502 is configured to acquire a target rotation speed of a viewing angle of the virtual scene when the aiming point of the second virtual object is located in the adsorption area;
  • the adjusting module 503 is configured to adjust the viewing angle of the virtual scene according to the target rotating speed of the viewing angle.
  • a detecting module configured to detect whether the first virtual object is included in the virtual scene
  • the obtaining module 502 is further configured to acquire a first preset rotation speed of a perspective of the virtual scene when the first virtual object is not included in the virtual scene.
  • the distance between the first virtual object and the second virtual object is greater than or equal to the first preset distance and less than or equal to the second preset distance, determining that the area within the preset range around the first virtual object is the first The adsorption area of a virtual object whose size is positively correlated with the distance.
  • the aiming point When the aiming point is located in the second sub-area of the adsorption area, acquiring a third preset rotation speed as a target rotation speed of the viewing angle of the virtual scene, the third preset rotation speed being less than the first preset rotation speed;
  • the first sub-area is surrounded by the second sub-area.
  • the obtaining module 502 is configured to:
  • the angle of view of the virtual scene is adjusted only in accordance with the horizontal rotation speed.
  • the obtaining module 502 is configured to:
  • the second sub-area is surrounded by the third sub-area.
  • the apparatus further comprises:
  • a display module configured to control the aiming point to follow the first virtual object to move when the aiming point is located in the adsorption area and the first virtual object moves.
  • the adjusting module 503 is further configured to:
  • the angle of view of the virtual scene is adjusted according to the target rotation speed of the angle of view at the previous moment after the control operation ends;
  • the apparatus provided by the embodiment of the present invention determines the adsorption area of the first virtual object by using the distance between the first virtual object and the second virtual object, and even if the distance is large, the display size of the first virtual object is small, the first The size of the adsorption area of a virtual object is not too small, and the user can move the aiming point to the adsorption area of the first virtual object by a simple operation, thereby assisting the user to perform the angle of view rotation when the aiming point is located in the adsorption area. Reduce the difficulty of the user's operation.
  • the viewing angle adjustment device provided by the above embodiment is used to adjust the viewing angle
  • only the division of the above functional modules is illustrated.
  • the function distribution may be completed by different functional modules as needed.
  • the internal structure of the device is divided into different functional modules to perform all or part of the functions described above.
  • the embodiments of the viewing angle adjusting device and the viewing angle adjusting method provided in the above embodiments are the same concept, and the specific implementation process is described in detail in the method embodiment, and details are not described herein again.
  • FIG. 6 is a schematic structural diagram of an electronic device 600 according to an embodiment of the present invention.
  • the electronic device 600 may be provided as a terminal.
  • the electronic device 600 may have a large difference due to different configurations or performances, and may include one or More than one central processing unit (CPU) 601 and one or more memories 602, wherein the memory 602 stores at least one instruction that is loaded and executed by the processor 601 to implement the following viewing angle adjustment.
  • CPU central processing unit
  • the angle of view of the virtual scene is adjusted according to the target rotation speed of the angle of view.
  • the process is also used to perform:
  • the first preset rotation speed of the perspective of the virtual scene is acquired.
  • the process is used to perform:
  • the process is configured to: when the aiming point of the second virtual object is located in the first sub-area of the adsorption area, acquire a second preset rotation speed as a target rotation of the viewing angle of the virtual scene Speed, the second preset rotation speed is greater than the first preset rotation speed;
  • the process is used to perform:
  • the second sub-area is surrounded by the third sub-area.
  • the processing is further configured to control the aiming point to follow the first virtual object to move when the aiming point of the second virtual object is located in the adsorption area and the first virtual object moves.
  • the process is also used to perform:
  • the angle of view of the virtual scene is adjusted according to the target rotation speed of the angle of view at the previous moment after the control operation ends;
  • the electronic device may also have components such as a wired or wireless network interface, a keyboard, and an input/output interface for input and output.
  • the electronic device may also include other components for implementing the functions of the device, and details are not described herein.
  • a computer readable storage medium storing a computer program, such as a memory storing a computer program, which is implemented when the computer program is executed by the processing.
  • the computer readable storage medium may be a Read-Only Memory (ROM), a Random Access Memory (RAM), or a Compact Disc Read-Only Memory (CD-ROM). Tapes, floppy disks, and optical data storage devices.
  • the storage medium may be a read only memory, a magnetic disk or an optical disk or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种视角调整方法、装置、电子装置及计算机可读存储介质,属于计算机技术领域。所述方法包括:根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域(102),所述距离和所述吸附区域的尺寸正相关;当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角的目标转动速度(103);按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整(105)。通过基于第一虚拟对象和第二虚拟对象之间的距离,确定第一虚拟对象的吸附区域,进而在瞄准点位于吸附区域时,辅助用户进行视角转动,从而降低了用户的操作难度。

Description

视角调整方法、装置、电子装置及计算机可读存储介质
本申请要求于2018年02月09日提交的申请号为2018101369187、发明名称为“视角调整方法、装置、电子装置及计算机可读存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本发明涉及计算机技术领域,特别涉及一种视角调整方法、装置、电子装置及计算机可读存储介质。
背景技术
随着计算机技术的发展以及终端功能的多样化,在终端上能够进行的游戏种类越来越多。其中,FPS(First-Person Shooting,第一人称射击)或TPS(Third-Person Shooting,第三人称射击)等射击类游戏是一种比较盛行的游戏,这类游戏通常在终端屏幕中心显示瞄准点,用户可以通过调整虚拟场景的视角来来调整瞄准点所瞄准的区域。
目前,视角调整方法通常是检测到第一虚拟对象时,直接以该第一虚拟对象周围的预设范围作为吸附区域,从而在将瞄准点移动到该吸附区域之后再检测到将瞄准点向该第一虚拟对象移动的控制操作时,加速该控制操作对应的视角的转动速度,使得瞄准点能够快速移动到第一虚拟对象的身上。
发明内容
本发明实施例提供了一种视角调整方法、装置、电子装置及计算机可读存储介质,解决了操作难度高的问题。所述技术方案如下:
一方面,提供了一种视角调整方法,应用于电子装置,所述方法包括:
根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域,所述距离和所述吸附区域的尺寸正相关;
当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角 的目标转动速度;
按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整。
一方面,提供了一种视角调整装置,所述装置包括:
确定模块,用于根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域,所述距离和所述吸附区域的尺寸正相关;
获取模块,用于当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角的目标转动速度;
调整模块,用于按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整。
一方面,提供了一种电子装置,所述电子装置包括:处理器;用于存放计算机程序的存储器;其中,所述处理器用于执行存储器上所存放的计算机程序,实现所述视角调整方法中任一项所述的方法步骤。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现视角调整方法中任一项所述的方法步骤。
本发明通过基于第一虚拟对象和第二虚拟对象之间的距离,确定第一虚拟对象的吸附区域,即使该距离很大,第一虚拟对象的显示尺寸很小,该第一虚拟对象的吸附区域的尺寸也不会太小,则用户可以通过简单操作将瞄准点移动到该第一虚拟对象的吸附区域,进而在瞄准点位于吸附区域时,辅助用户进行视角转动,从而降低了用户的操作难度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种视角调整方法流程图;
图2是本发明实施例提供的一种第一虚拟对象的吸附区域的示意图;
图3是本发明实施例提供的一种第一虚拟对象的吸附区域的示意图;
图4是本发明实施例提供的一种视角调整方法的示意图;
图5是本发明实施例提供的一种视角调整装置的结构示意图;
图6是本发明实施例提供的一种电子装置600的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本发明实施例主要涉及电子游戏场景,在该电子游戏场景中,用户可以提前在该终端上进行操作,该终端检测到用户的操作后,可以下载电子游戏的游戏配置文件,该游戏配置文件可以包括该电子游戏的应用程序、界面显示数据或虚拟场景数据等,以使得该用户在该终端上登录电子游戏时可以调用该游戏配置文件,对电子游戏界面进行渲染显示。用户可以在终端上进行控制操作,该终端检测到控制操作后,可以确定该控制操作所对应的游戏数据,并对该游戏数据进行渲染显示,该游戏数据可以包括虚拟场景数据、该虚拟场景中虚拟对象的行为数据等。
本发明实施例涉及到的虚拟场景可以用于模拟一个虚拟空间,该虚拟空间可以是一个开放空间,该虚拟场景可以用于模拟一个三维虚拟空间,也可以用于模拟一个二维虚拟空间,本发明实施例对此不作限定。该虚拟场景可以用于模拟现实中的真实环境,例如,该虚拟场景中可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动、做出各种动作等,该虚拟对象可以是该虚拟场景中的一个虚拟的用于代表用户的虚拟形象,该虚拟形象可以是任一种形态,例如,人、动物等,本发明实施例对此不限定。以射击类游戏为例,用户可以控制虚拟对象在该虚拟场景的天空中自由下落、滑翔或者打开降落伞进行下落等,在陆地上中跑动、跳动、爬行、弯腰前行等,也可以控制虚拟对象在海洋中游泳、漂浮或者下潜等,当然,用户也可以控制虚拟对象乘坐载具在该虚拟场景中进行移动,在此仅以上述场景进行举例说明,本发明实施例对此不作具体限定。用户也可以控制虚拟对象通过兵器与其他虚拟对象进行战斗,该兵器可以是冷兵器,也可以是热兵器,本发明实施例对此不作具体限定。
一般地,终端屏幕显示的是第二虚拟对象的视角画面,该终端屏幕上也可以显示该第二虚拟对象的瞄准点,该瞄准点可以用于标注第二虚拟对象的视角画面中的目标,则该瞄准点即可作为第二虚拟对象的攻击落点,该瞄准点所在方向用于指示该第二虚拟对象的攻击方向。具体地,该瞄准点可以在该终端屏幕的中心位置显示,当然,该瞄准点也可以在其他位置显示,本发明实施例对此不作具体限定。该瞄准点的显示样式可以包括多种,则该瞄准点显示时可以采用系统默认的显示样式,也可以根据用户的设置进行调整。用户看到终端上显示的瞄准点,可以确定当前瞄准点是否为自己想要瞄准的区域,如果不是,用户可以通过控制操作调整虚拟场景的视角,来调整该瞄准点瞄准的区域。当然,用户通常是希望能快速且精准地将瞄准点调整至该虚拟场景中的其他虚拟对象的身上,从而可以对该其他虚拟对象进行射击、拍击或者拳击等。
在一种可能实现方式中,该控制操作可以是滑动操作,终端检测到该滑动操作,可以基于该滑动操作的滑动方向、滑动距离以及滑动速度,确定该滑动操作对应的视角的转动方向、转动角度以及转动速度。例如,该滑动操作的滑动方向可以对应于视角的转动方向,该滑动操作的滑动距离大小可以与视角的转动角度正相关,当然,该滑动操作的滑动速度也可以与该视角的转动速度正相关。
在一种可能实现方式中,该控制操作也可以是按压操作,具体地,该终端上可以预设有控制区域,用户可以通过在该控制区域内进行按压操作,终端检测到该控制区域内的按压操作时,可以基于该按压操作相对于该控制区域的具体位置、该按压操作的按压力度以及按压时间,确定该按压操作对应的视角的转动方向、转动速度以及转动角度。例如,该按压操作相对于该控制区域的中心的方向可以对应于视角的转动方向,该按压操作的按压力度可以与视角的转动速度正相关,该按压操作的按压时间可以与视角的转动角度正相关。
在另一种可能实现方式中,该控制操作还可以是对终端的转动操作,该终端中的角速度传感器(例如陀螺仪)检测到该转动操作时,可以根据该转动操作的转动方向、转动角度以及转动速度,确定视角的转动方向、转动角度以及转动速度。例如,该转动操作的转动方向可以为视角的转动方向,该转动操作的转动角度可以与该视角的转动角度正相关,该转动操作的转动速度可以与该视角的转动速度正相关。在一种可能实现方式中,该控制操作也可以是按键操作或者对真实摇杆设备的拨动操作等,本发明实施例对此不作具体限定。
当然,在用户对虚拟对象进行控制时,也可以通过上述几种控制操作的结合实现不同的控制效果,例如,该用户对视角的控制操作为滑动操作,而该在滑动操作时,终端检测该滑动操作过程中操作的按压力度,从而基于该按压力度是否大于预设的按压力度,从而决定是否进行射击等。上述仅为一种示例性说明,本发明实施例对如何对上述几种控制操作结合,可以实现哪种控制效果不做具体限定。
在本发明实施例中,以该终端为某一用户的终端为例,可以将该其他虚拟对象称为第一虚拟对象,将该用户的终端控制的虚拟对象称为第二虚拟对象。在该用户的终端上可以以任一视角对虚拟场景进行显示,在显示的虚拟场景中可以包括处于该显示区域的第一虚拟对象。
在一种可能实现方式中,对于该用户的终端控制的第二虚拟对象,终端可以提供两种显示方式,第一种显示方式是第一人称视角,在该第一种显示方式中,该用户的终端显示的虚拟场景中可以仅包括该第二虚拟对象的手部、手臂或者该第二虚拟对象手中所持有的兵器等,该第一种显示方式用于模拟通过该第二虚拟对象的视角观察虚拟场景的场景。在第一人称视角显示方式中,摄像机通常可以位于虚拟对象的眼睛处,或虚拟对象的眼睛的附近区域,例如,虚拟对象的头部或胸部等。第二种显示方式为第三人称视角,在该第二种显示方式中,该用户的终端显示的虚拟场景中还可以包括该第二虚拟对象,该第三人称视角其实与该第一人称视角的方向一致,只是在该虚拟场景中显示该第二虚拟对象,以使得用户可以在该虚拟场景中看到其控制的第二虚拟对象的动作、所处环境等,第三人称视角用于模拟在虚拟对象的周围的某个位置来观察虚拟场景,在第三人称视角显示方式中,摄像机通常可以位于虚拟对象的背后方。本发明实施例对该用户的终端具体采用哪种显示方式不作具体限定。
本发明实施例提供的视角调整方法可以在用户调整虚拟场景的视角,从而使得瞄准点的位置发生改变,在用户想要对第一虚拟对象进行瞄准射击时提供辅助瞄准服务,从而降低用户的操作难度。下面通过图1所示实施例对该视角调整方法的具体流程以及该流程中如何对用户的瞄准射击提供辅助瞄准服务进行详细说明。
图1是本发明实施例提供的一种视角调整方法流程图,该视角调整方法应用于电子装置,下述仅以该电子装置为终端为例进行说明,参见图1,该视角 调整方法包括以下步骤:
101、终端检测虚拟场景中是否包括第一虚拟对象,如果是,则执行步骤102;如果否,则执行步骤104。
真实场景中的人在瞄准时,通常人的视线方向即为瞄准的方向,在调整瞄准的方向时,通常是通过调整身体朝向来改变瞄准方向的,也即是人通常是正对其瞄准方向的,对应地,在射击类游戏中虚拟场景的视角方向通常是终端控制的虚拟对象的视线方向以及身体朝向,因而,用户可以通过控制操作调整虚拟场景的视角,来调整瞄准点的位置,从而调整该瞄准点瞄准的区域,该控制操作可以是上述滑动操作、按压操作、转动操作、按键操作、拨动操作中的任一种或几种操作的结合,本发明实施例对此不作具体限定。
该步骤101可以由该终端检测到用户的控制操作触发,也可以由该终端定期执行,其执行周期可以由技术人员预先设置,或者根据用户的实际需求进行调整。下面仅以该步骤101由终端检测到控制操作触发为例进行说明,终端检测到控制操作时,可以先检测当前虚拟场景中是不是有人,来初步确定是不是需要提供辅助瞄准服务。具体地,终端可以检测虚拟场景中是否包括第一虚拟对象,当该虚拟场景中包括第一虚拟对象时,该用户进行的控制操作可能是想要对该第一虚拟对象进行瞄准射击,则该终端可以进一步确定当前瞄准点位置是否符合提供辅助瞄准服务的条件,当确定瞄准点位置符合提供辅助瞄准服务的条件时,可以对用户控制操作所对应的虚拟场景的视角调整过程提供辅助瞄准服务,具体过程可参见步骤102、103和105。而当该虚拟场景中不包括第一虚拟对象时,该用户没有需要进行瞄准射击的对象,也就可以认为该用户进行的控制操作不是想要对第一虚拟对象进行瞄准射击,只是想要调整视角,则终端可以执行步骤104和105,基于该控制操作,直接进行视角调整。
102、当该虚拟场景中包括第一虚拟对象时,终端根据第一虚拟对象与第二虚拟对象之间的距离,确定该第一虚拟对象的吸附区域。
当该虚拟场景中包括第一虚拟对象时,终端在瞄准点距离该第一虚拟对象较近时,可以为该用户提供辅助瞄准服务。因而,终端可以确定该第一虚拟对象的吸附区域,该吸附区域是指对该第一虚拟对象进行瞄准时终端可以提供辅助瞄准服务的瞄准点所在位置,也即是当该瞄准点位于该吸附区域时,可以认为该瞄准点距离该第一虚拟对象较近,终端可以提供辅助瞄准服务,以降低用户的操作难度。而当瞄准点距离该第一虚拟对象较远时,终端可以不提供辅助 瞄准服务。用户需要进行控制操作将瞄准点移动到该吸附区域,终端可以为该用户提供辅助,这样可以在为用户的瞄准射击提供便利,降低操作难度的同时,保证了电子游戏竞技的公平性、公正性。
终端在确定第一虚拟对象的吸附区域时,需要考虑到该第一虚拟对象与第二虚拟对象之间的距离,该距离和该吸附区域的尺寸正相关,也即是,距离越大,吸附区域的尺寸越大,距离越小,吸附区域的尺寸越小,这样该第一虚拟对象与该第二虚拟对象之间距离很远时,该第一虚拟对象的显示尺寸很小,而该第一虚拟对象的吸附区域的显示尺寸不会太小,从而用户也是可以比较容易地通过控制操作进行视角调整,从而将瞄准点的位置移动该第一虚拟对象的吸附区域内,从而得到辅助瞄准的辅助作用。
具体地,该步骤102的具体过程可以包括以下两种情况:
第一种情况、当该距离小于第一预设距离或该距离大于第二预设距离时,终端可以确定该第一虚拟对象的吸附区域的尺寸为零。
在该第一种情况中,该第一预设距离可以是一个比较小的距离,该第二预设距离可以是一个比较大的距离,该第一预设距离与该第二预设距离可以由技术人员根据自身经验设置,并可以根据测试结果对其进行调整,本发明实施例对此不作具体限定。
当该距离小于第一预设距离时,说明该第一虚拟对象距离该第二虚拟对象非常近,该第一虚拟对象的显示尺寸已经比较大,该瞄准点距离该第一虚拟对象已经很近,或者该瞄准点已经在该第一虚拟对象的身上,用户已经很容易对该第一虚拟对象进行瞄准射击了,为了保证电子游戏竞技的公平性、公正性,终端对这种情况不再提供辅助瞄准服务,则确定该第一虚拟对象的吸附区域尺寸为零。当该距离大于第二预设距离,说明该第一虚拟对象距离该第二虚拟对象非常远,该第一虚拟对象的显示尺寸比较小,甚至可能在该虚拟场景中显示效果的是一个点或者几乎没有,用户可能通过终端并不能看到该第一虚拟对象,自然也就可能没有去瞄准该第一虚拟对象的动作,为了保证电子游戏竞技的公平性、公正性,终端不会去帮助用户寻找第一虚拟对象,因而,终端可以对这种情况不再提供辅助瞄准服务,则确定该第一虚拟对象的吸附区域尺寸为零。
第二种情况、当该第一虚拟对象与第二虚拟对象之间的距离大于或等于第一预设距离且小于或等于第二预设距离时,终端可以确定该第一虚拟对象周围 预设范围内的区域为该第一虚拟对象的吸附区域,该预设范围的尺寸与该距离正相关。
在该第二种情况中,该第一虚拟对象的距离在第一预设距离与第二预设距离之间,说明该用户可以看到该第一虚拟对象,且该第一虚拟对象的显示尺寸又不会特别大,则终端可以确定该第一虚拟对象的周边区域为吸附区域,从而在瞄准点在该第一虚拟对象的周围时,提供辅助瞄准服务。下面以图2为例对该第一虚拟对象的吸附区域提供一种示例,如图2所示,该吸附区域可以是如图2所示的区域,该第一虚拟对象的中心轴为l轴,则该区域的中心轴也为l轴。上述图2中是一种示例性说明,在一种可能实现方式中,该吸附区域的形状可以是圆柱,也可以是正方体、长方体等,本发明实施例对该第一虚拟对象的吸附区域的形状不作具体限定。
在一种可能实现方式中,该吸附区域的高度可以与该第一虚拟对象的高度正相关,该第一虚拟对象的高度越大,该吸附区域的高度越大,该第一虚拟对象的高度越小,该吸附区域的高度越小。具体地,可以将第一虚拟对象的高度与指定倍数的乘积作为该吸附区域的高度。当然,该吸附区域的高度也可以是该第一虚拟对象的高度与指定高度的和值,本发明实施例对该吸附区域的高度的确定方式不作具体限定。
103、当瞄准点位于该吸附区域时,终端获取虚拟场景的视角的目标转动速度。
终端确定该第一虚拟对象的吸附区域后,可以确定瞄准点是否位于该吸附区域,以确定是否可以提供辅助瞄准服务。
目前用户通过终端可以看到的为该第二虚拟对象的视角,该终端屏幕中心所指示的瞄准点所指示的其实是当前视角下的瞄准方向,也即是一条瞄准线。则终端在确定瞄准点是否位于该吸附区域时,可以先确定瞄准点在该虚拟场景中的位置。具体地,终端可以将当前瞄准点所在直线上距离第一虚拟对象最近的点作为瞄准点,经过该瞄准点的水平面与第一虚拟对象的中心轴线的交点可以作为一个目标点,该瞄准点指向目标点的有向线段可以是将该瞄准点移动到第一虚拟对象身上的最短路径,当然,在一种可能实现方式中,也可以通过简单计算得到近似于该瞄准点的瞄准点以及最短路径,以减少计算量,本发明实施例对该瞄准点的位置确定过程不作具体限定。
终端确定瞄准点位置后,可以确定该瞄准点是否位于上述吸附区域,如果 该瞄准点位于该吸附区域时,终端可以提供辅助瞄准服务,也即是该终端获取到的虚拟场景的视角的目标转动速度与未提供辅助瞄准服务时不同。当瞄准点不是位于吸附区域时,终端可以不提供辅助瞄准服务,因而,终端可以直接获取第一预设转动速度作为视角的目标转动速度。该第一预设转动速度是指终端不提供辅助瞄准服务,用户操作时的视角的正常转动速度。
而当瞄准点位于吸附区域时,该瞄准点位于该吸附区域的不同子区域,终端获取到的视角的目标转动速度也可以不同。在本发明实施例中,该吸附区域可以为一个覆盖第一虚拟对象全身的区域,以该吸附区域包括第一子区域、第二子区域和第三子区域为例进行说明,该第一子区域包围于该第二子区域外,该第二子区域包围于该第三子区域外,参见图3,图3是本发明实施例提供的一种第一虚拟对象的吸附区域的示意图。以与该第一虚拟对象的距离作为划分依据,可以将该第一虚拟对象的吸附区域划分为上述第一子区域、第二子区域以及第三子区域,本发明实施例对该吸附区域的形状以及子区域划分情况不作具体限定。下面针对该瞄准点分别位于该吸附区域的三个子区域时,终端获取到不同的虚拟场景的视角的目标转动速度进行详细说明:
第一种情况、当瞄准点位于该吸附区域的第一子区域时,终端获取第二预设转动速度作为该虚拟场景的视角的目标转动速度,该第二预设转动速度大于第一预设转动速度。
在该第一种情况中,该瞄准点位于该吸附区域的第一子区域,也即是该瞄准点位于该第一虚拟对象周围,但是距离该第一虚拟对象还有一定距离,所以终端在获取视角的目标转动速度时,可以获取一个大于该第一预设转动速度的转动速度作为视角的目标转动速度,这样视角的转动速度更快,使得瞄准点能够更快地向第一虚拟对象移动,达到辅助用户快速瞄准的目的,降低了用户的操作难度。该第二预设转动速度可以由技术人员预先设置,也可以由终端根据第一预设转动速度确定,相应地,该终端可以获取预设的第二预设转动速度作为目标转动速度,或者在第一预设转动速度的基础上,计算得到一个大于第一预设转动速度的第二预设转动速度,本发明实施例对该第二预设转动速度的具体取值和确定过程不作具体限定。
第二种情况、当瞄准点位于该吸附区域的第二子区域时,终端获取第三预设转动速度作为该虚拟场景的视角的目标转动速度,该第三预设转动速度小于第一预设转动速度。
在该第二种情况中,该瞄准点位于该吸附区域的第二子区域时,说明该瞄准点在第一虚拟对象周围,且距离该第一虚拟对象很近,为了避免用户通过控制操作进行视角调整,导致瞄准点很快移动,移动超过该第一虚拟对象所在区域,甚至移动出该第二子区域,则终端在该第二种情况中获取到的可以获取一个小于第一预设转动速度的转动速度作为视角的目标转动速度,这样视角的转动速度变慢了,用户即使进行触控操作的操作幅度很大,视角转动的幅度也不会太大,则瞄准点不容易很快远离该第一虚拟对象,达到辅助瞄准的目的。
相应地,基于上述视角转动速度的改变,用户也可以更精准地调整瞄准点瞄准的区域,即用户可以通过大幅度地进行控制操作实现视角的小幅度调整,从而实现瞄准点的小幅度调整,例如小幅度调整瞄准的第一虚拟对象的身体部位。
在一种可能实现方式中,该第三预设转动速度可以由技术人员预先设置,也可以由终端根据第一预设转动速度确定,相应地,该终端可以获取预设的第三预设转动速度作为目标转动速度,或者在第一预设转动速度的基础上,计算得到一个小于第一预设转动速度的第三预设转动速度,本发明实施例对该第三预设转动速度的具体取值不作具体限定。
第三种情况、当瞄准点位于该吸附区域的第三子区域时,终端获取第四预设转动速度作为该虚拟场景的视角的目标转动速度,该第四预设转动速度小于该第一预设转动速度。
在该第三种情况中,该瞄准点位于吸附区域的第三子区域时,说明该瞄准点可能已经位于该虚拟对象的身上,也可以位于距离该虚拟对象很近的一个位置,这种情况下,终端已经无需对用户的控制操作对应的视角的目标转动速度进行加速,而是需要考虑如果转动速度过大,可能导致瞄准点很快移动到距离第一虚拟对象很远的位置,则终端可以获取一个小于第一预设转动速度的转动速度作为视角的目标转动速度。这样用户可以通过大幅度地控制操作实现视角的小幅度转动,从而实现瞄准点的小幅度移动,可以更精确地调整瞄准点瞄准的区域。该第四预设转动速度可以小于第三预设转动速度,当然,该第四预设转动速度也可以等于或大于第三预设转动速度,本发明实施例对该第四预设转动速度与第三预设转动的大小关系不作具体限定。该第四预设转动速度可以由技术人员预先设置,或由终端根据第一预设转动速度确定,相应地,该终端可以获取预设的第四预设转动速度作为目标转动速度,或者在第一预设转动速度 的基础上,或在第三预设转动速度的基础上,计算得到一个小于第一预设转动速度或第三预设转动速度的第四预设转动速度,本发明实施例对该第四预设转动速度的具体取值不作具体限定。
需要说明的是,上述三种情况是当瞄准点位于吸附区域时,终端获取视角的目标转动速度的不同情况,在一种可能实现方式中,终端可以根据瞄准点的移动方向不同,采用不同的速度对视角进行转动,例如瞄准点的移动方向朝向第一虚拟对象,则获取大于第一预设转动速度的转动速度,而如果瞄准点的移动方向背离第一虚拟对象时,则获取第一预设转动速度或小于第一预设转动速度的转动速度。
104、当该虚拟场景中不包括第一虚拟对象时,终端获取虚拟场景的视角的第一预设转动速度。
当该虚拟场景中不包括第一虚拟对象时,用户没有想要瞄准射击的目标,终端则也无需提供辅助瞄准服务,因而,终端可以获取系统默认的视角转动速度,也即是用户进行控制操作时视角的正常转动速度(第一预设转动速度)。
105、服务器按照该视角的目标转动速度,对该虚拟场景的视角进行调整。
终端对虚拟场景的视角进行调整的具体过程可以为:终端根据该视角的目标转动速度,计算该瞄准点在预设时间间隔内的移动距离;终端基于该移动距离以及该第一虚拟对象与该第二虚拟对象之间的距离,计算该虚拟场景的视角在预设时间间隔内的转动角度;每隔预设时间间隔,终端调整该虚拟场景的视角转动该转动角度。该预设时间间隔是指相邻帧之间的时间间隔,该预设时间间隔可以由技术人员预先设置,也可以由用户根据自身设备的运行情况进行设置调整。
需要说明的是,上述步骤101至步骤105是一种动态的视角调整过程,终端可以在每一帧执行上述步骤101至104,终端在每一帧计算得到视角的目标转动速度后,可以基于该视角的目标转动速度计算这一帧到下一帧时,瞄准点移动的距离,以及视角的转动角度,从而计算得到下一帧时的视角方向,瞄准点位置,在下一帧中进行渲染显示。然后终端再在下一帧时重复上述检测、获取以及调整过程。
在一种可能实现方式中,对于上述步骤103中的第一种情况和第二种情况,终端在按照获取到的视角的目标转动速度进行调整的过程还可以为:终端对该视角的目标转动速度按照水平方向和竖直方向进行分解,得到该视角的水平转 动速度和竖直转动速度;终端仅按照该水平转动速度,对该虚拟场景的视角进行调整。在这种实现方式中,终端可以忽略该竖直转动速度,也即是在视角调整过程中瞄准点的高度不变,上述用户进行的控制操作仅仅是将瞄准点水平向第一虚拟对象进行移动,从而达到辅助用户快速瞄准的目的。
下面针对上述视角调整方法的具体流程给出一种示例:用户在终端上进行操作,该终端显示的虚拟场景中有一个第一虚拟对象,且当前瞄准点距离该第一虚拟对象很远。用户进行控制操作,终端获取第一预设转动速度作为视角的目标转动速度,从而对视角进行调整,使得瞄准点向这个第一虚拟对象移动。在瞄准点离第一虚拟对象稍微近一些的时候,终端获取第二预设转动速度作为视角的目标转动速度,则视角转动的速度变快了。用户操作依旧不变,在该瞄准点非常接近第一虚拟对象时,终端获取第三预设转动速度作为视角的目标转动速度,则视角移动的速度变慢了,用户会感觉调整视角的操作有种粘滞感。当该瞄准点已经处于该第一虚拟对象的躯干区域时,用户继续进行控制操作,终端获取第四预设转动速度,则控制视角转动时,视角转动的速度更慢了,从而用户可以大幅度地进行控制操作,终端可以控制视角调整,使得瞄准点精确地瞄准第一虚拟对象的各个部位。
在上述步骤103中,还可能有另一种可能场景:当瞄准点位于该吸附区域且第一虚拟对象发生了移动,则可以控制瞄准点跟随该第一虚拟对象进行移动。在该场景中,该步骤105可以为:终端可以基于该视角的目标转动速度和该第一虚拟对象的移动速度,显示该瞄准点在该虚拟场景中跟随该第一虚拟对象进行移动。具体地,终端可以采用上述步骤103中的视角的移动速度的获取方式,获取到视角的移动速度,再在该视角的目标转动速度的基础上,叠加一个用于追随第一虚拟对象的速度,这样用户可以通过简单操作,也能使得瞄准点追随第一虚拟对象,而不丢失瞄准的目标,从而降低了用户的操作难度。上述过程在视角调整时,该视角的调整过程中不仅根据获取到的视角的移动速度进行调整,还根据该第一虚拟对象的移动速度进行相应调整。
需要说明的是,显示瞄准点在虚拟场景中跟随第一虚拟对象进行移动时,该瞄准点的追随速度大小可以与该第一虚拟对象的移动速度大小正相关,也可以是一个固定大小的速度。当该瞄准点的追随速度大小与该第一虚拟对象的移动速度大小正相关时,该追随速度大小与该第一虚拟对象的移动速度大小之间的比例可以由技术人员设置,需要说明的是,该比例小于或等于1,一般地, 为了保证电子游戏竞技的公平性、公正性,通常将该比例设置为小于1。例如,如图4所示,如果仅考虑该第一虚拟对象的移动速度,且,该比例为1时,该第一虚拟对象从位置i移动到位置j时,终端在进行视角调整时,显示瞄准点会从位置a移动到位置b,该瞄准点与第一虚拟对象之间的相对位置并未发生变化。需要说明的是,该图4仅用于说明瞄准点与第一虚拟对象的相对位置,一般地,该瞄准点的显示位置可以为屏幕的中心,且该调整过程中,虚拟场景的视角也会发生改变,在图4中并未示出。
在上述视角调整过程中,如果用户的控制操作结束了,但瞄准点位于该吸附区域的第三子区域且该第一虚拟对象发生移动,终端也可以在该控制操作结束后的预设时间内,控制该瞄准点跟随该第一虚拟对象进行移动。也即是,终端基于该视角的目标转动速度和该第一虚拟对象的移动速度,显示该瞄准点在该虚拟场景中跟随该第一虚拟对象进行移动。该预设时间可以由技术人员基于一般用户的操作习惯设置,例如,该预设时间可以是0.5秒(s),本发明实施例对该预设时间的具体取值不作限定。这种情况下,用户的控制操作结束了,但是视角还可以跟随第一虚拟对象移动一定时间,可以使得用户在切换操作时,虚拟场景的视角调整过程不间断,从而使得用户的操作更连贯,提供一种更好的用户体验。例如,该用户在视角调整过程中,结束当前控制操作,去点击了一下射击按钮,后继续进行控制操作,这样该瞄准点可以不间断地跟随第一虚拟对象进行移动。
在一种可能实现方式中,还设置有一种延迟机制:当视角调整过程中该控制操作结束时,终端可以在预设时间内按照该控制操作结束前一时刻的视角的目标转动速度,对该虚拟场景的视角进行调整;当该预设时间内一直未检测到控制操作时,终端可以停止对该虚拟场景的视角的调整。该预设时间也可以由技术人员基于一般用户的操作习惯设置,该预设时间可以与上述瞄准点自动跟随的预设时间相同,也可以不同,例如该预设时间也可以是0.5s,本发明实施例对该预设时间的具体取值不作限定。这样在用户切换操作时,虚拟场景的视角调整过程不间断,从而使得用户的操作更连贯,提供一种更好的用户体验。
本发明实施例通过基于第一虚拟对象和第二虚拟对象之间的距离,确定第一虚拟对象的吸附区域,即使该距离很大,第一虚拟对象的显示尺寸很小,该第一虚拟对象的吸附区域的尺寸也不会太小,则用户可以通过简单操作将瞄准点移动到该第一虚拟对象的吸附区域,进而在瞄准点位于吸附区域时,辅助用 户进行视角转动,从而降低了用户的操作难度。进一步地,本发明实施例还通过对该距离进行限定,仅在距离符合要求时提供辅助瞄准服务,从而在降低操作难度的同时,保证了电子游戏竞技的公平性、公正性。进一步地,本发明实施例还通过在瞄准点在第一虚拟对象附近时,提高视角的转动速度,使得瞄准点能够更快地向第一虚拟对象移动,达到辅助用户快速瞄准的目的,降低了用户的操作难度。进一步地,本发明实施例还通过在瞄准点位于吸附区域的第二子区域或第三子区域时,降低了视角的转动速度,避免了用户通过控制操作将瞄准点移出吸附区域的情况出现,从而降低了用户的操作难度,同时用户还可以通过大幅度地进行控制操作实现视角的小幅度调整,从而实现瞄准点的小幅度调整,更精确地调整瞄准点瞄准的区域。进一步地,本发明实施例还通过在瞄准点位于吸附区域时,在视角调整过程中提供一个跟随第一虚拟对象的速度,这样用户可以通过简单操作,也能使得瞄准点追随第一虚拟对象,而不丢失瞄准的目标,从而降低了用户的操作难度。进一步地,本发明实施例还通过设置预设时间,在用户的控制操作结束时,继续进行视角调整,从而使得在用户切换操作时瞄准点不间断地向第一虚拟对象进行移动,使得用户操作更连贯,更方便。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
图5是本发明实施例提供的一种视角调整装置的结构示意图。该装置包括:
确定模块501,用于根据第一虚拟对象与第二虚拟对象之间的距离,确定该第一虚拟对象的吸附区域,该距离和该吸附区域的尺寸正相关;
获取模块502,用于当第二虚拟对象的瞄准点位于该吸附区域时,获取虚拟场景的视角的目标转动速度;
调整模块503,用于按照该视角的目标转动速度,对该虚拟场景的视角进行调整。
在一个实施例中,该装置还包括:
检测模块,用于检测虚拟场景中是否包括第一虚拟对象;
该确定模块501,用于当该虚拟场景中包括第一虚拟对象时,执行该根据第一虚拟对象与第二虚拟对象之间的距离,确定该第一虚拟对象的吸附区域的步骤;
该获取模块502,还用于当该虚拟场景中不包括第一虚拟对象时,获取虚拟场景的视角的第一预设转动速度。
在一个实施例中,该确定模块501用于:
当该距离小于第一预设距离或该距离大于第二预设距离时,确定该第一虚拟对象的吸附区域的尺寸为零;
当该第一虚拟对象与第二虚拟对象之间的距离大于或等于第一预设距离且小于或等于第二预设距离时,确定该第一虚拟对象周围预设范围内的区域为该第一虚拟对象的吸附区域,该预设范围的尺寸与该距离正相关。
在一个实施例中,该获取模块502用于:
当该瞄准点位于该吸附区域的第一子区域时,获取第二预设转动速度作为该虚拟场景的视角的目标转动速度,该第二预设转动速度大于第一预设转动速度;
当该瞄准点位于该吸附区域的第二子区域时,获取第三预设转动速度作为该虚拟场景的视角的目标转动速度,该第三预设转动速度小于第一预设转动速度;
其中,该第一子区域包围于该第二子区域外。
在一个实施例中,该获取模块502用于:
对该视角的目标转动速度按照水平方向和竖直方向进行分解,得到该视角的水平转动速度和竖直转动速度;
仅按照该水平转动速度,对该虚拟场景的视角进行调整。
在一个实施例中,该获取模块502用于:
当瞄准点位于该吸附区域的第三子区域时,获取第四预设转动速度作为该虚拟场景的视角的目标转动速度,该第四预设转动速度小于该第一预设转动速度;
其中,该第二子区域包围于该第三子区域外。
在一个实施例中,该装置还包括:
显示模块,用于当瞄准点位于该吸附区域且该第一虚拟对象发生移动时,控制该瞄准点跟随该第一虚拟对象进行移动。
在一个实施例中,该调整模块503用于:
根据该视角的目标转动速度,计算该瞄准点在预设时间间隔内的移动距离;
基于该移动距离以及该第一虚拟对象与该第二虚拟对象之间的距离,计算该虚拟场景的视角在预设时间间隔内的转动角度;
每隔预设时间间隔,调整该虚拟场景的视角转动该转动角度。
在一个实施例中,该调整模块503还用于:
当视角调整过程中控制操作结束时,在预设时间内按照该控制操作结束前一时刻的视角的目标转动速度,对该虚拟场景的视角进行调整;
当该预设时间内一直未检测到控制操作时,停止对该虚拟场景的视角的调整。
本发明实施例提供的装置通过基于第一虚拟对象和第二虚拟对象之间的距离,确定第一虚拟对象的吸附区域,即使该距离很大,第一虚拟对象的显示尺寸很小,该第一虚拟对象的吸附区域的尺寸也不会太小,则用户可以通过简单操作将瞄准点移动到该第一虚拟对象的吸附区域,进而在瞄准点位于吸附区域时,辅助用户进行视角转动,从而降低了用户的操作难度。
需要说明的是:上述实施例提供的视角调整装置在调整视角时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的视角调整装置和视角调整方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6是本发明实施例提供的一种电子装置600的结构示意图,该电子装置600可以被提供为一终端,该电子装置600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)601和一个或一个以上的存储器602,其中,该存储器602中存储有至少一条指令,该至少一条指令由该处理器601加载并执行以实现如下视角调整方法的方法步骤:
根据第一虚拟对象与第二虚拟对象之间的距离,确定该第一虚拟对象的吸附区域,该距离和该吸附区域的尺寸正相关;
当该第二虚拟对象的瞄准点位于该吸附区域时,获取虚拟场景的视角的目标转动速度;
按照该视角的目标转动速度,对该虚拟场景的视角进行调整。
在一种可能实现方式中,该处理还用于执行:
检测虚拟场景中是否包括第一虚拟对象;
当该虚拟场景中包括第一虚拟对象时,执行该根据第一虚拟对象与第二虚拟对象之间的距离,确定该第一虚拟对象的吸附区域的步骤;
当该虚拟场景中不包括第一虚拟对象时,获取虚拟场景的视角的第一预设转动速度。
在一种可能实现方式中,该处理用于执行:
当该距离小于第一预设距离或该距离大于第二预设距离时,确定该第一虚拟对象的吸附区域的尺寸为零;
当该第一虚拟对象与第二虚拟对象之间的距离大于或等于第一预设距离且小于或等于第二预设距离时,确定该第一虚拟对象周围预设范围内的区域为该第一虚拟对象的吸附区域,该预设范围的尺寸与该距离正相关。
在一种可能实现方式中,该处理用于执行:当该第二虚拟对象的瞄准点位于该吸附区域的第一子区域时,获取第二预设转动速度作为该虚拟场景的视角的目标转动速度,该第二预设转动速度大于第一预设转动速度;
当该第二虚拟对象的瞄准点位于该吸附区域的第二子区域时,获取第三预设转动速度作为该虚拟场景的视角的目标转动速度,该第三预设转动速度小于第一预设转动速度;
其中,该第一子区域包围于该第二子区域外。
在一种可能实现方式中,该处理用于执行:
对该视角的目标转动速度按照水平方向和竖直方向进行分解,得到该视角的水平转动速度和竖直转动速度;
仅按照该水平转动速度,对该虚拟场景的视角进行调整。
在一种可能实现方式中,该处理用于执行:
当该第二虚拟对象的瞄准点位于该吸附区域的第三子区域时,获取第四预设转动速度作为该虚拟场景的视角的目标转动速度,该第四预设转动速度小于该第一预设转动速度;
其中,该第二子区域包围于该第三子区域外。
在一种可能实现方式中,该处理还用于执行当该第二虚拟对象的瞄准点位于该吸附区域且该第一虚拟对象发生移动时,控制该瞄准点跟随该第一虚拟对象进行移动。
在一种可能实现方式中,该处理用于执行:
根据该视角的目标转动速度,计算该第二虚拟对象的瞄准点在预设时间间隔内的移动距离;
基于该移动距离以及该第一虚拟对象与该第二虚拟对象之间的距离,计算该虚拟场景的视角在预设时间间隔内的转动角度;
每隔预设时间间隔,调整该虚拟场景的视角转动该转动角度。
在一种可能实现方式中,该处理还用于执行:
当视角调整过程中控制操作结束时,在预设时间内按照该控制操作结束前一时刻的视角的目标转动速度,对该虚拟场景的视角进行调整;
当该预设时间内一直未检测到控制操作时,停止对该虚拟场景的视角的调整。
当然,该电子装置还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该电子装置还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种存储有计算机程序的计算机可读存储介质,例如存储有计算机程序的存储器,上述计算机程序被处理执行时实现上述视角调整方法。例如,上述计算机可读存储介质可以是只读内存(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (19)

  1. 一种视角调整方法,其特征在于,应用于电子装置,所述方法包括:
    根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域,所述距离和所述吸附区域的尺寸正相关;
    当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角的目标转动速度;
    按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整。
  2. 根据权利要求1所述的方法,其特征在于,所述根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域之前,所述方法还包括:
    检测虚拟场景中是否包括第一虚拟对象;
    当所述虚拟场景中包括第一虚拟对象时,执行所述根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域的步骤;
    当所述虚拟场景中不包括第一虚拟对象时,获取虚拟场景的视角的第一预设转动速度。
  3. 根据权利要求1所述的方法,其特征在于,所述根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域,包括:
    当所述距离小于第一预设距离或所述距离大于第二预设距离时,确定所述第一虚拟对象的吸附区域的尺寸为零;
    当所述第一虚拟对象与第二虚拟对象之间的距离大于或等于第一预设距离且小于或等于第二预设距离时,确定所述第一虚拟对象周围预设范围内的区域为所述第一虚拟对象的吸附区域,所述预设范围的尺寸与所述距离正相关。
  4. 根据权利要求1所述的方法,其特征在于,所述当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角的目标转动速度,包括:
    当所述第二虚拟对象的瞄准点位于所述吸附区域的第一子区域时,获取第二预设转动速度作为所述虚拟场景的视角的目标转动速度,所述第二预设转动 速度大于第一预设转动速度;
    当所述第二虚拟对象的瞄准点位于所述吸附区域的第二子区域时,获取第三预设转动速度作为所述虚拟场景的视角的目标转动速度,所述第三预设转动速度小于第一预设转动速度;
    其中,所述第一子区域包围于所述第二子区域外。
  5. 根据权利要求4所述的方法,其特征在于,所述按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整,包括:
    对所述视角的目标转动速度按照水平方向和竖直方向进行分解,得到所述视角的水平转动速度和竖直转动速度;
    仅按照所述水平转动速度,对所述虚拟场景的视角进行调整。
  6. 根据权利要求4所述的方法,其特征在于,所述当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角的目标转动速度,包括:
    当所述第二虚拟对象的瞄准点位于所述吸附区域的第三子区域时,获取第四预设转动速度作为所述虚拟场景的视角的目标转动速度,所述第四预设转动速度小于所述第一预设转动速度;
    其中,所述第二子区域包围于所述第三子区域外。
  7. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    当所述第二虚拟对象的瞄准点位于所述吸附区域且所述第一虚拟对象发生移动时,控制所述瞄准点跟随所述第一虚拟对象进行移动。
  8. 根据权利要求1所述的方法,其特征在于,所述按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整,包括:
    根据所述视角的目标转动速度,计算所述第二虚拟对象的瞄准点在预设时间间隔内的移动距离;
    基于所述移动距离以及所述第一虚拟对象与所述第二虚拟对象之间的距离,计算所述虚拟场景的视角在预设时间间隔内的转动角度;
    每隔预设时间间隔,调整所述虚拟场景的视角转动所述转动角度。
  9. 根据权利要求1至8任一项所述的方法,其特征在于,所述方法还包括:
    当视角调整过程中控制操作结束时,在预设时间内按照所述控制操作结束前一时刻的视角的目标转动速度,对所述虚拟场景的视角进行调整;
    当所述预设时间内一直未检测到控制操作时,停止对所述虚拟场景的视角的调整。
  10. 一种电子装置,其特征在于,包括:
    处理器;
    用于存放计算机程序的存储器;
    其中,所述处理器用于执行存储器上所存放的计算机程序,实现如下方法步骤:
    根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域,所述距离和所述吸附区域的尺寸正相关;
    当所述第二虚拟对象的瞄准点位于所述吸附区域时,获取虚拟场景的视角的目标转动速度;
    按照所述视角的目标转动速度,对所述虚拟场景的视角进行调整。
  11. 根据权利要求10所述的电子装置,其特征在于,所述处理还用于执行:
    检测虚拟场景中是否包括第一虚拟对象;
    当所述虚拟场景中包括第一虚拟对象时,执行所述根据第一虚拟对象与第二虚拟对象之间的距离,确定所述第一虚拟对象的吸附区域的步骤;
    当所述虚拟场景中不包括第一虚拟对象时,获取虚拟场景的视角的第一预设转动速度。
  12. 根据权利要求10所述的电子装置,其特征在于,所述处理用于执行:
    当所述距离小于第一预设距离或所述距离大于第二预设距离时,确定所述第一虚拟对象的吸附区域的尺寸为零;
    当所述第一虚拟对象与第二虚拟对象之间的距离大于或等于第一预设距离且小于或等于第二预设距离时,确定所述第一虚拟对象周围预设范围内的区域为所述第一虚拟对象的吸附区域,所述预设范围的尺寸与所述距离正相关。
  13. 根据权利要求10所述的电子装置,其特征在于,所述处理用于执行:当所述第二虚拟对象的瞄准点位于所述吸附区域的第一子区域时,获取第二预设转动速度作为所述虚拟场景的视角的目标转动速度,所述第二预设转动速度大于第一预设转动速度;
    当所述第二虚拟对象的瞄准点位于所述吸附区域的第二子区域时,获取第三预设转动速度作为所述虚拟场景的视角的目标转动速度,所述第三预设转动速度小于第一预设转动速度;
    其中,所述第一子区域包围于所述第二子区域外。
  14. 根据权利要求13所述的电子装置,其特征在于,所述处理用于执行:
    对所述视角的目标转动速度按照水平方向和竖直方向进行分解,得到所述视角的水平转动速度和竖直转动速度;
    仅按照所述水平转动速度,对所述虚拟场景的视角进行调整。
  15. 根据权利要求13所述的电子装置,其特征在于,所述处理用于执行:
    当所述第二虚拟对象的瞄准点位于所述吸附区域的第三子区域时,获取第四预设转动速度作为所述虚拟场景的视角的目标转动速度,所述第四预设转动速度小于所述第一预设转动速度;
    其中,所述第二子区域包围于所述第三子区域外。
  16. 根据权利要求10所述的电子装置,其特征在于,所述处理还用于执行当所述第二虚拟对象的瞄准点位于所述吸附区域且所述第一虚拟对象发生移动时,控制所述瞄准点跟随所述第一虚拟对象进行移动。
  17. 根据权利要求10所述的电子装置,其特征在于,所述处理用于执行:
    根据所述视角的目标转动速度,计算所述第二虚拟对象的瞄准点在预设时间间隔内的移动距离;
    基于所述移动距离以及所述第一虚拟对象与所述第二虚拟对象之间的距离,计算所述虚拟场景的视角在预设时间间隔内的转动角度;
    每隔预设时间间隔,调整所述虚拟场景的视角转动所述转动角度。
  18. 根据权利要求10至17任一项所述的电子装置,其特征在于,所述处理还用于执行:
    当视角调整过程中控制操作结束时,在预设时间内按照所述控制操作结束前一时刻的视角的目标转动速度,对所述虚拟场景的视角进行调整;
    当所述预设时间内一直未检测到控制操作时,停止对所述虚拟场景的视角的调整。
  19. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-9任一项所述的方法步骤。
PCT/CN2019/074131 2018-02-09 2019-01-31 视角调整方法、装置、电子装置及计算机可读存储介质 WO2019154255A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020564303A JP7045486B2 (ja) 2018-02-09 2019-01-31 視野角調整方法、電子機器、及びコンピュータプログラム
US16/878,866 US11977713B2 (en) 2018-02-09 2020-05-20 Viewing angle adjustment method and device, electronic device, and computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810136918.7A CN108415639B (zh) 2018-02-09 2018-02-09 视角调整方法、装置、电子装置及计算机可读存储介质
CN201810136918.7 2018-02-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/878,866 Continuation US11977713B2 (en) 2018-02-09 2020-05-20 Viewing angle adjustment method and device, electronic device, and computer-readable storage medium

Publications (1)

Publication Number Publication Date
WO2019154255A1 true WO2019154255A1 (zh) 2019-08-15

Family

ID=63127123

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/074131 WO2019154255A1 (zh) 2018-02-09 2019-01-31 视角调整方法、装置、电子装置及计算机可读存储介质

Country Status (4)

Country Link
US (1) US11977713B2 (zh)
JP (1) JP7045486B2 (zh)
CN (1) CN108415639B (zh)
WO (1) WO2019154255A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111714887A (zh) * 2020-06-24 2020-09-29 网易(杭州)网络有限公司 游戏视角调整方法、装置、设备及存储介质
CN112121438A (zh) * 2020-09-29 2020-12-25 腾讯科技(深圳)有限公司 操作提示方法、装置、终端及存储介质

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108415639B (zh) 2018-02-09 2022-02-25 腾讯科技(深圳)有限公司 视角调整方法、装置、电子装置及计算机可读存储介质
CN109821237B (zh) * 2019-01-24 2022-04-22 腾讯科技(深圳)有限公司 视角转动的方法、装置、设备及存储介质
CN109847336B (zh) * 2019-02-26 2021-08-06 腾讯科技(深圳)有限公司 虚拟场景显示方法、装置、电子设备及存储介质
CN109847353A (zh) * 2019-03-20 2019-06-07 网易(杭州)网络有限公司 游戏应用的显示控制方法、装置、设备及存储介质
CN110443850B (zh) * 2019-08-05 2022-03-22 珠海优特电力科技股份有限公司 目标对象的定位方法及装置、存储介质、电子装置
CN110585707B (zh) * 2019-09-20 2020-12-11 腾讯科技(深圳)有限公司 视野画面显示方法、装置、设备及存储介质
CN110732135B (zh) * 2019-10-18 2022-03-08 腾讯科技(深圳)有限公司 虚拟场景显示方法、装置、电子设备及存储介质
CN110841276B (zh) 2019-10-31 2021-05-14 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
CN111061362A (zh) * 2019-11-21 2020-04-24 珠海剑心互动娱乐有限公司 自适应视角方法、装置、计算设备和存储介质
CN111097170B (zh) * 2019-12-11 2022-11-22 腾讯科技(深圳)有限公司 吸附框的调整方法和装置、存储介质及电子装置
CN111111168B (zh) * 2019-12-16 2021-03-26 腾讯科技(深圳)有限公司 虚拟道具的控制方法和装置、存储介质及电子装置
CN111729309B (zh) * 2020-06-23 2024-04-12 网易(杭州)网络有限公司 游戏中虚拟攻击控制方法、装置、电子设备及存储介质
JP7406274B1 (ja) 2022-10-18 2023-12-27 亮太 高尾 ゲームプログラム、ゲーム方法及びゲーム装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106155553A (zh) * 2016-07-05 2016-11-23 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置
CN107029428A (zh) * 2016-02-04 2017-08-11 网易(杭州)网络有限公司 一种射击游戏的操控系统、方法及终端
CN107050861A (zh) * 2017-04-24 2017-08-18 网易(杭州)网络有限公司 镜头锁定目标的方法、装置、存储介质和处理器
CN107213636A (zh) * 2017-05-31 2017-09-29 网易(杭州)网络有限公司 镜头移动方法、装置、存储介质和处理器
CN107519644A (zh) * 2017-08-15 2017-12-29 网易(杭州)网络有限公司 一种3d游戏中的视角调整方法及装置
CN108415639A (zh) * 2018-02-09 2018-08-17 腾讯科技(深圳)有限公司 视角调整方法、装置、电子装置及计算机可读存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172108B2 (ja) 1999-08-09 2008-10-29 株式会社セガ ゲーム装置及びその制御方法
JP2001149643A (ja) 1999-09-16 2001-06-05 Sony Computer Entertainment Inc 3次元ゲームにおけるオブジェクト表示方法、情報記録媒体およびエンタテインメント装置
JP2001276420A (ja) * 2000-03-30 2001-10-09 Namco Ltd ゲーム装置および情報記憶媒体
JP3707995B2 (ja) 2000-05-17 2005-10-19 株式会社ナムコ ゲームシステム及び情報記憶媒体
JP2004329463A (ja) * 2003-05-06 2004-11-25 Nintendo Co Ltd ゲーム装置および仮想カメラの制御プログラム
JP4474640B2 (ja) * 2004-05-11 2010-06-09 株式会社セガ 画像処理プログラム、ゲーム処理プログラムおよびゲーム情報処理装置
JP4116039B2 (ja) * 2006-01-27 2008-07-09 株式会社スクウェア・エニックス ゲーム装置、ゲームの進行方法、並びにプログラム及び記録媒体
JP4791852B2 (ja) * 2006-02-27 2011-10-12 任天堂株式会社 ゲーム装置、ゲームプログラムおよびゲーム制御方法
JP5390093B2 (ja) * 2007-12-21 2014-01-15 任天堂株式会社 ゲームプログラムおよびゲーム装置
TW200928880A (en) * 2007-12-21 2009-07-01 Pixart Imaging Inc Displacement detection apparatus and method
JP2009273865A (ja) * 2008-04-17 2009-11-26 Konami Digital Entertainment Co Ltd ゲームプログラム、ゲーム装置及びゲーム制御方法
US8342926B2 (en) * 2008-07-13 2013-01-01 Sony Computer Entertainment America Llc Game aim assist
JP5800473B2 (ja) 2010-06-11 2015-10-28 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5425881B2 (ja) * 2011-12-22 2014-02-26 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、及びプログラム
US8657620B2 (en) 2011-12-22 2014-02-25 General Electric Company Connector assembly having a cable clamp coupled to a collet including an arbor
US10118095B2 (en) * 2012-12-14 2018-11-06 Nvidia Corporation Implementing a remote gaming server on a desktop computer
US9770664B2 (en) * 2013-04-05 2017-09-26 Gree, Inc. Method and apparatus for providing online shooting game
TWI582672B (zh) * 2015-01-20 2017-05-11 緯創資通股份有限公司 光學觸控裝置及其觸控偵測方法
CN204502378U (zh) * 2015-02-13 2015-07-29 林志坚 带射击瞄准辅助功能的显示器
CN105498213B (zh) * 2015-12-09 2017-02-15 杭州无端科技有限公司 一种射击游戏中的瞄准方法及装置
CN105641927B (zh) * 2015-12-31 2019-05-17 网易(杭州)网络有限公司 虚拟对象转向控制方法及装置
CN107124902B (zh) * 2015-12-31 2020-01-17 华为技术有限公司 显示屏背光控制方法、装置及终端
BR112019019060B1 (pt) * 2017-03-17 2021-01-19 Unity IPR ApS método e sistema para colisão de câmera automatizada e preservação de composição
CN107008003B (zh) * 2017-04-13 2020-08-14 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及计算机可读存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107029428A (zh) * 2016-02-04 2017-08-11 网易(杭州)网络有限公司 一种射击游戏的操控系统、方法及终端
CN106155553A (zh) * 2016-07-05 2016-11-23 网易(杭州)网络有限公司 虚拟对象运动控制方法及装置
CN107050861A (zh) * 2017-04-24 2017-08-18 网易(杭州)网络有限公司 镜头锁定目标的方法、装置、存储介质和处理器
CN107213636A (zh) * 2017-05-31 2017-09-29 网易(杭州)网络有限公司 镜头移动方法、装置、存储介质和处理器
CN107519644A (zh) * 2017-08-15 2017-12-29 网易(杭州)网络有限公司 一种3d游戏中的视角调整方法及装置
CN108415639A (zh) * 2018-02-09 2018-08-17 腾讯科技(深圳)有限公司 视角调整方法、装置、电子装置及计算机可读存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111714887A (zh) * 2020-06-24 2020-09-29 网易(杭州)网络有限公司 游戏视角调整方法、装置、设备及存储介质
CN111714887B (zh) * 2020-06-24 2024-01-30 网易(杭州)网络有限公司 游戏视角调整方法、装置、设备及存储介质
CN112121438A (zh) * 2020-09-29 2020-12-25 腾讯科技(深圳)有限公司 操作提示方法、装置、终端及存储介质

Also Published As

Publication number Publication date
JP2021512445A (ja) 2021-05-13
US11977713B2 (en) 2024-05-07
JP7045486B2 (ja) 2022-03-31
US20200285370A1 (en) 2020-09-10
CN108415639B (zh) 2022-02-25
CN108415639A (zh) 2018-08-17

Similar Documents

Publication Publication Date Title
WO2019154255A1 (zh) 视角调整方法、装置、电子装置及计算机可读存储介质
KR102565710B1 (ko) 가상 장면 디스플레이 방법, 전자 장치 및 저장 매체
US11298609B2 (en) Virtual object movement control method and apparatus, electronic apparatus, and storage medium
JP6715301B2 (ja) 情報処理方法及び装置、プログラム、記憶媒介、電子機器
JP6722252B2 (ja) 情報処理方法及び装置、記憶媒体、電子機器
US20210252398A1 (en) Method and system for directing user attention to a location based game play companion application
US11052307B2 (en) Method and apparatus for controlling virtual object to move, electronic device, and storage medium
JP7166708B2 (ja) 仮想オブジェクト制御方法、装置、電子機器、及び記憶媒体
KR20210140747A (ko) 가상 객체 제어 방법 및 장치, 디바이스 및 매체
US10569173B2 (en) Non-transitory storage medium having stored therein information processing program, information processing system, information processing apparatus, and information processing method
WO2022063177A1 (zh) 一种虚拟摄像机的控制方法及装置、设备
US20230033874A1 (en) Virtual object control method and apparatus, terminal, and storage medium
JP6598522B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
WO2020244421A1 (zh) 虚拟对象的移动控制方法、装置、终端和存储介质
WO2019109778A1 (zh) 游戏对局结果的展示方法、装置及终端
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US10765945B2 (en) Information processing system, non-transitory storage medium having stored information processing program, information processing device, and information processing method
CN114159787A (zh) 虚拟对象的控制方法、装置、电子设备及可读介质
JP2016077462A (ja) 情報処理装置、情報処理プログラム、情報処理方法、および情報処理システム
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
CN117122917A (zh) 游戏中角色的控制方法、控制装置、设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19750946

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020564303

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19750946

Country of ref document: EP

Kind code of ref document: A1