KR20210143301A - 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체 - Google Patents

가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체 Download PDF

Info

Publication number
KR20210143301A
KR20210143301A KR1020217035082A KR20217035082A KR20210143301A KR 20210143301 A KR20210143301 A KR 20210143301A KR 1020217035082 A KR1020217035082 A KR 1020217035082A KR 20217035082 A KR20217035082 A KR 20217035082A KR 20210143301 A KR20210143301 A KR 20210143301A
Authority
KR
South Korea
Prior art keywords
virtual
control
scene
image
summoned
Prior art date
Application number
KR1020217035082A
Other languages
English (en)
Inventor
페이옌 리
위안 푸
젠차이 청
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210143301A publication Critical patent/KR20210143301A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1056Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving pressure sensitive buttons
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체가 제공된다. 이러한 방법은, 가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함하는 제1 장면 화상을 디스플레이하는 단계; 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이하는 단계; 및, 위 디스플레이 프로세스에서 그리고 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여, 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이하는 단계를 포함한다. 전술한 방법을 통해, 복수의 가상 객체들은 추가적인 전환 동작들 없이 동시에 가상 장면에서 제어될 수 있어, 가상 객체에 대한 제어 효율을 개선하고, 단말의 처리 자원들 및 전력 자원들의 낭비를 추가로 감소시킨다.

Description

가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체
본 출원은 2020년 4월 28일자로 출원되고 발명의 명칭이 "VIRTUAL OBJECT CONTROL METHOD AND APPARATUS, DEVICE, AND STORAGE MEDIUM"인 중국 특허 출원 제202010350845.9호에 대한 우선권을 주장하며, 이는 그 전체가 본 명세서에 참조로 원용된다.
<기술의 분야>
본 출원은 가상 장면 기술들의 분야에, 특히, 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체에 관련된다.
가상 장면을 지원하는 애플리케이션에서, 사용자는 가상 장면에서의 가상 제어를 설정하는 것에 의해 가상 장면에서의 가상 객체를 제어할 수 있다.
관련 분야에서, 일반적으로 가상 장면에는 복수의 가상 제어들이 존재하고, 사용 동안, 복수의 가상 제어들은 서로 조정하여 제어가능 객체를 제어한다.
가상 장면에 복수의 제어가능 객체들이 존재할 때, 사용자는 가상 제어를 사용하여 하나의 선택된 제어가능 객체를 제어할 수 있다.
그러나, 사용자가 다른 제어가능 객체를 제어할 필요가 있을 때, 사용자는 제어가능 객체를 제어하도록 전환하기 전에 전환 동작을 통해 다른 제어가능 객체를 선택하도록 전환할 필요가 있고, 이는 비교적 낮은 제어 효율을 야기한다.
본 출원의 실시예들은 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체를 제공하며, 이는 제어된 객체에 대한 제어 효율을 개선하고 단말의 처리 자원들 및 전력 자원들을 절약할 수 있다. 기술적 해결책들은 다음과 같다:
양태에 따르면, 단말에 의해 수행되는 가상 객체 제어 방법이 제공되고, 이러한 방법은,
가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하는 단계- 제1 장면 화상은 가상 장면에서의 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이하는 단계; 및
동작 정보에 기초하여 그리고 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여 가상 장면에서의 가상 소환 객체의 이동 프로세스에서, 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이하는 단계를 포함한다.
양태에 따르면, 단말에 의해 수행되는 가상 객체 제어 방법이 제공되고, 이러한 방법은,
가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 화상을 제시하는 단계- 제1 화상은 가상 장면에서의 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
소환 객체 통제 제어에 대한 클릭 동작을 수신하는 것에 응답하여 가상 장면 인터페이스에서 제2 화상을 제시하는 단계- 제2 화상은 가상 캐릭터가 가상 장면에서 가상 소환 객체를 소환하는 화상임 -;
소환 객체 통제 제어에 대한 누름 동작을 수신하는 것에 응답하여 제3 화상 및 제4 화상을 제시하는 단계- 제3 화상은 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 제4 화상은 제1 화상의 썸네일 화상이고, 제4 화상은 제1 화상의 상위 레이어 상에 중첩되어 디스플레이되며, 제4 화상의 크기는 제3 화상의 크기 미만임 -;
소환 객체 통제 제어에 대한 슬라이드 동작을 수신하는 것에 응답하여 제5 화상을 제시하는 단계- 제5 화상은 슬라이드 동작의 동작 정보에 기초하여 가상 장면에서 이동하도록 가상 소환 객체를 제어하는 화상임 -; 및
제5 화상을 제시하는 프로세스에서 캐릭터 통제 제어에 대한 트리거 동작을 수신한 것에 응답하여 제4 화상을 제6 화상으로 업데이트하고 디스플레이하는 단계- 제6 화상은 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 화상임 -를 포함한다.
양태에 따르면, 가상 객체 제어 장치가 제공되고, 이는,
가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하도록 구성되는 제1 디스플레이 모듈- 제1 장면 화상은 가상 장면에서의 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이하도록 구성되는 제1 제어 모듈; 및
제1 터치 동작의 동작 정보에 기초하여 그리고 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여 가상 장면에서의 가상 소환 객체의 이동 프로세스에서, 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이하도록 구성되는 제2 제어 모듈을 포함한다.
가능한 구현에서, 가상 캐릭터에 대응하는 가상 소환 객체가 가상 장면에 존재하는 것에 응답하여 제1 디스플레이 모듈이 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하기 전에, 이러한 장치는 추가로,
가상 캐릭터에 대응하는 가상 소환 객체가 가상 장면에 존재하지 않는 것에 응답하여 가상 장면 인터페이스에서 제2 장면 화상을 디스플레이하도록 구성되는 제2 디스플레이 모듈- 제2 장면 화상은 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상임 -; 및
소환 객체 통제 제어에 대한 제3 터치 동작을 수신하는 것에 응답하여, 가상 장면에서 가상 소환 객체를 소환하도록 가상 캐릭터를 제어하도록 구성되는 제3 제어 모듈을 포함한다.
가능한 구현에서, 제1 디스플레이 모듈은, 소환 객체 통제 제어에 대한 제4 터치 동작을 수신하는 것에 응답하여, 가상 장면 인터페이스에서의 장면 화상을 디스플레이하기 위해 제2 장면 화상으로부터 제1 장면 화상으로 전환하도록 구성되고,
제4 터치 동작은 제3 터치 동작 후에 수행된다.
가능한 구현에서, 이러한 장치는 추가로,
제1 장면 화상의 상위 레이어 상에 제2 장면 화상의 썸네일 화상을 중첩하여 디스플레이하도록 구성되는 제3 디스플레이 모듈- 썸네일 화상의 크기는 제1 장면 화상의 크기 미만임 -을 포함한다.
가능한 구현에서, 이러한 장치는 추가로,
화상 전환 동작을 수신하는 것에 응답하여 제1 장면 화상 및 제2 장면 화상의 디스플레이 위치들을 전환하도록 구성되는 전환 모듈을 포함한다.
가능한 구현에서, 이러한 장치는 추가로,
화상 복원 조건이 충족되는 것에 응답하여 가상 장면 인터페이스에서 제2 장면 화상을 복원하고 디스플레이하도록 구성되는 복원 모듈을 포함하고,
화상 복원 조건은,
가상 장면 인터페이스에서 통제 해제 제어에 대한 트리거 동작이 수신되는 것;
가상 소환 객체에 대응하는 트리거된 효과가 트리거되는 것; 또는
가상 소환 객체가 소환된 후의 지속시간이 미리 설정된 유효 지속시간에 도달하는 것을 포함한다.
가능한 구현에서, 제1 제어 모듈은,
소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 초기 방향에 상대적인 가상 소환 객체의 오프셋 각도를 획득하도록 구성되는 획득 서브모듈; 및
오프셋 각도에 따라 가상 장면에서 가상 소환 객체의 이동 방향을 제어하도록 구성되는 제어 서브모듈을 포함한다.
가능한 구현에서, 동작 정보는 상대적 방향을 포함하고, 상대적 방향은 소환 객체 통제 제어의 중심 위치에 상대적인 제1 터치 동작의 동작 위치의 방향이고;
제어 서브모듈은, 상대적 방향에 기초하여 초기 방향에 상대적인 가상 소환 객체의 타깃 오프셋 각도를 결정하도록;
타깃 오프셋 각도가 편향가능 각도 범위 내에 있는 것에 응답하여 타깃 오프셋 각도를 오프셋 각도로서 획득하도록;
타깃 오프셋 각도가 편향가능 각도 범위의 각도 상한 초과인 것에 응답하여, 각도 상한을 오프셋 각도로서 획득하도록; 그리고
타깃 오프셋 각도가 편향가능 각도 범위의 각도 하한 미만인 것에 응답하여, 각도 하한을 오프셋 각도로서 획득하도록 구성된다.
가능한 구현에서, 이러한 장치는 추가로,
제1 장면 화상에서 가상 소환 객체에 대응하는 각도 표시자 패턴을 제시하도록 구성되는 제1 제시 모듈- 각도 표시자 패턴은 편향가능 각도 범위를 표시하기 위해 사용됨 -을 포함한다.
가능한 구현에서, 이러한 장치는 추가로,
제1 장면 화상에서 각도 표시자 식별자를 제시하도록 구성되는 제2 제시 모듈- 각도 표시자 식별자는 제1 장면 화상에서 가상 소환 객체의 이동 방향을 표시하기 위해 사용됨 -을 포함한다.
양태에 따르면, 가상 객체 제어 장치가 제공되고, 이는,
가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 화상을 제시하도록 구성되는 제1 제시 모듈- 제1 화상은 가상 장면에서의 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
소환 객체 통제 제어에 대한 클릭 동작을 수신하는 것에 응답하여 가상 장면 인터페이스에서 제2 화상을 제시하도록 구성되는 제2 제시 모듈- 제2 화상은 가상 캐릭터가 가상 장면에서 가상 소환 객체를 소환하는 화상임 -;
소환 객체 통제 제어에 대한 누름 동작을 수신하는 것에 응답하여 제3 화상 및 제4 화상을 제시하도록 구성되는 제3 제시 모듈- 제3 화상은 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 제4 화상은 제1 화상의 썸네일 화상이고, 제4 화상은 제1 화상의 상위 레이어 상에 중첩되어 디스플레이되며, 제4 화상의 크기는 제3 화상의 크기 미만임 -;
소환 객체 통제 제어에 대한 슬라이드 동작을 수신하는 것에 응답하여 제5 화상을 제시하도록 구성되는 제4 제시 모듈- 제5 화상은 슬라이드 동작의 동작 정보에 기초하여 가상 장면에서 이동하도록 가상 소환 객체를 제어하는 화상임 -; 및
제5 화상을 제시하는 프로세스에서 캐릭터 통제 제어에 대한 트리거 동작을 수신한 것에 응답하여 제4 화상을 제6 화상으로 업데이트하고 디스플레이하도록 구성되는 제5 제시 모듈- 제6 화상은 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 화상임 -을 포함한다.
양태에 따르면, 컴퓨터 디바이스가 제공되고, 이는 프로세서 및 메모리를 포함하고, 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트를 저장하고, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트는 전술한 가상 객체 제어 방법을 구현하기 위해 프로세서에 의해 로딩되고 실행된다.
양태에 따르면, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트를 저장하는 컴퓨터-판독가능 저장 매체가 제공되고, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트는 전술한 가상 객체 제어 방법을 구현하기 위해 프로세서에 의해 로딩되고 실행된다.
본 출원에서 제공되는 기술적 해결책들은 다음의 유익한 효과들을 포함할 수 있다:
소환 객체 통제 제어를 사용하여 가상 장면에서 이동하도록 가상 소환 객체를 제어할 때, 가상 장면에서의 가상 캐릭터의 행동 액션은 가상 장면에서의 캐릭터 통제 제어를 사용하여 직접 제어될 수 있다. 따라서, 복수의 가상 객체들은 추가적인 전환 동작 없이 동시에 가상 장면에서 제어될 수 있어, 가상 객체에 대한 제어 효율을 개선한다.
또한, 본 출원의 이러한 실시예에서, 가상 장면에서의 복수의 가상 객체들은 동시에 제어될 수 있고, 따라서, 제어된 객체를 변경하기 위한 전환 동작이 감소되고, 인간-머신 상호작용 효율이 개선되고, 단말의 처리 자원들 및 전력 자원들의 낭비가 추가로 감소된다.
전술한 일반적인 설명들 및 다음의 상세한 설명들은 단지 예시적이고 설명적이며, 본 출원을 제한할 수 없다는 점이 이해되어야 한다.
본 명세서에서의 첨부 도면들은 명세서에 원용되어 본 명세서의 일부를 구성하고, 본 출원에 부합하는 실시예들을 도시하고, 본 명세서와 함께 본 출원의 원리를 설명하기 위해 사용된다.
도 1은 본 출원의 예시적인 실시예에 따른 컴퓨터 시스템의 구조 블록도이다.
도 2는 본 출원의 예시적인 실시예에 따른 MOBA 게임 가상 장면에서 제공되는 맵의 개략도이다.
도 3은 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 4는 본 출원의 예시적인 실시예에 따른 제1 장면 화상의 개략도이다.
도 5는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 6은 본 출원의 예시적인 실시예에 따른 제2 장면 화상의 개략도이다.
도 7은 본 출원의 예시적인 실시예에 따른 제1 장면 화상에서의 각도 표시자 패턴의 개략도이다.
도 8은 본 출원의 예시적인 실시예에 따른 가상 장면 인터페이스의 개략도이다.
도 9는 본 출원의 예시적인 실시예에 따른 제1 장면 화상의 개략도이다.
도 10은 본 출원의 예시적인 실시예에 따라 제2 장면 화상이 제1 장면 화상의 상위 레이어 상에 중첩되어 디스플레이되는 개략도이다.
도 11은 본 출원의 예시적인 실시예에 따른 가상 장면 인터페이스의 개략도이다.
도 12는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 13은 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 14는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 장치의 구조 블록도이다.
도 15는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 장치의 구조 블록도이다.
도 16은 예시적인 실시예에 따른 컴퓨터 디바이스의 구조 블록도이다.
도 17은 예시적인 실시예에 따른 컴퓨터 디바이스의 구조 블록도이다.
예시적인 실시예들이 본 명세서에 상세히 설명되고, 이들의 예들이 첨부 도면들에 도시된다. 다음의 설명들이 첨부 도면들을 참조하여 이루어질 때, 달리 표시되지 않는 한, 상이한 첨부 도면들에서의 동일한 번호들은 동일한 또는 유사한 요소들을 표현한다. 다음의 예시적인 실시예들에서 설명되는 다음의 구현들이 본 출원과 일치하는 모든 구현들을 표현하는 것은 아니다. 반대로, 이러한 구현들은 단지 첨부된 청구항들에 상세히 설명되는 그리고 본 출원의 일부 양태들과 일치하는 장치들 및 방법들의 예들이다.
"다수의(a number of)"는 하나 이상을 의미하고, 본 명세서에서 언급되는 "복수의(plurality of)"는 2개 이상을 의미한다는 점이 이해되어야 한다. "및/또는(and/or)"은 연관된 객체들에 대한 연관 관계를 설명하고 3개의 관계들이 존재할 수 있다는 점을 표현한다. 예를 들어, A 및/또는 B는 다음 3개의 경우들: A만 존재함, A 및 B 양자 모두 존재함, 및 B만 존재함을 표현할 수 있다. 문자 "/"는 연관된 객체들 사이의 "또는(or)" 관계를 일반적으로 표시한다.
본 출원은, 가상 객체에 대한 제어 효율을 개선할 수 있는, 가상 객체 제어 방법을 제공한다. 이해의 편의를 위해, 본 출원에 관련된 몇몇 용어들이 아래에 설명된다.
1. 가상 장면
가상 장면은 애플리케이션이 단말 상에서 실행될 때 디스플레이되는(또는 제공되는) 장면이다. 가상 장면은 현실 세계의 시뮬레이션된 환경 장면일 수 있거나, 또는 반-시뮬레이션된 반-허구 3D(three-dimensional) 환경 장면일 수 있거나, 또는 완전히 허구 3D 환경 장면일 수 있다. 가상 장면은 2차원 가상 장면, 2.5차원 가상 장면, 및 3D 가상 장면 중 어느 하나일 수 있고, 다음의 실시예들에서 가상 장면이 3D 가상 장면인 예를 사용하여 설명이 이루어지지만, 이러한 것이 제한되는 것은 아니다. 선택적으로, 가상 장면은 적어도 2개의 가상 캐릭터들 사이의 가상 장면 전투에 대해 추가로 사용된다. 선택적으로, 가상 장면은 적어도 2개의 가상 캐릭터들에 대해 사용될 수 있는 가상 자원들을 추가로 갖는다. 선택적으로, 가상 장면의 가상 장면 인터페이스에서 맵이 디스플레이된다. 이러한 맵은 가상 장면에서의 가상 요소 및/또는 가상 캐릭터의 위치들을 제시하기 위해 사용될 수 있거나, 또는 가상 장면에서의 가상 요소 및/또는 가상 캐릭터의 상태들을 제시하기 위해 사용될 수 있다. 선택적으로, 가상 장면은 정사각형 맵을 포함한다. 이러한 정사각형 맵은 대칭인 하부 좌측 코너 영역과 상부 우측 코너 영역을 포함한다. 2개의 상대방 캠프들 상의 가상 캐릭터들이 각각 이러한 영역들을 점유하고, 각각의 사이드의 목적은 승리를 쟁취하기 위해 상대의 영역에 깊이 있는 타깃 빌딩/요새/기지/크리스탈을 파괴하는 것이다.
2. 가상 캐릭터
가상 캐릭터는 가상 장면에서의 이동가능 객체이다. 이러한 이동가능 객체는, 가상 인간, 가상 동물, 애니메이션된 인간 캐릭터 중 적어도 하나일 수 있다. 선택적으로, 가상 장면이 3D 가상 장면일 때, 가상 캐릭터는 3D 모델일 수 있다. 각각의 가상 캐릭터는 3D 가상 장면에서 형상 및 체적을 갖고, 3D 가상 장면에서 일부 공간을 점유한다. 선택적으로, 가상 캐릭터는 3D 인간 골격 기술에 기초하여 구성되는 3D 캐릭터이다. 가상 캐릭터는 상이한 외모들을 구현하기 위해 상이한 스킨들을 착용한다. 일부 구현들에서, 가상 캐릭터는 2.5차원 모델 또는 2차원 모델을 사용하여 또한 구현될 수 있으며, 이는 본 출원의 실시예들에서 제한되는 것은 아니다.
3. MOBA(Multiplayer Online Battle Arena)
MOBA는 적어도 2개의 상대방 캠프들 상의 상이한 가상 팀들이 가상 장면에 제공되는 맵 상의 각각의 맵 영역들을 점유하고, 목표들로서 구체적인 승리 조건들을 사용하여 서로 경쟁하는 아레나 게임이다. 이러한 승리 조건은, 이에 제한되는 것은 아니지만, 상대방 캠프들의 요새들을 점유하는 것 또는 요새들을 파괴하는 것, 상대방 캠프들에서의 가상 캐릭터들을 죽이는 것, 명시된 시나리오 및 시간에서 생존하는 것, 구체적인 자원을 장악하는 것, 및 명시된 시간 내에 상대방 캠프보다 많이 득점하는 것을 포함한다. 전투 아레나 게임은 라운드로 개최될 수 있다. 전투 아레나 게임의 상이한 라운드들에서 동일한 맵 또는 상이한 맵들이 사용될 수 있다. 각각의 가상 팀은 하나 이상의 가상 캐릭터, 예를 들어, 1개의 가상 캐릭터들, 3개의 가상 캐릭터들, 또는 5개의 가상 캐릭터들을 포함한다.
4. MOBA 게임
MOBA 게임은 다수의 요새들이 가상 세계에서 제공되고, 상이한 캠프들 상의 사용자들이 가상 세계에서 전투하도록 가상 캐릭터들을 제어하고, 상대방 캠프의 요새들을 점유하거나 또는 요새들을 파괴하는 게임이다. 예를 들어, MOBA 게임에서, 사용자들은 2개의 상대방 캠프들로 분할될 수 있다. 사용자들에 의해 제어되는 가상 캐릭터들은 서로 경쟁하기 위해 가상 세계에서 흩어지고, 승리 조건은 모든 적 요새들을 파괴하거나 또는 점유하는 것이다. MOBA 게임은 라운드로 개최된다. MOBA 게임의 라운드 지속시간은 게임이 시작되는 시점부터 승리 조건이 충족되는 시점까지이다.
5. 통제 제어
본 출원에서, 통제는 캐릭터 통제 제어 및 소환 객체 통제 제어를 포함한다.
캐릭터 통제 제어는 가상 장면에서 미리 설정되고, 가상 장면에서의 제어가능 가상 캐릭터를 제어하도록 구성된다.
소환 객체 통제 제어는 가상 장면에서 미리 설정되고, 가상 장면에서의 가상 소환 객체를 제어하도록 구성된다. 가상 소환 객체는 스킬을 트리거하는 가상 캐릭터에 의해 생성되는 가상 사물일 수 있고, 예를 들어, 가상 소환 객체는 가상 화살 또는 가상 미사일일 수 있다.
선택적으로, 가상 소환 객체는 또한 가상 장면에서 제공되는 가상 소도구일 수 있고, 대안적으로, 또한 가상 장면에서의 제어가능 유닛(예를 들어, 몬스터 또는 크리프)일 수 있다.
도 1은 본 출원의 예시적인 실시예에 따른 컴퓨터 시스템의 구조 블록도이다. 컴퓨터 시스템(100)은, 제1 단말(110), 서버 클러스터(120), 및 제2 단말(130)을 포함한다.
가상 장면을 지원하는 클라이언트(111)는, 제1 단말(110) 상에 설치되어 실행되며, 클라이언트(111)는 멀티플레이어 온라인 전투 프로그램일 수 있다. 제1 단말이 클라이언트(111)를 실행할 때, 클라이언트(111)의 UI(user interface)가 제1 단말(110)의 스크린 상에 디스플레이된다. 클라이언트는, 군사 시뮬레이션 프로그램, MOBA 게임, 전투 로얄 슈팅 게임, 및 SLG(simulation game) 중 어느 하나일 수 있다. 이러한 실시예에서, 클라이언트가 MOBA 게임의 클라이언트인 예가 설명을 위해 사용된다. 제1 단말(110)은 제1 사용자(101)에 의해 사용되는 단말이다. 제1 사용자(101)는 제1 단말(110)을 사용하여 활동들을 수행하도록 가상 장면에 위치되는 제1 가상 캐릭터를 제어하며, 제1 가상 캐릭터는 제1 사용자(101)의 마스터 가상 캐릭터라고 지칭될 수 있다. 제1 가상 캐릭터의 활동들은, 이에 제한되는 것은 아니지만, 신체 자세들을 조정하기, 기어가기, 걷기, 달리기, 타고 가기, 비행 점프하기, 운전하기, 집어올리기, 슈팅하기, 공격하기, 및 던지기를 포함한다. 예를 들어, 제1 가상 캐릭터는 제1 가상 인간, 예를 들어, 시뮬레이션된 인간 캐릭터 또는 애니메이션된 인간 캐릭터이다.
가상 장면을 지원하는 클라이언트(131)는, 제2 단말(130) 상에 설치되어 실행되며, 클라이언트(131)는 멀티플레이어 온라인 전투 프로그램일 수 있다. 제2 단말(130)이 클라이언트(131)를 실행할 때, 클라이언트(131)의 UI가 제2 단말(130)의 스크린 상에 디스플레이된다. 클라이언트는 군사 시뮬레이션 프로그램, MOBA 게임, 전투 로얄 슈팅 게임, 및 SLG 중 어느 하나일 수 있다. 이러한 실시예에서, 클라이언트가 MOBA 게임인 예가 설명을 위해 사용된다. 제2 단말(130)은 제2 사용자(102)에 의해 사용되는 단말이다. 제2 사용자(102)는 제2 단말(130)을 사용하여 활동들을 수행하도록 가상 장면에 위치되는 제2 가상 캐릭터를 제어하며, 제2 가상 캐릭터는 제2 사용자(102)의 마스터 가상 캐릭터라고 지칭될 수 있다. 예를 들어, 제2 가상 캐릭터는 제2 가상 인간, 예를 들어, 시뮬레이션된 인간 캐릭터 또는 애니메이션된 인간 캐릭터이다.
선택적으로, 제1 가상 인간 및 제2 가상 인간은 동일한 가상 장면에 위치된다. 선택적으로, 제1 가상 인간 및 제2 가상 인간은 동일한 캠프, 동일한 팀, 또는 동일한 조직에 속할 수 있고, 친구들이거나, 또는 일시적인 통신 허가를 가질 수 있다. 선택적으로, 제1 가상 인간 및 제2 가상 인간은 상이한 캠프들, 상이한 팀들, 또는 상이한 조직들에 속할 수 있거나, 또는 서로에게 적들이다.
선택적으로, 제1 단말(110) 상에 설치되는 클라이언트는 제2 단말(130) 상에 설치되는 클라이언트와 동일하거나, 또는 2개의 단말들 상에 설치되는 클라이언트들은 상이한 운영 체제 플랫폼들(Android 시스템 또는 iOS 시스템) 상의 동일한 타입의 클라이언트들이다. 제1 단말(110)은 일반적으로 복수의 단말들 중 하나를 지칭할 수 있고, 제2 단말(130)은 일반적으로 복수의 단말들 중 다른 하나를 지칭할 수 있다. 이러한 실시예에서, 제1 단말(110) 및 제2 단말(130)은 단지 설명을 위한 예로서 사용된다. 제1 단말(110) 및 제2 단말(130)은 동일한 또는 상이한 디바이스 타입들의 것일 수 있으며, 이러한 디바이스 타입은 스마트폰, 태블릿 컴퓨터, 이-북 리더, 동영상 전문가 그룹 오디오 레이어 III (MP3) 플레이어, 동영상 전문가 그룹 오디오 레이어 IV (MP4) 플레이어, 랩톱, 및 데스크톱 컴퓨터 중 적어도 하나를 포함한다.
제1 단말(110), 제2 단말(130), 및 다른 단말(140)은 무선 네트워크 또는 유선 네트워크를 통해 서버 클러스터(120)에 접속된다.
서버 클러스터(120)는 하나의 서버, 복수의 서버들, 클라우드 컴퓨팅 플랫폼, 및 가상화 센터 중 적어도 하나를 포함한다. 서버 클러스터(120)는 3D 가상 장면을 지원하는 클라이언트에 대한 배경 서비스를 제공하도록 구성된다. 선택적으로, 서버 클러스터(120)는 주 컴퓨팅 작업을 담당하고, 단말은 부 컴퓨팅 작업을 담당하거나; 또는 서버 클러스터(120)는 부 컴퓨팅 작업을 담당하고, 단말은 주 컴퓨팅 작업을 담당하거나; 또는 서버 클러스터(120) 및 단말들은 서로 사이에 분산 컴퓨팅 아키텍처를 사용하여 협업 컴퓨팅을 수행한다.
개략적 예에서, 서버 클러스터(120)는 서버(121) 및 서버(126)를 포함한다. 서버(121)는 프로세서(122), 사용자 계정 데이터베이스(123), 전투 서비스 모듈(124), 및 사용자-지향 I/O(input/output) 인터페이스(125)를 포함한다. 프로세서(122)는 서버(121)에 저장되는 명령어들을 로딩하도록 그리고 사용자 계정 데이터베이스(121) 및 전투 서비스 모듈(124)에서의 데이터를 처리하도록 구성된다. 사용자 계정 데이터베이스(121)는 제1 단말(110), 제2 단말(130), 및 다른 단말들(140)에 의해 사용되는 사용자 계정들의 데이터, 예를 들어, 사용자 계정들의 아바타들, 사용자 계정들의 닉네임들, 사용자 계정들의 전투 효과 지수들, 및 사용자 계정들의 서비스 구역들을 저장하도록 구성된다. 전투 서비스 모듈(124)은 사용자들이 전투하는 복수의 전투 룸들, 예를 들어, 1V1 전투 룸, 3V3 전투 룸, 5V5 전투 룸 등을 제공하도록 구성된다. 사용자-지향 I/O 인터페이스(125)는 데이터 교환을 위해 무선 네트워크 또는 유선 네트워크를 통해 제1 단말(110) 및/또는 제2 단말(130) 사이의 통신을 수립하도록 구성된다. 선택적으로, 스마트 신호 모듈(127)이 서버(126)에 배치되고, 이러한 스마트 신호 모듈(127)은 다음의 실시예에서 제공되는 가상 객체에 대한 가상 이미지 제시 방법을 구현하도록 구성된다.
도 2는 본 출원의 예시적인 실시예에 따른 MOBA 게임 가상 장면에서 제공되는 맵의 개략도이다. 이러한 맵(200)은 정사각형의 형상으로 있다. 맵(200)은 하부 좌측 삼각형 영역(220)과 상부 우측 삼각형 영역(240)으로 대각선으로 분할된다. 하부 좌측 삼각형 영역(220)의 하부 좌측 코너로부터 상부 우측 삼각형 영역(240)의 상부 우측 코너까지 3개의 통로들: 상단 통로(21), 중간 통로(22) 및 하단 통로(23)가 존재한다. 전투의 전형적인 라운드에서, 전투하기 위해 2개의 캠프들로 분할되는, 10개의 가상 캐릭터들이 필요하다. 제1 캠프에서의 5개의 가상 캐릭터들은 하부 좌측 삼각형 영역(220)을 점유하고, 제2 캠프에서의 5개의 가상 캐릭터들은 상부 우측의 삼각형 영역(240)을 점유한다. 제1 캠프에 대한 승리 조건은 제2 캠프에 대한 모든 요새들을 파괴하거나 또는 점유하는 것이고, 제2 캠프에 대한 승리 조건은 제1 캠프에 대한 모든 요새들을 파괴하거나 또는 점유하는 것이다.
예를 들어, 제1 캠프의 요새는 9개의 포탑들(24) 및 제1 기지(25)를 포함한다. 9개의 포탑들(24) 중, 상단 통로(21), 중간 통로(22), 및 하단 통로(23) 상에 각각 3개의 포탑들이 존재한다. 제1 기지(25)는 하부 좌측 삼각형 영역(220)의 하부 좌측 코너에 위치된다.
예를 들어, 제2 캠프의 요새는 9개의 포탑들(24) 및 제2 기지(26)를 포함한다. 9개의 포탑들(24) 중, 상단 통로(21), 중간 통로(22), 및 하단 통로(23) 상에 각각 3개의 포탑들이 존재한다. 제2 기지(26)는 상부 우측 삼각형 영역(220)의 상부 우측 코너에 위치된다.
도 2에서 점선이 위치되는 위치는 강 채널 영역이라고 지칭될 수 있다. 이러한 강 채널 영역은 제1 캠프와 제2 캠프의 공통 영역이며, 또한 하부 좌측 삼각형 영역(220)과 상부 우측 삼각형 영역(240) 사이의 경계 영역이다.
MOBA 게임은 가상 캐릭터들의 전투 능력들을 개선하기 위해 가상 캐릭터들에게 맵(200)에서 자원들을 획득하라고 요구한다. 이러한 자원들은 다음을 포함한다:
1. 크리프들이 상단 통로(21), 중간 통로(22), 및 하단 통로(23) 상에 주기적으로 나타난다. 크리프가 죽을 때, 근처의 가상 캐릭터는 경험치들 및 금화들을 획득한다.
2. 맵은 분할 라인들로서의 중간 통로(하부 좌측 코너로부터 상부 우측 코너까지의 대각선 라인) 및 강 채널 영역(상부 좌측 코너로부터 하부 우측 코너까지의 대각선 라인)에 의해 4개의 삼각형 영역들 A, B, C, D로 분할될 수 있다. 4개의 삼각형 영역들 A, B, C, D에서 몬스터들이 주기적으로 재생되며, 몬스터가 죽을 때, 근처의 가상 캐릭터는 경험치들, 금화들, BUFF 효과들을 획득한다.
3. 강 채널 영역에서의 2개의 대칭 위치들에서 큰 용(27) 및 작은 용(28)이 주기적으로 재생된다. 큰 용(27)과 작은 용(28)이 죽을 때, 킬러 파티 캠프에서의 각각의 가상 캐릭터는 경험치들, 금화들, 및 BUFF 효과들을 획득한다. 큰 용(27)은, "지배자(dominator)", "시저(Caesar)", 또는 다른 명칭들로 지칭될 수 있고, 작은 용(28)은 "폭군(tyrant)", "마법 용(magic dragon)" 또는 다른 명칭들로 지칭될 수 있다.
예에서, 강 채널의 상단 통로와 하단 통로 각각은, 게임의 30초에 나타나는, 금화 몬스터를 갖는다. 금화 몬스터가 죽은 후에, 근처의 가상 캐릭터는 금화들을 획득하고, 금화 몬스터는 70초 후에 재생된다.
영역 A에는, 적색 BUFF, 2마리의 정상 몬스터들(돼지 및 새), 및 폭군(작은 용)이 있다. 게임 30초에 적색 BUFF와 몬스터들이 나타나고, 정상 몬스터들은 죽으면 70초 후에 재생되며, 적색 BUFF는 죽으면 90초 후에 재생된다.
폭군은 게임 2분에 나타나며, 죽으면 3분 후에 재생된다. 킬러의 모든 팀원들은 폭군이 죽은 후 금화들 및 경험치들을 획득한다. 폭군은 9분 55초에 어두워지고, 어두운 폭군은 10분에 나타난다. 폭군의 복수(revenge) BUFF는 어두운 폭군을 죽이는 가상 캐릭터에 의해 획득된다.
영역 B에는 청색 BUFF 및 2마리의 정상 몬스터들(늑대와 새)이 있다. 청색 BUFF 또한 30초에 나타나며 죽으면 90초 후에 재생된다.
영역 C는 영역 B와 동일하고, 청색 BUFF 및 2개의 정상 몬스터들(늑대 및 새)을 갖는다. 유사하게, 청색 BUFF 또한 30초에 나타나며 죽으면 90초 후에 재생된다.
영역 D는 영역 A와 유사하며, 적색 BUFF 및 2마리의 정상 몬스터들(돼지 및 새)을 갖는다. 적색 BUFF는 출력 증가 및 감속을 위해 또한 사용된다. 지배자(큰 용) 또한 존재한다. 지배자는 게임 8분에 나타나고 죽으면 5분 후에 업데이트된다. 통로들 상의 지배자 BUFF, 속박 BUFF, 및 지배적 개척자들 (수동으로 소환되는 하늘 용들(뼈 용이라고 또한 지칭됨))은 지배자가 죽은 후에 획득될 수 있다.
예에서, BUFF는 다음과 같이 상세히 설명된다:
적색 BUFF는 70초 동안 지속되며, 공격으로 연속적인 화상들 및 감속을 운반한다.
청색 BUFF는 70초 동안 지속되고, 냉각 시간을 단축시킬 수 있고 매 초 마나를 추가적으로 회복하는 것을 도울 수 있다.
어두운 폭군 BUFF 및 속박 BUFF는 어두운 폭군이 죽은 후에 획득된다.
어두운 폭군 BUFF는 전체 팀에 대한 물리 공격들을 증가시키고(현재 공격의 80+5%), 90초 동안 전체 팀에 대한 마법 공격들을 증가시킨다(현재 마법 공격의 120+5%).
속박 BUFF는 지배자에 대한 출력을 50% 감소시키고, 가상 캐릭터가 죽을 때 속박 BUFF는 사라지지 않고 90초간 지속된다.
지배자 BUFF 및 속박 BUFF는 지배자를 죽이는 것에 의해 획득될 수 있다.
지배자는 전체 팀에 대한 생명 회복과 마나 회복을 초 당 1.5%만큼 개선하고 90초간 지속될 수 있다. 가상 캐릭터가 죽을 때 지배자 BUFF는 사라진다.
속박 BUFF는 어두운 폭군에 대한 출력을 50%만큼 감소시키며, 가상 캐릭터가 죽을 때 속박 BUFF는 사라지지 않고 90초간 지속된다.
지배자가 죽은 후 다음의 혜택들이 획득될 수 있다.
1. 모든 팀원은 100개의 금화들을 획득하고, 마스터 가상 캐릭터가 지배자와의 싸움에 참여했는지 여부에 관계없이, 마스터 가상 캐릭터는, 부활 CD에 있는 마스터 가상 캐릭터를 포함하는, 효과를 획득한다.
2. 지배자가 죽는 순간부터, 킬러 파티의 크리프들의 다음 3개의 웨이브들(3개의 통로들)이 지배적 개척자들(날으는 용들)로 대체된다. 지배적 개척자들은 매우 강하고 3개의 통로들에서 동시에 공격하며, 이는 상대방 팀에 큰 크리프 라인 압박을 가져온다. 상대방 팀은 3개의 통로들에서 방어할 필요가 있다. 지배적 개척자들의 경보가 맵에 도시되고, 이러한 경보 동안, 다가오는 지배적 개척자들의 웨이브들의 수(일반적으로 3개의 웨이브들)의 힌트가 존재할 것이다.
10개의 가상 캐릭터들의 전투 능력들은 2개의 부분들: 레벨 및 장비를 포함한다. 레벨은 누적된 경험치들을 사용하여 획득되고, 장비는 누적된 금화들을 사용하여 구매된다. 10개의 가상 캐릭터들은 서버에 의해 온라인으로 10개의 사용자 계정들을 매칭하는 것에 의해 획득될 수 있다. 예를 들어, 서버는 동일한 가상 세계에서 경쟁을 위해 온라인으로 2개, 6개, 또는 10개의 사용자 계정들을 매칭시킨다. 2개, 6개, 또는 10개의 가상 캐릭터들이 2개의 상대방 캠프들에 있다. 2개의 캠프들은 동일한 수량의 대응하는 가상 캐릭터들을 갖는다. 예를 들어, 각각의 캠프에는 5개의 가상 캐릭터들이 존재한다. 5개의 가상 캐릭터들의 타입들은 각각 전사 캐릭터, 암살자 캐릭터, 마법사 캐릭터, 지원(또는 고기 방패) 캐릭터, 및 궁수 캐릭터일 수 있다.
전투는 라운드로 개최될 수 있다. 전투의 상이한 라운드들에서, 동일한 맵 또는 상이한 맵들이 사용될 수 있다. 각각의 캠프는 하나 이상의 가상 캐릭터, 예를 들어, 1개의 가상 캐릭터들, 3개의 가상 캐릭터들, 또는 5개의 가상 캐릭터들을 포함한다.
일반적으로 캐릭터 통제 제어 및 스킬 통제 제어를 포함하는, 가상 장면에 미리 설정된 복수의 가상 제어들이 일반적으로 존재한다. 캐릭터 통제 제어는, 가상 캐릭터의 이동 방향, 이동 속도 등을 변경하는 것을 포함하여, 가상 장면에서 가상 캐릭터의 이동을 제어하도록 구성된다. 스킬 통제 제어는 가상 장면에서 스킬을 캐스팅하거나, 또는 스킬 캐스팅 방향을 조정하거나, 또는 가상 소도구을 소환하는 등을 하도록 가상 캐릭터를 제어하도록 구성된다.
선택적으로, 본 출원의 이러한 실시예에서의 소환 객체 통제 제어는 스킬 통제 제어들 중 하나이고, 가상 소환 객체를 제어하도록 구성된다. 가상 소환 객체는 가상 객체이고, 그 이동 경로는 가상 장면에서 제어될 수 있고, 소환 객체 통제 제어에 의해 트리거된다. 즉, 가상 장면에서 트리거된 후에, 가상 소환 객체는 가상 장면에서 특정 거리를 이동할 수 있다. 가상 소환 객체의 이동 프로세스 동안, 사용자는 가상 소환 객체의 이동 경로를 변경하기 위해 가상 소환 객체의 이동 방향을 조정할 수 있다.
가상 소환 객체를 사용하는 동안, 사용자가 가상 소환 객체의 이동 경로를 변경할 필요가 있으면, 사용자는, 가상 소환 객체의 이동 경로를 조정하기 위해, 가상 소환 객체가 편향될 필요가 있는 각도를 결정하기 위해 가상 소환 객체에 대응하는 시야각으로부터 가상 장면을 관찰할 필요가 있다. 또한, 사용자는 또한 가상 소환 객체를 사용하여 가상 캐릭터를 제어할 필요가 있을 수 있다. 따라서, 본 출원은 가상 캐릭터 및 가상 소도구를 동시에 제어할 수 있는 가상 객체 제어 방법을 제공한다. 도 3은 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다. 이러한 가상 객체 제어 방법은 단말(예를 들어, 전술하여 설명된 단말에서의 클라이언트)에 의해 수행될 수 있거나, 또는 서버에 의해 수행될 수 있거나, 또는 단말 및 서버에 의해 상호작용적으로 수행될 수 있다. 이러한 단말 및 서버는 도 1에 도시되는 시스템에서의 단말 및 서버일 수 있다. 도 3에 도시되는 바와 같이, 이러한 가상 객체 제어 방법은 다음의 단계들 310 내지 330을 포함한다:
단계 310: 가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이함.
선택적으로, 제1 장면 화상은 가상 장면에서의 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함한다. 일부 실시예들에서, 제1 장면 화상은 가상 장면에서의 가상 캐릭터에 대응하는 소환 객체가 존재하는 경우에 디스플레이되고, 가상 소환 객체는 제1 장면 화상에 디스플레이된다. 선택적으로, 가상 소환 객체에 대응하는 시야각은 가상 소환 객체에 초점을 맞추고, 가상 소환 객체가 관찰될 수 있는 시야각이다. 선택적으로, 가상 소환 객체에 대응하는 시야각은 가상 소환 객체의 위 또는 비스듬한 위로부터 가상 소환 객체를 관찰하는 시야각이다.
본 출원의 이러한 실시예에서, 제어가능 가상 객체들은 가상 장면에서의 이동가능 가상 캐릭터, 및 가상 장면에서의 제어가능 가상 소환 객체를 포함할 수 있다.
선택적으로, 소환 객체 통제 제어는 가상 소환 객체를 소환 및 제어하도록 구성될 수 있고, 소환 객체 통제 제어는 가상 장면 인터페이스에서의 스킬 통제 제어들 중 하나이다. 캐릭터 통제 제어는 가상 장면에서 대응하는 행동 액션을 수행하도록, 예를 들어, 스킬을 이동 또는 캐스팅하도록 가상 캐릭터를 제어하도록 구성된다.
도 4는 본 출원의 예시적인 실시예에 따른 제1 장면 화상의 개략도이다. 도 4에 도시되는 바와 같이, 제1 장면 화상(400)은 소환 객체 통제 제어(410) 및 캐릭터 통제 제어(420)를 포함한다. 소환 객체 통제 제어(410)는 가상 소환 객체를 제어하도록 구성되고, 캐릭터 통제 제어(420)는 스킬을 이동 또는 캐스팅하도록 가상 캐릭터를 제어하도록 구성된다.
일부 실시예들에서, 가상 장면에서의 가상 캐릭터에 의해 캐스팅되는 스킬들의 타입들은 가상 소환 객체에 기초하여 작용하는 제1 스킬 및 가상 소환 객체에 기초하지 않고 작용하는 제2 스킬로 분할될 수 있다. 예를 들어, 제1 스킬은, 가상 화살을 소환하고 가상 미사일을 소환하는 것과 같이, 가상 소도구를 소환할 필요가 있는 스킬일 수 있다. 제2 스킬은, Sprint, Anger, 및 Daze와 같은, 가상 소도구를 소환하지 않는 스킬일 수 있다.
제1 스킬 및 제2 스킬의 전술한 설명에 기초하여, 스킬 통제 제어들의 기능들은 다음을 포함할 수 있다:
1. 제1 스킬 통제 제어에 기초하는 터치 동작에 응답하여 가상 환경에서 가상 캐릭터의 대면 방향으로 제2 스킬을 캐스팅함.
2. 제2 스킬 통제 제어에 기초하는 터치 동작에 응답하여 스킬 캐스팅 방향을 조정하여, 결정된 캐스팅 방향으로 제2 스킬을 캐스팅함. 선택적으로, 결정된 캐스팅 방향은 스킬 캐스팅 방향이 조정된 후의 방향이다.
3. 제3 스킬 통제 제어에 기초하는 터치 동작에 응답하여 제1 스킬을 트리거하여, 가상 장면에서 가상 소환 객체를 디스플레이하고, 조정 후에 가상 캐릭터의 대면 방향 또는 스킬 캐스팅 방향으로 가상 소환 객체를 캐스팅 및 제어함.
본 출원의 이러한 실시예에서의 소환 객체 통제 제어가 스킬 통제 제어에 속할 때, 소환 객체 통제 제어는 제3 스킬 통제 제어일 수 있다.
단계 320: 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이함.
가능한 구현에서, 가상 소환 객체에 대응하는 시야각은, 제1 장면 화상을 변경하기 위해, 가상 소환 객체의 배향에 따라 조정될 수 있다. 가상 소환 객체에 대응하는 시야각에 대한 조정은 가상 소환 객체에 대응하는 시야각을 상승 또는 하강시키는 것, 또는 시야각을 좌우로 조정하는 것을 포함할 수 있다.
단계 330: 동작 정보에 기초하여 그리고 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여 가상 장면에서의 가상 소환 객체의 이동 프로세스를 디스플레이하는 경우, 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이함.
즉, 가상 장면에 가상 소환 객체가 존재하고, 사용자가 가상 소환 객체를 제어할 때, 사용자는, 동일한 가상 장면에서의 복수의 가상 객체들을 동시에 제어하기 위해, 가상 장면에서의 가상 캐릭터를 동시에 제어할 수 있다.
결론적으로, 본 출원의 이러한 실시예에서 제공되는 가상 객체 제어 방법에 따르면, 소환 객체 통제 제어를 사용하여 가상 장면에서 이동하도록 가상 소환 객체를 제어할 때, 캐릭터 통제 제어를 사용하여 가상 장면에서의 가상 캐릭터의 행동 액션이 제어될 수 있다. 따라서, 복수의 가상 객체들은 추가적인 전환 동작 없이 동시에 가상 장면에서 제어될 수 있어, 가상 객체에 대한 제어 효율을 개선한다.
또한, 가상 장면에서의 복수의 가상 객체들은 동시에 제어될 수 있고, 따라서 인간-머신 상호작용 효율이 개선되고, 단말의 처리 자원들 및 전력 자원들의 낭비가 추가로 감소된다.
본 출원의 이러한 실시예에서, 소환 객체 통제 제어는 가상 소환 객체를 소환하고 가상 소환 객체를 제어하는 기능들을 가질 수 있다. 소환 객체 통제 제어의 전술한 기능들에 기초하여, 본 출원의 예시적인 실시예는 가상 객체 제어 방법을 제공한다. 도 5는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다. 이러한 가상 객체 제어 방법은 단말(예를 들어, 전술하여 설명된 단말에서의 클라이언트)에 의해 수행될 수 있거나, 또는 서버에 의해 수행될 수 있거나, 또는 단말 및 서버에 의해 상호작용적으로 수행될 수 있다. 이러한 단말 및 서버는 도 1에 도시되는 시스템에서의 단말 및 서버일 수 있다. 도 5에 도시되는 바와 같이, 이러한 가상 객체 제어 방법은 다음의 단계들 510 내지 550을 포함한다:
단계 510: 가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제2 장면 화상을 디스플레이함.
일부 실시예들에서, 제2 장면 화상은 가상 캐릭터에 대응하는 시야각으로부터 관찰된 가상 장면의 화상이다. 제2 장면 화상은 가상 장면에서의 가상 캐릭터에 대응하는 가상 소환 객체가 존재하지 않는 경우에(즉, 가상 소환 객체가 가상 장면으로부터 사라진 후에) 가상 장면 인터페이스에서 디스플레이되고, 가상 캐릭터가 제2 장면 화상에 디스플레이된다. 가상 소환 객체에 대응하는 시야각 및 가상 캐릭터에 대응하는 시야각은 2개의 상이한 시야각들이다. 선택적으로, 가상 캐릭터에 대응하는 시야각은 가상 캐릭터에 초점을 맞추고 가상 캐릭터가 관찰될 수 있는 시야각이다. 선택적으로, 가상 캐릭터에 대응하는 시야각은 가상 캐릭터를 가상 캐릭터의 위로부터 또는 대각선으로 관찰하는 시야각이다.
제1 장면 화상 및 제2 장면 화상은 상이한 시야각들로부터 동일한 가상 장면을 관찰하는 것에 의해 획득되는 화상들일 수 있다. 도 4에 도시되는 바와 같이, 가상 장면 인터페이스(400)에서의 장면 화상은 제1 장면 화상이고, 가상 소환 객체(430)의 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 화상이다. 제1 장면 화상은 가상 장면에서의 가상 소환 객체의 이동과 함께 변경된다. 도 6은 본 출원의 예시적인 실시예에 따른 제2 장면 화상의 개략도이다. 도 6에 도시되는 바와 같이, 가상 장면 인터페이스(600)에서의 장면 화상은 가상 캐릭터(640)의 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 화상이다. 제2 장면 화상은 가상 장면에서의 가상 캐릭터의 이동과 함께 변경된다.
가상 장면 인터페이스에서의 가상 제어는, 예를 들어, 돌아가도록 가상 캐릭터를 제어하기 위해 가상 제어를 회전시키는 것에 의해, 매핑을 통해 가상 캐릭터를 제어할 수 있다. 가상 캐릭터의 배향 및 가상 제어의 휠의 배향은 매핑 관계를 갖는다. 도 6에 도시되는 바와 같이, 가상 제어는 소환 객체 통제 제어(610) 및 캐릭터 통제 제어(620)를 포함한다. 소환 객체 통제 제어의 휠의 배향은 가상 소환 객체(630)의 배향을 표시하고, 캐릭터 통제 제어의 휠의 배향은 가상 캐릭터(640)의 배향을 표시한다. 사용자가 가상 제어에 기초하여 회전 동작을 수행하여 가상 캐릭터의 배향을 변경할 때, 가상 장면에서의 가상 캐릭터의 배향은 가상 제어의 것과 일치하는 방식으로 변경된다. 도 6에 도시되는 바와 같이, 소환 객체 통제 제어(610)의 배향은 상부 우측 방향이고, 가상 소환 객체(630)의 배향 또한 상부 우측 방향이다. 캐릭터 통제 제어(620)의 휠의 배향은 상부 우측 방향이고, 가상 캐릭터(640)의 배향 또한 상부 우측 방향이다. 캐릭터 통제 제어(620)의 휠의 배향이 상부 우측 방향으로부터 우측 방향으로 시계 방향으로 회전하면, 가상 캐릭터(640)의 배향 또한 상부 우측 방향으로부터 우측 방향으로 시계 방향으로 회전한다. 소환 객체 통제 제어(610)의 휠의 배향이 상부 우측 방향으로부터 상부 방향으로 반시계 방향으로 회전하면, 가상 소환 객체(630)의 배향 또한 상부 우측 방향으로부터 상부 방향으로 반시계 방향으로 회전한다.
단계 520: 소환 객체 통제 제어에 대한 제3 터치 동작을 수신하는 것에 응답하여, 가상 장면에서 가상 소환 객체를 소환하도록 가상 캐릭터를 제어함.
가능한 구현에서, 가상 소환 객체는 소환 객체 통제 제어에 대응하는 스킬을 통해 가상 캐릭터에 의해 소환되는 가상 객체일 수 있다.
다른 가능한 구현에서, 가상 소환 객체는 대안적으로 가상 환경에서의 몬스터일 수 있고, 예를 들어, 가상 캐릭터는 특수 스킬을 사용하여 몬스터를 가상 소환 객체로 변환할 수 있다. 대안적으로, 가상 소환 객체는 또한 가상 환경에서 적용되는 가상 소도구일 수 있고, 예를 들어, 가상 캐릭터가 가상 소도구를 터치할 때, 가상 소도구는 가상 소환 객체로 변환될 수 있다.
가상 소환 객체가 가상 환경에서의 몬스터일 때, 제3 터치 동작은 사용자가 몬스터를 선택한 후에 소환 객체 통제 제어를 클릭하는 동작일 수 있다.
본 출원의 이러한 실시예에서, 가상 소환 객체가 소환 객체 통제 제어에 대응하는 스킬을 사용하여 소환되는 가상 객체인 예가 본 출원을 설명하기 위해 사용된다.
가능한 경우에, 제3 터치 동작은 소환 객체 통제 제어를 클릭하는 동작일 수 있다. 대안적으로, 제3 터치 동작은 소환 객체 통제 제어의 범위 내의 제1 영역으로부터 시작하여 소환 객체 통제 제어의 범위 내의 제2 영역에서 종료하는 터치 동작이고, 이러한 터치 동작의 시작 프로세스 및 종료 프로세스 양자 모두는 소환 객체 통제 제어의 범위를 넘지 않는다. 즉, 소환 객체 통제 제어를 사용하여 가상 소환 객체의 초기 캐스팅 방향을 확인한 후에, 가상 소환 객체는 결정된 초기 캐스팅 방향으로 캐스팅된다.
단계 530: 소환 객체 통제 제어에 대한 제4 터치 동작을 수신하는 것에 응답하여, 가상 장면 인터페이스에서의 장면 화상을 디스플레이하기 위해 제2 장면 화상으로부터 제1 장면 화상으로 전환함.
제4 터치 동작은 제3 터치 동작 후에 수행된다.
가능한 구현에서, 소환 객체 통제 제어에 기초하여 제3 터치 동작을 수신하고 제3 터치 동작에 응답하여 가상 장면에서 가상 소환 객체를 소환하도록 가상 캐릭터를 제어한 후에, 소환 객체 통제 제어의 기능이 변경될 수 있다. 즉, 제3 터치 동작이 수신되기 전에, 소환 객체 통제 제어의 기능은 가상 소환 객체를 소환하는 것일 수 있고, 제3 터치 동작이 수신된 후에, 소환 객체 통제 제어의 기능은 가상 소환 객체를 제어하는 기능으로 전환될 수 있다. 이러한 경우, 가상 소환 객체는 소환 객체 통제 제어에 기초하는 제4 터치 동작을 수신하는 것에 응답하여 가상 장면에서 이동하도록 제어된다. 또한, 가상 장면 인터페이스에서의 장면 화상은 가상 캐릭터에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제2 장면 화상으로부터 가상 소환 객체에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제1 장면 화상으로 전환된다.
가능한 구현에서, 제4 터치 동작은 소환 객체 통제 제어의 범위에서 특정 영역에 기초하여 수행되는 미리 설정된 값보다 더 길게 지속되는 누름 동작일 수 있다.
가능한 구현에서, 제2 장면 화상으로부터 제1 장면 화상으로 전환하는 프로세스에서, 전이 화상이 제공될 수 있다. 이러한 전이 화상은 관찰 시야각의 변경을 표현하도록 구성되고, 이러한 전이는 매끄러운 전이일 수 있다.
사용자가 가상 객체에 대한 충분한 사전 판단 공간 및 시야를 갖는 것을 보장하기 위해, 가상 장면 인터페이스를 디스플레이할 때, 가상 객체는 가상 장면의 하부 좌측 코너에 일반적으로 위치된다. 따라서, 가상 장면을 관찰하는 시야각이 가상 캐릭터에 대응하는 시야각으로부터 가상 소환 객체에 대응하는 시야각으로 전환될 때, 3D 가상 공간의 렌즈가 조정된다. 이러한 렌즈는 특정 각도로 자동으로 상승하고, 이러한 렌즈의 앵커 지점은 가상 소환 객체 전에 배치되어, 가상 소환 객체는 가상 장면의 하부 좌측 코너(예를 들어, 하부 좌측 영역)에 위치된다.
가능한 구현에서, 제2 장면 화상의 썸네일 화상은 제1 장면 화상의 상위 레이어 상에 중첩되어 디스플레이되고, 이러한 썸네일 화상의 크기는 제1 장면 화상의 크기 미만이다.
본 출원의 이러한 실시예에서, 제2 장면 화상의 썸네일 화상은 플로팅 윈도우 방식으로 제1 장면 화상의 상위 레이어 상에 디스플레이된다. 즉, 동일한 단말 사용자에 대해, 제1 장면 화상 및 제2 장면 화상 양자 모두가 단말 인터페이스에서 보여질 수 있다. 제2 장면 화상의 썸네일 화상은 제2 장면 화상을 동일한 비율로 축소하는 것에 의해 형성되는 화상이고, 제2 장면 화상의 화상 콘텐츠 또한 사용자의 동작들에 따라 변경된다.
선택적으로, 제2 장면 화상의 썸네일 화상은 제2 장면 화상에서의 모든 화상 영역들의 썸네일 화상일 수 있다. 대안적으로, 제2 장면 화상의 썸네일 화상은 또한 가상 캐릭터가 제2 장면 화상에 위치되는 화상 영역들의 일부의 썸네일 화상일 수 있다. 이러한 경우, 제2 장면 화상의 썸네일 화상에서 제시되는 가상 장면 범위는 제2 장면 화상에서 제시되는 가상 장면 범위 미만이다.
가능한 구현에서, 제2 장면 화상의 디스플레이 영역은 미리 설정된 고정 영역일 수 있거나, 또는 제1 장면 화상에서의 임의의 위치에 위치될 수 있다. 제2 장면 화상의 디스플레이 영역이 제1 장면 화상에서의 임의의 위치에 위치될 수 있을 때, 사용자는 제2 장면 화상의 디스플레이 영역과의 상호작용 동작을 사용하여 제2 장면 화상의 디스플레이 영역의 위치를 변경할 수 있다.
제2 장면 화상의 디스플레이 영역이 제1 장면 화상의 상부 좌측 코너에 위치되는 예가 본 출원을 설명하기 위해 본 출원의 이러한 실시예에서 사용된다. 도 4에 도시되는 바와 같이, 제2 장면 화상(430)은 제1 장면 화상(400)의 좌측 상부 코너에 제시된다.
가능한 구현에서, 제2 장면 화상의 투과율은 제2 장면 화상이 제1 장면 화상에 중첩되어 디스플레이될 때 미리 설정될 수 있다. 대안적으로, 투과율 조정 제어가 가상 장면 인터페이스에서 설정될 수 있다. 이러한 투과율 조정 제어는 사용자의 터치 동작을 수신하는 것에 의해 제2 장면 화상의 투과율을 조정할 수 있다. 예를 들어, 제2 장면 화상이 제1 장면 화상의 상위 레이어 상에 중첩되어 디스플레이될 때, 제2 장면 화상의 투과율은 0%이다. 사용자는 제2 장면 화상의 투과율을 증가시키기 위해 투과율 조정 제어를 위로 이동시킬 수 있다. 따라서, 제2 장면 화상을 볼 때 완전한 제1 장면 화상이 제시될 수 있다. 대안적으로, 제2 장면 화상의 투과율을 감소시키기 위해 투과율 조정 제어는 아래로 이동된다.
가능한 구현에서, 제2 장면 화상의 디스플레이 영역이 제1 장면 화상의 디스플레이 영역 미만인 것에 기초하여, 제2 장면 화상의 디스플레이 영역의 크기가 조정될 수 있다. 선택적으로, 이러한 디스플레이 영역의 크기는 디스플레이 영역의 치수를 지칭한다.
가능한 경우에, 제2 장면 화상의 디스플레이 영역이 제1 장면 화상 상에 중첩될 때, 제2 장면 화상의 디스플레이 영역의 크기는 미리 설정된 값이고, 사용자는, 사용자의 요건들에 따라, 제2 장면 화상의 디스플레이 영역에 의해 점유되는 제1 장면 화상의 디스플레이 영역의 크기를 조정할 수 있다. 예를 들어, 제2 장면 화상의 디스플레이 영역이 제1 장면 화상 상에 중첩될 때, 제2 장면 화상의 디스플레이 영역은 제1 장면 화상의 디스플레이 영역의 1/4이다. 사용자는 미리 설정된 제스처를 사용하여 제2 장면 화상의 디스플레이 영역의 크기를 축소 또는 확대할 수 있다. 미리 설정된 제스처는 2개의 손가락들이 제2 장면 화상을 터치하고 서로를 향해 또는 서로로부터 멀리 슬라이딩하는 것일 수 있다.
제2 장면 화상의 디스플레이 영역의 투과율 및 크기에 대한 조정 방법은 단지 예이고, 제2 장면 화상의 디스플레이 영역의 투과율 및 크기에 대한 조정 방법은 본 출원에서 제한되는 것은 아니다.
단계 540: 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이함.
가능한 구현에서, 제1 터치 동작은 제4 터치 동작에 의해 작용되는 제1 영역으로부터 시작하여 소환 객체 통제 제어의 범위 내의 제2 영역에서 종료하는 터치 동작일 수 있고, 이러한 터치 동작의 시작 프로세스 및 종료 프로세스 양자 모두는 소환 객체 통제 제어의 범위를 넘지 않는다. 즉, 가상 장면에서의 가상 소환 객체의 이동 방향은 가상 소환 객체의 이동 경로를 조정하기 위해, 소환 객체 통제 제어를 사용하여 변경된다.
가능한 구현에서, 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이하는 단계는, 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 초기 방향에 상대적인 가상 소환 객체의 오프셋 각도를 획득하는 단계; 및 오프셋 각도에 따라 가상 장면에서 가상 소환 객체의 이동 방향을 제어하는 단계를 포함한다.
가능한 구현에서, 이러한 동작 정보는 상대적 방향을 포함하고, 이러한 상대적 방향은 소환 객체 통제 제어의 중심 위치에 상대적인 제1 터치 동작의 동작 위치의 방향이다.
소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 초기 방향에 상대적인 가상 소환 객체의 오프셋 각도를 획득하는 단계는,
상대적 방향에 기초하여 초기 방향에 상대적인 가상 소환 객체의 타깃 오프셋 각도를 결정하는 단계;
타깃 오프셋 각도가 편향가능 각도 범위 내에 있는 경우에 타깃 오프셋 각도를 오프셋 각도로서 획득하는 단계;
타깃 오프셋 각도가 편향가능 각도 범위의 각도 상한 초과인 경우에, 각도 상한을 오프셋 각도로서 획득하는 단계; 및
타깃 오프셋 각도가 편향가능 각도 범위의 각도 하한 미만인 경우에, 각도 하한을 오프셋 각도로서 획득하는 단계를 포함한다.
가능한 구현에서, 가상 소환 객체에 대응하는 각도 표시자 패턴이 제1 장면 화상에서 제시되고, 이러한 각도 표시자 패턴은 편향가능 각도 범위를 표시하기 위해 사용된다. 도 7은 본 출원의 예시적인 실시예에 따른 제1 장면 화상에서의 각도 표시자 패턴의 개략도이다. 도 7에 도시되는 바와 같이, 각도 표시자 패턴(710)이 제1 장면 화상(700)에서 제시되고, 이러한 각도 표시자 패턴은 가상 장면에서 가상 소환 객체(720)의 편향가능 각도 범위를 표시할 수 있다. 도 7에 도시되는 바와 같이, 각도 표시자 패턴은 호-형상(arc-shaped)일 수 있고, 가상 소환 객체의 초기 방향을 중심으로서 사용하여, 이러한 중심의 양측에 있는 2개의 편향가능 각도 서브 범위들이 동일할 수 있다.
가능한 구현에서, 각도 표시자 식별자가 제1 장면 화상에서 제시되고, 이러한 각도 표시자 식별자는 제1 장면 화상에서 가상 소환 객체의 이동 방향을 표시하기 위해 사용된다. 도 7에 도시되는 바와 같이, 제1 장면 화상은 각도 표시자 식별자(730)를 포함한다. 각도 표시자 식별자의 표시된 방향은 가상 소환 객체의 이동 궤적 방향과 일치하고, 각도 표시자 식별자의 이동 범위는 각도 표시자 패턴에 의해 표시되는 가상 소환 객체의 편향가능 각도 범위와 일치한다.
가상 소환 객체의 배향을 제어하기 위한 소환 객체 통제 제어를 위한 로직은 다음과 같이 구현될 수 있다:
가상 소환 객체의 현재 배향이 소환 객체 통제 제어의 휠 배향과 동일하면, 가상 소환 객체의 배향은 변경되지 않고;
가상 소환 객체의 현재 배향이 소환 객체 통제 제어의 휠 배향와 상이하고, 가상 소환 객체의 현재 오프셋 각도가 각도 표시자에 의해 표시되는 최대 오프셋 각도에 도달하지 않으면, 가상 소환 객체의 배향이 소환 객체 통제 제어의 휠 배향와 동일한 방향으로 변경되고;
가상 소환 객체의 현재 배향이 소환 객체 통제 제어의 휠 배향과 상이하고, 가상 소환 객체의 현재 오프셋 각도가 각도 표시자에 의해 표시되는 최대 오프셋 각도에 도달한다는 것에 응답하여, 가상 소환 객체의 배향은 변경되지 않고, 가상 소환 객체의 현재 오프셋 각도는 각도 표시자에 의해 표시되는 최대 오프셋 각도로 유지된다. 가상 소환 객체의 현재 오프셋 각도가 각도 표시자에 의해 표시되는 최대 오프셋 각도에 도달한다는 것은 가상 소환 객체의 현재 오프셋 각도가 각도 표시자에 의해 표시되는 최대 오프셋 각도와 동일하거나, 또는 가상 소환 객체의 현재 오프셋 각도가 각도 표시자에 의해 표시되는 최대 오프셋 각도를 초과한다는 것을 의미한다.
가상 소환 객체는 중심 위치에 상대적인 (시계 방향 및 반시계 방향, 및 좌측으로 오프셋되는 방향 또는 우측으로 오프셋되는 방향과 같은) 2개의 오프셋 방향들을 갖기 때문에, 가상 소환 객체의 현재 배향에 의해 도달되는 각도 표시자에 의해 표시되는 최대 오프셋 각도에 대응하는 방향이 소환 객체 통제 제어의 휠 배향의 방향과 동일한지는 다음의 방식들로 결정된다:
가상 소환 객체의 초기 배향 및 현재 배향, 및 소환 객체 통제 제어의 휠 배향을 획득함;
가상 소환 객체의 초기 배향과 현재 배향의 외적을 계산하여, 계산 결과의 Y-축의 배향의 부호 심볼 S1을 획득함:
S1=Mathf.Sign(Vector3.Cross(bulletDir, initDir).y);
여기서, bulletDir은 가상 소환 객체의 현재 방향을 표현하고, initDir은 가상 소환 객체의 초기 방향을 표현하고, Mathf.Sign은 f를 반환하기 위해 사용되는 심볼임, 즉, f가 양 또는 0일 때, 1이 반환되고, f가 음일 때, -1이 반환됨; 및
가상 소환 객체의 현재 배향과 소환 객체 통제 제어의 휠 배향의 외적을 계산하여, 계산 결과의 Y-축의 배향의 부호 심볼 (S2)을 획득함:
S2=Mathf.Sign(Vector3.Cross(bulletDir, targetDir).y);
여기서 targetDir은 소환 객체 통제 제어의 휠 배향을 표현함.
S1=S2이고, 현재 오프셋 각도가 최대 오프셋 각도에 도달하면, 이것은 가상 소환 객체의 최대 편향 각도의 배향이 소환 객체 통제 제어의 휠 배향과 동일하고, 가상 소환 객체의 배향이 변경되지 않는다는 점을 표시하고; 그렇지 않으면, 가상 소환 객체는 S2의 결과에 따라 좌측 또는 우측으로의 각도 편향을 수행하도록 제어된다. 예를 들어, 가상 소환 객체의 현재 배향이 각도 표시자의 좌측에서 최대 오프셋 각도에 도달할 때, 소환 객체 통제 제어의 휠 배향이 가상 소환 객체가 좌측 사이드로 편향되는 것을 표시하면, S1=S2이고, 가상 소환 객체의 배향은 변경되지 않는다. 소환 객체 통제 제어의 휠 배향이 가상 소환 객체가 우측으로 편향되는 것을 표시하면, S1≠S2이고, 가상 소환 객체의 배향은 우측으로 편향된다.
가능한 구현에서, 가상 소환 객체의 편향 각도는 미리 구성된 편향 속도에 따라 편향되고, 가상 소환 객체의 최대 편향 각도는 소환 객체 통제 제어의 휠 배향 및 각도 표시자의 최대 오프셋 각도에 의해 표시되는 각도를 초과할 수 없다, 즉:
turnAngle=Mathf.min(turnSpeed*deltaTime, targetAngle);
여기서 turnAngle는 가상 소환 객체의 오프셋 각도를 표현하고, turnSpeed는 미리 구성된 편향 속도를 표현하며, deltaTime는 소환 객체 통제 제어에 기초하는 터치 동작의 지속시간을 표현하고, targetAngle는 각도 표시자에 의해 표시되는 최대 오프셋 각도를 표현한다.
가능한 구현에서, 제1 장면 화상에서의 각도 표시자의 배향은 가상 소환 객체의 현재 편향된 각도에 따라 조정될 수 있고, 각도 표시자는 호-형상일 수 있다. 각도 표시자의 편향된 각도를 계산하기 위한 로직은 다음과 같다:
indDir=Quaternion.AngleAxis((Ca/Ma)*(Ha/2), Vector3.up)* bulletDir;
여기서, indDir은 각도 표시자의 편향된 각도를 표현하고, Ca는 가상 소환 객체의 현재 편향된 각도를 표현하며, Ma는 각도 표시자에 의해 표시되는 최대 오프셋 각도를 표현하고, Ha는 각도 표시자의 아치-형상 각도의 절반을 표현한다.
단계 550: 동작 정보에 기초하여 그리고 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여 가상 장면에서의 가상 소환 객체의 이동 프로세스에서, 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이함.
가능한 구현에서, 소환 객체 통제 제어에 기초하여 수행되는 제4 터치 동작이 수신된 후 및 캐릭터 통제 제어에 기초하여 수행되는 터치 동작이 수신된 후, 가상 캐릭터는 제2 장면 화상에서 제시되는 가상 환경의 일부에서 이동하도록 제어되고, 가상 소환 객체는 제1 장면 화상에서 제시되는 가상 환경의 일부에서 동시에 이동하도록 제어된다. 즉, 사용자는 가상 캐릭터 및 가상 소환 객체를 동시에 제어할 수 있고, 상이한 가상 장면 화상들을 사용하여 가상 캐릭터 및 가상 소환 객체를 디스플레이할 수 있어서, 사용자는 가상 캐릭터 및 가상 소환 객체를 동시에 관찰할 수 있고, 가상 캐릭터 및 가상 소환 객체의 이동들을 동시에 예측하고 동작할 수 있어서, 사용자의 관찰가능한 범위를 증가시키고 사용자 제어의 정확도를 개선한다.
가능한 구현에서, 가상 장면 인터페이스에서 제1 장면 화상이 제시되고, 제2 장면 화상의 썸네일 화상이 제1 장면 화상의 상위 레이어 상에 중첩되어 디스플레이된 후에, 제1 장면 화상 및 제2 장면 화상의 디스플레이 위치들은 화상 전환 동작을 수신하는 것에 응답하여 전환될 수 있다, 즉, 제1 장면 화상의 썸네일 화상은 제2 장면 화상의 상위 레이어 상에 중첩되어 디스플레이된다. 선택적으로, 제1 장면 화상 및 제2 장면 화상의 디스플레이 위치들을 전환하는 것은 제1 장면 화상의 디스플레이 위치 및 제2 장면 화상의 디스플레이 위치를 교환하는 것을 지칭한다. 도 8은 본 출원의 예시적인 실시예에 따른 가상 장면 인터페이스의 개략도이다. 도 8에 도시되는 바와 같이, 제2 장면 화상의 썸네일 화상(810)이 제1 장면 화상(800)에서 디스플레이된다. 가능한 경우에, 화상 전환 제어(820)가 가상 장면 인터페이스에서 디스플레이될 수 있고, 제1 장면 화상 및 제2 장면 화상은 화상 전환 제어(820)에 기초하는 전환 동작을 수신하는 것에 응답하여 전환될 수 있다. 대안적으로, 다른 가능한 경우에, 화상 전환 동작은, 제2 장면 화상의 드래그 동작에 기초하여 제2 장면 화상을 제1 장면 화상의 디스플레이 영역으로 드래그하여, 제1 장면 화상과 제2 장면 화상을 전환하는 것으로서; 또는 제1 장면 화상의 드래그 동작에 기초하여 제1 장면 화상을 제2 장면 화상의 썸네일 화상의 디스플레이 영역으로 드래그하여, 제1 장면 화상과 제2 장면 화상을 전환하는 것으로서 표현될 수 있다.
가능한 구현에서, 가상 장면 인터페이스는 제2 장면 화상으로 복원될 수 있다.
화상 복원 조건이 충족되는 것에 응답하여 가상 장면 인터페이스에서 제2 장면 화상이 복원되고 디스플레이된다.
이러한 화상 복원 조건은,
가상 장면 인터페이스에서 통제 해제 제어에 대한 트리거 동작이 수신되는 것;
가상 소환 객체에 대응하는 트리거된 효과가 트리거되는 것; 또는
가상 소환 객체가 소환된 후의 지속시간이 미리 설정된 유효 지속시간에 도달하는 것을 포함한다.
즉, 가상 장면 인터페이스는 다음의 경우들에서 제2 장면 화상으로 복원될 수 있다:
1. 가상 장면 인터페이스에서 통제 해제 제어가 제시되고, 통제 해제 제어에 대해 수행된 터치 동작을 수신하는 것에 응답하여 제1 장면 화상이 닫히고, 가상 장면 인터페이스가 제2 장면 화상으로 복원됨. 도 9는 본 출원의 예시적인 실시예에 따른 제1 장면 화상의 개략도이다. 도 9에 도시되는 바와 같이, 가상 장면 인터페이스(900)는 통제 해제 제어(910)를 포함하고, 이러한 통제 해제 제어(910)는 가상 소환 객체에 대한 제어를 해제하도록 구성된다. 사용자가 통제 해제 제어(910)에 대한 터치 동작을 수행할 때, 가상 소환 객체에 대한 제어가 해제될 수 있고, 가상 소환 객체에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제1 장면 화상이 동시에 닫힌다.
2. 가상 소환 객체가 대응하는 트리거된 효과를 갖고, 가상 소환 객체가 대응하는 트리거된 효과를 플레이하는 것에 응답하여 제1 장면 화상이 닫힌다, 즉, 가상 소환 객체의 트리거된 효과는 무효이고, 가상 장면 인터페이스는 제2 장면 화상으로 복원됨.
3. 가상 소환 객체는 소환된 후에 미리 설정된 유효 지속시간을 갖고, 가상 소환 객체의 미리 설정된 유효 지속시간이 종료되는 것에 응답하여 제1 장면 화상이 닫히고, 가상 장면 인터페이스는 제2 장면 화상으로 복원됨.
가능한 구현에서, 가상 장면 인터페이스에서 제1 장면 화상이 제시되고, 제2 장면 화상의 썸네일 화상이 중첩되어 제1 장면 화상의 상위 레이어 상에 디스플레이된 후에, 제2 장면 화상에 기초하는 지정된 동작을 수신하는 것에 응답하여 제2 장면 화상이 닫힌다. 도 10은 본 출원의 예시적인 실시예에 따라 제2 장면 화상이 제1 장면 화상의 상위 레이어 상에 중첩되어 디스플레이되는 개략도이다. 도 10에 도시되는 바와 같이, 가상 장면 화상 닫음 제어(1010)가 제2 장면 화상(1000)에서 제시될 수 있고, 사용자는 닫음 제어에 대한 터치 동작을 사용하여 제2 장면 화상을 닫을 수 있다. 대안적으로, 화상 닫음 동작은 미리 설정될 수 있고, 화상 닫음 동작은 제2 장면 화상의 미리 설정된 영역을 클릭하는 것, 또는 제2 장면 화상에 기초하여 더블-클릭 동작, 트리플-클릭 동작 등을 수행하는 것일 수 있다.
가능한 경우에, 가상 장면에서 미니맵이 디스플레이될 수 있고, 이러한 미니맵에서 가상 소환 객체의 이동 경로가 디스플레이될 수 있다. 도 11은 본 출원의 예시적인 실시예에 따른 가상 장면 인터페이스의 개략도이다. 도 11에 도시되는 바와 같이, 가상 소환 객체가 제1 가상 화상에서 가상 장면에서 이동하고 있다는 것을 디스플레이할 때, 가상 소환 객체(1110)의 이동 궤적은 실시간으로 미니맵(1120)에 매핑될 수 있어서, 사용자는 전체로서 가상 소환 객체의 이동 경로를 관찰하고, 가상 소환 객체의 이동 경로를 더 포괄적으로 결정할 수 있다.
결론적으로, 본 출원의 실시예들에서 제공되는 가상 장면에서의 가상 객체 제어 방법에 따르면, 이동 경로가 가상 장면에서 제어될 수 있는 가상 소환 객체를 제어하는 경우에, 가상 캐릭터에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제2 장면 화상 및 가상 소환 객체에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제1 장면 화상이 가상 장면에서 개별적으로 디스플레이되어, 사용자는 가상 캐릭터 및 가상 소환 객체를 동시에 제어할 때 상이한 디스플레이 영역들에 있는 제어 객체를 관찰할 수 있다. 따라서, 가상 장면에서의 복수의 가상 객체들이 동시에 제어될 수 있어서, 제어 객체를 변경하기 위한 전환 동작이 감소되고, 가상 객체를 제어하기 위한 인간-머신 상호작용 효율 및 정확도가 개선되고, 단말의 처리 자원들 및 전력 자원들의 낭비가 추가로 감소된다.
게임 장면을 예로서 사용하면, 가상 소환 객체는 비행 화살이고, 소환 객체 통제 제어는 비행 화살 통제 제어이다. 도 12는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다. 이러한 가상 객체 제어 방법은 단말(예를 들어, 전술하여 설명된 단말에서의 클라이언트)에 의해 수행될 수 있거나, 또는 서버에 의해 수행될 수 있거나, 또는 단말 및 서버에 의해 상호작용적으로 수행될 수 있다. 이러한 단말 및 서버는 도 1에 도시되는 시스템에서의 단말 및 서버일 수 있다. 도 12에 도시되는 바와 같이, 이러한 가상 객체 제어 방법은 다음의 단계들 1210 내지 1260을 포함한다:
단계 1210: 사용자는 비행 화살을 캐스팅하기 위해 비행 화살 통제 제어를 클릭하고, 비행 화살 통제 제어는 비행 화살 캐스팅 제어임.
단계 1220: 비행 화살 통제 제어가 비행 화살 경로 통제 제어로 변환됨.
단계 1230: 사용자가 비행 화살 경로 통제 상태에 진입하기 위해 비행 화살 경로 통제 제어를 다시 클릭함.
단계 1240: 화상 복원 조건이 충족되는지를 결정하고; 화상 복원 조건이 충족되면 단계 1250을 수행하고; 화상 복원 조건이 충족되지 않으면 단계 1260을 수행함.
단계 1250: 비행 화살 경로 통제 상태를 닫음.
단계 1260: 사용자 동작들에 따라 이동하도록 가상 캐릭터 및 비행 화살을 제어함.
가상 캐릭터가 비행 화살 스킬을 캐스팅한 후, 비행 화살 스킬은 다른 스킬로 변환된다. 사용자는 다시 비행 화살 통제 제어를 클릭하고, 가상 캐릭터는 비행 화살 스킬 통제 상태에 진입한다. 이러한 상태에서, 캐릭터는 자유롭게 이동할 수 있고 동시에 비행 화살 스킬 동작들을 수행할 수 있으며, 사용자는 비행 화살 스킬 통제 상태를 종료하기 위해 닫음 버튼을 대안적으로 클릭할 수 있다.
결론적으로, 본 출원의 이러한 실시예에서 제공되는 가상 객체 제어 방법에 따르면, 소환 객체 통제 제어를 사용하여 가상 장면에서 이동하도록 가상 소환 객체를 제어할 때, 가상 장면에서의 가상 캐릭터의 이동은 캐릭터 통제 제어를 사용하여 제어될 수 있어서, 복수의 가상 객체들이 가상 장면에서 동시에 제어될 수 있다. 따라서, 가상 장면에서의 복수의 가상 객체들이 동시에 제어될 수 있어서, 제어 객체를 변경하기 위한 전환 동작이 감소되고, 가상 객체를 제어하기 위한 인간-머신 상호작용 효율 및 정확도가 개선되고, 단말의 처리 자원들 및 전력 자원들의 낭비가 추가로 감소된다.
도 13은 본 출원의 예시적인 실시예에 따른 가상 객체 제어 방법의 흐름도이다. 이러한 가상 객체 제어 방법은 단말(예를 들어, 전술하여 설명된 단말에서의 클라이언트)을 사용하여 수행될 수 있다. 이러한 단말은 도 1에 도시되는 시스템에서의 단말일 수 있다. 도 13에 도시되는 바와 같이, 이러한 가상 객체 제어 방법은 다음의 단계들 1310 내지 1350을 포함한다:
단계 1310: 가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 화상을 제시함- 제1 화상은 가상 장면에서의 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -.
단계 1320: 소환 객체 통제 제어에 대한 클릭 동작을 수신하는 것에 응답하여 가상 장면 인터페이스에서 제2 화상을 제시함- 제2 화상은 가상 캐릭터가 가상 장면에서 가상 소환 객체를 소환하는 화상임 -.
단계 1330: 소환 객체 통제 제어에 대한 누름 동작을 수신하는 것에 응답하여 제3 화상 및 제4 화상을 제시함- 제3 화상은 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 제4 화상은 제1 화상의 썸네일 화상이고, 제4 화상은 제1 화상의 상위 레이어 상에 중첩되어 디스플레이되며, 제4 화상의 크기는 제3 화상의 크기 미만임 -.
단계 1340: 소환 객체 통제 제어에 대한 슬라이드 동작을 수신하는 것에 응답하여 제5 화상을 제시함- 제5 화상은 슬라이드 동작의 동작 정보에 기초하여 가상 장면에서 이동하도록 가상 소환 객체를 제어하는 화상임 -.
단계 1350: 제5 화상을 제시하는 프로세스에서 캐릭터 통제 제어에 대한 트리거 동작을 수신한 것에 응답하여 제4 화상을 제6 화상으로 업데이트하고 디스플레이함- 제6 화상은 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 화상임 -.
결론적으로, 본 출원의 실시예들에서 제공되는 가상 장면에서의 가상 객체 제어 방법에 따르면, 이동 경로가 가상 장면에서 제어될 수 있는 가상 소환 객체를 제어하는 전제 하에서, 가상 캐릭터에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 가상 장면 화상 및 가상 소환 객체에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 가상 장면 화상이 가상 장면에서 개별적으로 디스플레이되어, 사용자는 가상 캐릭터 및 가상 소환 객체를 동시에 제어할 때 상이한 디스플레이 영역들에 있는 2개의 제어 객체들을 동시에 관찰할 수 있어서, 가상 장면에서 복수의 가상 객체들이 동시에 제어된다. 따라서, 가상 장면에서의 복수의 가상 객체들이 동시에 제어될 수 있어서, 제어 객체를 변경하기 위한 전환 동작이 감소되고, 가상 객체를 제어하기 위한 인간-머신 상호작용 효율 및 정확도가 개선되고, 단말의 처리 자원들 및 전력 자원들의 낭비가 추가로 감소된다.
도 14는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 장치의 구조 블록도이다. 이러한 가상 객체 제어 장치는, 도 3, 도 5, 또는 도 12에서의 임의의 실시예에서 도시되는 방법의 모든 또는 일부 단계들을 구현하기 위해, 소프트웨어, 하드웨어, 또는 이들의 조합을 사용하여 단말 또는 서버의 일부로서 구현될 수 있다. 도 14에 도시되는 바와 같이, 이러한 가상 객체 제어 장치는,
가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하도록 구성되는 제1 디스플레이 모듈(1410)- 제1 장면 화상은 가상 장면에서의 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 가상 소환 객체가 가상 장면에서 이동하는 것을 디스플레이하도록 구성되는 제1 제어 모듈(1420); 및
동작 정보에 기초하여 그리고 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여 가상 장면에서의 가상 소환 객체의 이동 프로세스에서, 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이하도록 구성되는 제2 제어 모듈(1430)을 포함할 수 있다.
가능한 구현에서, 이러한 장치는 추가로,
가상 장면 인터페이스에서 제2 장면 화상을 디스플레이하도록 구성되는 제2 디스플레이 모듈- 제2 장면 화상은 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상임 -; 및
소환 객체 통제 제어에 대한 제3 터치 동작을 수신하는 것에 응답하여, 가상 장면에서 가상 소환 객체를 소환하도록 가상 캐릭터를 제어하도록 구성되는 제3 제어 모듈을 포함한다.
가능한 구현에서, 제1 디스플레이 모듈(1410)은, 소환 객체 통제 제어에 대한 제4 터치 동작을 수신하는 것에 응답하여, 가상 장면 인터페이스에서의 장면 화상을 디스플레이하기 위해 제2 장면 화상으로부터 제1 장면 화상으로 전환하도록 구성되고, 제4 터치 동작은 제3 터치 동작 후에 수행된다.
가능한 구현에서, 이러한 장치는 추가로,
소환 객체 통제 제어에 대한 제4 터치 동작을 수신하는 것에 응답하여, 제1 장면 화상의 상위 레이어 상에 제2 장면 화상의 썸네일 화상을 중첩하여 디스플레이하도록 구성되는 제3 디스플레이 모듈- 썸네일 화상의 크기는 제1 장면 화상의 크기 미만임 -을 포함한다.
가능한 구현에서, 이러한 장치는 추가로,
화상 전환 동작을 수신하는 것에 응답하여 제1 장면 화상 및 제2 장면 화상의 디스플레이 위치들을 전환하도록 구성되는 전환 모듈을 포함한다.
가능한 구현에서, 이러한 장치는 추가로,
화상 복원 조건이 충족되는 것에 응답하여 가상 장면 인터페이스에서 제2 장면 화상을 복원하고 디스플레이하도록 구성되는 복원 모듈을 포함하고,
화상 복원 조건은,
가상 장면 인터페이스에서 통제 해제 제어에 대한 트리거 동작이 수신되는 것;
가상 소환 객체에 대응하는 트리거된 효과가 트리거되는 것; 또는
가상 소환 객체가 소환된 후의 지속시간이 미리 설정된 유효 지속시간에 도달하는 것을 포함한다.
가능한 구현에서, 제1 제어 모듈(1420)은,
소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 제1 터치 동작의 동작 정보에 기초하여 초기 방향에 상대적인 가상 소환 객체의 오프셋 각도를 획득하도록 구성되는 획득 서브모듈; 및
오프셋 각도에 따라 가상 장면에서 가상 소환 객체의 이동 방향을 제어하도록 구성되는 제어 서브모듈을 포함한다.
가능한 구현에서, 이러한 동작 정보는 상대적 방향을 포함하고, 이러한 상대적 방향은 소환 객체 통제 제어의 중심 위치에 상대적인 제1 터치 동작의 동작 위치의 방향이다.
제어 서브모듈은, 상대적 방향에 기초하여 초기 방향에 상대적인 가상 소환 객체의 타깃 오프셋 각도를 결정하도록;
타깃 오프셋 각도가 편향가능 각도 범위 내에 있는 것에 응답하여 타깃 오프셋 각도를 오프셋 각도로서 획득하도록;
타깃 오프셋 각도가 편향가능 각도 범위의 각도 상한 초과인 것에 응답하여, 각도 상한을 오프셋 각도로서 획득하도록; 그리고
타깃 오프셋 각도가 편향가능 각도 범위의 각도 하한 미만인 것에 응답하여, 각도 하한을 오프셋 각도로서 획득하도록 구성된다.
가능한 구현에서, 이러한 장치는 추가로,
제1 장면 화상에서 가상 소환 객체에 대응하는 각도 표시자 패턴을 제시하도록 구성되는 제1 제시 모듈- 각도 표시자 패턴은 편향가능 각도 범위를 표시하기 위해 사용됨 -을 포함한다.
가능한 구현에서, 이러한 장치는 추가로,
제1 장면 화상에서 각도 표시자 식별자를 제시하도록 구성되는 제2 제시 모듈- 각도 표시자 식별자는 제1 장면 화상에서 가상 소환 객체의 이동 방향을 표시하기 위해 사용됨 -을 포함한다.
결론적으로, 본 출원의 이러한 실시예에서 제공되는 가상 객체 제어 방법에 따르면, 가상 장면에서의 가상 캐릭터 객체의 가상 소환 객체가 존재하는 경우, 소환 객체 통제 제어를 사용하여 가상 소환 객체를 가상 장면에서 이동하도록 제어할 때, 캐릭터 통제 제어를 사용하여 가상 장면에서의 가상 캐릭터의 행동 액션이 제어될 수 있다. 따라서, 복수의 가상 객체들은 추가적인 전환 동작 없이 동시에 가상 장면에서 제어될 수 있어, 가상 객체에 대한 제어 효율을 개선한다. 도 15는 본 출원의 예시적인 실시예에 따른 가상 객체 제어 장치의 구조 블록도이다. 이러한 가상 객체 제어 장치는, 도 13에서의 실시예에서 도시되는 방법의 모든 또는 일부 단계들을 구현하기 위해, 소프트웨어, 하드웨어, 또는 이들의 조합을 사용하여 단말 또는 서버의 일부로서 구현될 수 있다. 도 15에 도시되는 바와 같이, 이러한 가상 객체 제어 장치는,
가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 화상을 제시하도록 구성되는 제1 제시 모듈(1510)- 제1 화상은 가상 장면에서의 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
소환 객체 통제 제어에 대한 클릭 동작을 수신하는 것에 응답하여 가상 장면 인터페이스에서 제2 화상을 제시하도록 구성되는 제2 제시 모듈(1520)- 제2 화상은 가상 캐릭터가 가상 장면에서 가상 소환 객체를 소환하는 화상임 -;
소환 객체 통제 제어에 대한 누름 동작을 수신하는 것에 응답하여 제3 화상 및 제4 화상을 제시하도록 구성되는 제3 제시 모듈(1530)- 제3 화상은 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 가상 장면의 화상이고, 제4 화상은 제1 화상의 썸네일 화상이고, 제4 화상은 제1 화상의 상위 레이어 상에 중첩되어 디스플레이되며, 제4 화상의 크기는 제3 화상의 크기 미만임 -;
소환 객체 통제 제어에 대한 슬라이드 동작을 수신하는 것에 응답하여 제5 화상을 제시하도록 구성되는 제4 제시 모듈(1540)- 제5 화상은 슬라이드 동작의 동작 정보에 기초하여 가상 장면에서 이동하도록 가상 소환 객체를 제어하는 화상임 -; 및
제5 화상을 제시하는 프로세스에서 캐릭터 통제 제어에 대한 트리거 동작을 수신한 것에 응답하여 제4 화상을 제6 화상으로 업데이트하고 디스플레이하도록 구성되는 제5 제시 모듈(1550)- 제6 화상은 가상 캐릭터가 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 화상임 -을 포함할 수 있다.
결론적으로, 본 출원의 실시예들에서 제공되는 가상 장면에서의 가상 객체 제어 장치에 따르면, 이동 경로가 가상 장면에서 제어될 수 있는 가상 소환 객체를 제어하는 경우에, 가상 캐릭터에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제2 장면 화상 및 가상 소환 객체에 대응하는 시야각으로부터 가상 장면을 관찰하는 것에 의해 획득되는 제1 장면 화상이 가상 장면에서 개별적으로 디스플레이되어, 사용자는 가상 캐릭터 및 가상 소환 객체를 동시에 제어할 때 상이한 디스플레이 영역들에 있는 2개의 제어 객체들을 관찰할 수 있어서, 가상 장면에서 복수의 가상 객체들이 동시에 제어된다. 따라서, 가상 장면에서의 복수의 가상 객체들이 동시에 제어될 수 있어서, 제어 객체를 변경하기 위한 전환 동작이 감소되고, 가상 객체를 제어하기 위한 인간-머신 상호작용 효율 및 정확도가 개선되고, 단말의 처리 자원들 및 전력 자원들의 낭비가 추가로 감소된다.
도 16은 예시적인 실시예에 따른 컴퓨터 디바이스(1600)의 구조 블록도이다. 이러한 컴퓨터 디바이스(1600)는, 스마트폰, 태블릿 컴퓨터, 동영상 전문가 그룹 오디오 레이어 III (MP3) 플레이어, 동영상 전문가 그룹 오디오 레이어 IV (MP4) 플레이어, 노트북 컴퓨터, 또는 데스크톱 컴퓨터와 같은, 도 1에 도시되는 단말일 수 있다. 컴퓨터 디바이스(1600)는 사용자 장비, 휴대용 단말, 랩톱 단말, 또는 데스크톱 단말과 같은 다른 이름으로 추가로 지칭될 수 있다.
일반적으로, 컴퓨터 디바이스(1600)는 프로세서(1601) 및 메모리(1602)를 포함한다.
프로세서(1601)는 하나 이상의 처리 코어를 포함할 수 있다. 예를 들어, 프로세서는 4-코어 프로세서 또는 8-코어 프로세서일 수 있다. 프로세서(1601)는 DSP(digital signal processor), FPGA(field-programmable gate array), 및 PLA(programmable logic array) 중 적어도 하나의 하드웨어 형태를 사용하여 구현될 수 있다. 프로세서(1601)는 메인 프로세서 및 코프로세서를 대안적으로 포함할 수 있다. 메인 프로세서는 액티브 상태에서 데이터를 처리하도록 구성되고, CPU(central processing unit)라고 또한 지칭된다. 코프로세서는 스탠바이 상태에서 데이터를 처리하도록 구성되는 저전력 프로세서이다. 일부 실시예들에서, 프로세서(1601)는 GPU(graphics processing unit)와 통합될 수 있다. GPU는, 디스플레이 스크린 상에 디스플레이될 필요가 있는 콘텐츠를 렌더링하도록 그리고 묘화하도록 구성된다. 일부 실시예들에서, 프로세서(1601)는 AI(artificial intelligence) 프로세서를 추가로 포함할 수 있다. 이러한 AI 프로세서는 머신 학습에 관련된 컴퓨팅 동작들을 처리하도록 구성된다.
메모리(1602)는 비-일시적일 수 있는 하나 이상의 컴퓨터-판독가능 저장 매체를 포함할 수 있다. 메모리(1602)는 고속 RAM(random access memory), 및 하나 이상의 자기 디스크 저장 디바이스 또는 플래시 저장 디바이스와 같은 비-휘발성 메모리를 추가로 포함할 수 있다. 일부 실시예들에서, 메모리(1602)에서의 비-일시적 컴퓨터-판독가능 저장 매체는 적어도 하나의 명령어를 저장하도록 구성되고, 이러한 적어도 하나의 명령어는 본 출원의 방법 실시예들에서 제공되는 인터페이스 디스플레이 방법을 구현하기 위해 프로세서(1601)에 의해 실행되도록 구성된다.
일부 실시예들에서, 컴퓨터 디바이스(1600)는 RF(radio frequency) 회로(1604) 및 디스플레이 스크린(1603)을 선택적으로 추가로 포함할 수 있다. RF 회로(1604)는, 전자기 신호라고 또한 지칭되는, RF 신호를 수신 및 송신하도록 구성된다. RF 회로(1604)는 전자기 신호를 통해 통신 네트워크 및 다른 통신 디바이스들과 통신한다. RF 회로(1604)는 전기 신호를 송신을 위해 전자기 신호로 변환하거나, 또는 수신된 전자기 신호를 전기 신호로 변환한다. 선택적으로, RF 회로(1604)는, 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 발진기, 디지털 신호 프로세서, 코덱 칩 세트, 가입자 신원 모듈 카드 등을 포함한다. RF 회로(1604)는 적어도 하나의 무선 통신 프로토콜을 사용하여 다른 단말과 통신할 수 있다. 이러한 무선 통신 프로토콜은, 이에 제한되는 것은 아니지만, 월드 와이드 웹, 대도시 영역 네트워크, 인트라넷, 모바일 통신 네트워크 세대들(2G, 3G, 4G 및 5G), 무선 로컬 영역 네트워크, 및/또는 Wi-Fi 네트워크를 포함한다. 일부 실시예들에서, RF 회로(1604)는 NFC(near field communication)에 관련된 회로를 추가로 포함할 수 있으며, 이는 본 출원에서 제한되는 것은 아니다.
디스플레이 스크린(1605)은 UI(user interface)를 디스플레이하도록 구성된다. 이러한 UI는 그래픽, 텍스트, 아이콘, 비디오, 및 이들의 임의의 조합을 포함할 수 있다. 디스플레이 스크린(1605)이 터치 디스플레이 스크린일 때, 디스플레이 스크린(1605)은 또한, 디스플레이 스크린(1605)의 표면 상에서 또는 표면 위에서 터치 신호를 수집하는 능력을 갖는다. 이러한 터치 신호는 처리를 위해 프로세서(1601)에, 제어 신호로서, 입력될 수 있다. 이러한 경우, 디스플레이 스크린(1605)은, 소프트 버튼 및/또는 소프트 키보드라고 또한 지칭되는, 가상 버튼 및/또는 가상 키보드를 제공하도록 추가로 구성된다. 일부 실시예들에서, 단말(1600)의 전방 패널 상에 배치되는, 하나의 디스플레이 스크린(1605)이 존재할 수 있다. 일부 다른 실시예들에서, 컴퓨터 디바이스(1600)의 상이한 표면들 상에 각각 또는 접힌 설계로 배치되는, 적어도 2개의 디스플레이 스크린들(1605)이 존재할 수 있다. 여전히 일부 다른 실시예에서, 디스플레이 스크린(1605)은, 컴퓨터 디바이스(1600)의 만곡형 표면 또는 접힌 표면 상에 배치되는, 플렉서블 디스플레이 스크린일 수 있다. 디스플레이 스크린(1605)은 비-직사각형 불규칙한 그래프, 즉, 특수-형상 스크린을 갖도록 추가로 설정될 수 있다. 디스플레이 스크린(1605)은, LCD(liquid crystal display) 또는 OLED(organic light-emitting diode) 등과 같은 재료를 사용하여 준비될 수 있다.
전원(1609)은 컴퓨터 디바이스(1600)에서의 컴포넌트들에 전력을 공급하도록 구성된다. 전원(1609)은, 교류, 직류, 1차 전지, 또는 재충전가능 배터리일 수 있다. 전원(1609)이 재충전가능 배터리를 포함하는 경우, 재충전가능 배터리는 유선 충전 배터리 또는 무선 충전 배터리일 수 있다. 유선 충전 배터리는 유선 라인을 통해 충전되는 배터리이고, 무선 충전 배터리는 무선 코일을 통해 충전되는 배터리이다. 재충전가능 배터리는 급속 충전 기술을 지원하도록 추가로 구성될 수 있다.
일부 실시예들에서, 컴퓨터 디바이스(1600)는 하나 이상의 센서(1610)를 또한 포함할 수 있다. 하나 이상의 센서(1610)는, 이에 제한되는 것은 아니지만, 압력 센서(1613) 및 지문 센서(1614)를 포함한다. 디스플레이 스크린의 압력 센서(1613)는 컴퓨터 디바이스(1600)의 사이드 프레임 및/또는 터치 컴퓨터 디바이스(1605)의 하부 레이어 상에 배치될 수 있다. 압력 센서(1613)가 컴퓨터 디바이스(1600)의 사이드 프레임 상에 배치되는 경우, 컴퓨터 디바이스(1600) 상의 사용자의 홀딩 신호가 검출될 수 있다. 프로세서(1601)는 압력 센서(1613)에 의해 수집되는 홀딩 신호에 따라 왼손 및 오른손 인식 또는 급속 동작을 수행한다. 압력 센서(1613)가 터치 디스플레이 스크린(1605)의 하위 레이어 상에 배치될 때, 프로세서(1601)는, 터치 디스플레이 스크린(1605) 상의 사용자의 압력 동작에 따라, UI 상의 동작가능 제어를 제어한다. 이러한 동작가능 제어는 버튼 제어, 스크롤-바 제어, 아이콘 제어, 및 메뉴 제어 중 적어도 하나를 포함한다.
지문 센서(1614)는 사용자의 지문을 수집하도록 구성되며, 프로세서(1601)는 지문 센서(1614)에 의해 수집되는 지문에 따라 사용자의 신원을 인식하거나, 또는 지문 센서(1614)는 수집된 지문에 기초하여 사용자의 신원을 인식한다. 사용자의 신원이 신뢰된 신원인 것으로 식별할 때, 프로세서(1601)는 사용자가 관련된 감지 동작들을 수행하는 것을 허가한다. 이러한 감지 동작들은, 스크린 잠금해제하기, 암호화된 정보 보기, 소프트웨어 다운로드하기, 결제, 설정 변경하기 등을 포함한다. 지문 센서(1614)는 컴퓨터 디바이스(1600)의 전면, 후면, 또는 측면 상에 배치될 수 있다. 컴퓨터 디바이스(1600) 상에 물리 버튼 또는 벤더 로고가 배치될 때, 지문 센서(1614)는 물리 버튼 또는 벤더 로고와 통합될 수 있다.
해당 분야에서의 기술자는 도 16에 도시되는 구조가 컴퓨터 디바이스(1600)에 대한 어떠한 제한도 구성하지 않고, 컴퓨터 디바이스가 도면에 도시되는 것들보다 더 많은 컴포넌트들 또는 더 적은 컴포넌트들을 포함할 수 있거나, 또는 일부 컴포넌트들이 조합될 수 있거나, 또는 상이한 컴포넌트 배치가 사용될 수 있다는 점을 이해할 수 있다.
도 17은 예시적인 실시예에 따른 컴퓨터 디바이스(1700)의 구조 블록도이다. 이러한 컴퓨터 디바이스는 본 개시내용의 전술한 해결책들에서 서버로서 구현될 수 있다. 컴퓨터 디바이스(1700)는 CPU(central processing unit)(1701), RAM(random access memory)(1702) 및 ROM(read-only memory)(1703)를 포함하는 시스템 메모리(1704), 및 이러한 시스템 메모리(1704)를 CPU(1701)에 접속하는 시스템 버스(1705)를 포함한다. 컴퓨터 디바이스(1700)는 컴퓨터에서의 컴포넌트들 사이에 정보를 송신하도록 구성되는 기본 I/O 시스템(input/output system)(1706), 및 운영 체제(1713), 애플리케이션(1714), 및 다른 프로그램 모듈(1715)을 저장하도록 구성되는 대용량 저장 디바이스(1707)를 추가로 포함한다.
기본 I/O 시스템(1706)은 정보를 디스플레이하도록 구성되는 디스플레이(1708), 및, 마우스 또는 키보드와 같은, 정보를 입력하기 위해 사용자에 의해 사용되는 입력 디바이스(1709)를 포함한다. 디스플레이(1708) 및 입력 디바이스(1709)는 시스템 버스(1705)에 접속되는 I/O(input/output) 제어기(1710)에 의해 CPU(1701)에 양자 모두 접속된다. 기본 I/O 시스템(1706)은 키보드, 마우스, 또는 전자 스타일러스와 같은 복수의 다른 디바이스들로부터의 입력을 수신하고 처리하기 위한 I/O 제어기(1710)를 추가로 포함할 수 있다. 유사하게, I/O 제어기(1710)는 디스플레이 스크린, 프린터, 또는 다른 타입의 출력 디바이스에 출력을 추가로 제공한다.
대용량 저장 디바이스(1707)는 시스템 버스(1705)에 접속되는 대용량 저장 제어기(도시되지 않음)를 사용하여 CPU(1701)에 접속된다. 대용량 저장 디바이스(1707) 및 연관된 컴퓨터-판독가능 매체는 컴퓨터 디바이스(1700)를 위한 비-휘발성 스토리지를 제공한다. 즉, 대용량 저장 디바이스(1707)는 하드 디스크 또는 CD-ROM(compact disc ROM) 드라이브와 같은 컴퓨터-판독가능 매체(도시되지 않음)를 포함할 수 있다.
일반성을 잃지 않고, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 이러한 컴퓨터 저장 매체는 임의의 방법 또는 기술을 사용하여 구현되는 그리고 컴퓨터-판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 다른 데이터와 같은 정보를 저장하도록 구성되는 휘발성 및 비-휘발성 매체, 및 이동식 및 비-이동식 매체를 포함한다. 이러한 컴퓨터 저장 매체는 RAM, ROM, EPROM(erasable programmable ROM), EEPROM(electrically erasable programmable ROM), 플래시 메모리 또는 다른 솔리드-스테이트 메모리 기술, CD-ROM, DVD(digital versatile disc) 또는 다른 광 메모리, 테이프 카트리지, 자기 카세트, 자기 디스크 메모리, 또는 다른 자기 저장 디바이스를 포함한다. 물론, 해당 분야에서의 기술자는 이러한 컴퓨터 저장 매체가 전술한 타입들로 제한되는 것은 아니라는 점을 알 것이다. 시스템 메모리(1704) 및 대용량 저장 디바이스(1707)는 집합적으로 메모리라고 지칭될 수 있다.
본 개시내용의 실시예들에 따르면, 컴퓨터 디바이스(1700)는 추가로, 인터넷과 같은 네트워크를 통해, 네트워크 상의 원격 컴퓨터에 접속되어 실행될 수 있다. 즉, 컴퓨터 디바이스(1700)는 시스템 버스(1705)에 접속되는 네트워크 인터페이스 유닛(1711)을 사용하여 네트워크(1712)에 접속될 수 있거나, 또는 또는 네트워크 인터페이스 유닛(1711)을 사용하여 다른 타입의 네트워크 또는 원격 컴퓨터 시스템(도시되지 않음)에 접속될 수 있다.
메모리는 하나 이상의 프로그램을 추가로 포함한다. 이러한 하나 이상의 프로그램은 메모리에 저장된다. CPU(1701)는 도 3, 도 5, 또는 도 12의 실시예에서 도시되는 방법의 모든 또는 일부 단계들을 구현하기 위해 이러한 하나 이상의 프로그램을 실행한다.
예시적인 실시예에서, 명령어를 포함하는 비-일시적 컴퓨터-판독가능 저장 매체가 추가로 제공되고, 예를 들어, 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트를 포함한다. 이러한 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트는 도 3, 도 5, 도 12, 또는 도 13의 임의의 실시예에서 도시되는 방법의 모든 또는 일부 단계들을 구현하기 위해 프로세서에 의해 실행될 수 있다. 예를 들어, 이러한 비-일시적 컴퓨터-판독가능 저장 매체는 ROM, RAM, CD-ROM (compact disc ROM), 자기 테이프, 플로피 디스크, 광학 데이터 저장 디바이스 등일 수 있다.
본 명세서를 고려하고 본 개시내용을 실시한 후에, 해당 분야에서의 기술자는 본 출원의 다른 구현들을 용이하게 생각할 것이다. 본 출원은 본 출원의 임의의 변형, 사용, 또는 적응적 변경을 커버하도록 의도된다. 이러한 변형들, 사용들, 또는 적응적 변경들은 본 출원의 일반적인 원리들을 따르며, 본 출원에서 개시되지 않은 해당 분야에서의 공통의 일반적인 지식 또는 공통의 기술적 수단을 포함한다. 본 명세서 및 실시예들은 단지 예시적인 것으로서 고려되고, 본 출원의 실제 범위 및 사상은 다음의 청구항들에서 지적된다.
본 출원은 위에 설명되는 그리고 첨부 도면들에 도시되는 정확한 구조들로만 제한되는 것이 아니고, 본 출원의 범위를 벗어나지 않고 다양한 수정들 및 변경들이 이루어질 수 있다는 점이 이해되어야 한다. 본 출원의 범위는 첨부된 청구항들에 대해서만 종속된다.

Claims (15)

  1. 단말에 의해 수행되는 가상 객체 제어 방법으로서, 상기 방법은,
    가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하는 단계- 상기 제1 장면 화상은 상기 가상 장면에서의 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상이고, 상기 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
    상기 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 상기 제1 터치 동작의 동작 정보에 기초하여 상기 가상 소환 객체가 상기 가상 장면에서 이동하는 것을 디스플레이하는 단계; 및
    상기 가상 장면에서의 상기 가상 소환 객체의 이동 프로세스에서 그리고 상기 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여, 가상 캐릭터가 상기 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이하는 단계를 포함하는 방법.
  2. 제1항에 있어서, 가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하는 단계 전에, 상기 방법은 추가로,
    상기 가상 장면 인터페이스에서 제2 장면 화상을 디스플레이하는 단계- 상기 제2 장면 화상은 상기 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상임 -; 및
    상기 소환 객체 통제 제어에 대한 제3 터치 동작을 수신하는 것에 응답하여, 상기 가상 장면에서 상기 가상 소환 객체를 소환하도록 상기 가상 캐릭터를 제어하는 단계를 포함하는 방법.
  3. 제2항에 있어서, 가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하는 단계는,
    상기 소환 객체 통제 제어에 대한 제4 터치 동작을 수신하는 것에 응답하여, 상기 가상 장면 인터페이스에서의 장면 화상을 디스플레이하기 위해 상기 제2 장면 화상으로부터 상기 제1 장면 화상으로 전환하는 단계를 포함하고,
    상기 제4 터치 동작은 상기 제3 터치 동작 후에 수행되는 방법.
  4. 제2항에 있어서, 상기 가상 장면 인터페이스에서 제2 장면 화상을 디스플레이하는 단계는,
    상기 소환 객체 통제 제어에 대한 제4 터치 동작을 수신하는 것에 응답하여, 상기 제1 장면 화상의 상위 레이어 상에 상기 제2 장면 화상의 썸네일 화상을 중첩하여 디스플레이하는 단계- 상기 썸네일 화상의 크기는 상기 제1 장면 화상의 크기 미만임 -를 포함하는 방법.
  5. 제4항에 있어서, 상기 방법은 추가로,
    화상 전환 동작을 수신하는 것에 응답하여 상기 제1 장면 화상 및 상기 제2 장면 화상의 디스플레이 위치들을 전환하는 단계를 포함하는 방법.
  6. 제2항에 있어서, 상기 방법은 추가로,
    화상 복원 조건이 충족되는 것에 응답하여 상기 가상 장면 인터페이스에서 상기 제2 장면 화상을 복원하고 디스플레이하는 단계를 포함하고,
    상기 화상 복원 조건은,
    상기 가상 장면 인터페이스에서 통제 해제 제어에 대한 트리거 동작이 수신되는 것;
    상기 가상 소환 객체에 대응하는 트리거된 효과가 트리거되는 것; 또는
    상기 가상 소환 객체가 소환된 후의 지속시간이 미리 설정된 유효 지속시간에 도달하는 것을 포함하는 방법.
  7. 제1항에 있어서, 상기 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 상기 제1 터치 동작의 동작 정보에 기초하여 상기 가상 소환 객체가 상기 가상 장면에서 이동하는 것을 디스플레이하는 단계는,
    상기 소환 객체 통제 제어에 대한 상기 제1 터치 동작에 응답하여, 상기 제1 터치 동작의 동작 정보에 기초하여 초기 방향에 상대적인 상기 가상 소환 객체의 오프셋 각도를 획득하는 단계; 및
    상기 오프셋 각도에 따라 상기 가상 장면에서 상기 가상 소환 객체의 이동 방향을 제어하는 단계를 포함하는 방법.
  8. 제7항에 있어서, 상기 동작 정보는 상대적 방향을 포함하고, 상기 상대적 방향은 상기 소환 객체 통제 제어의 중심 위치에 상대적인 상기 제1 터치 동작의 동작 위치의 방향이고;
    상기 소환 객체 통제 제어에 대한 상기 제1 터치 동작에 응답하여, 상기 제1 터치 동작의 동작 정보에 기초하여 초기 방향에 상대적인 상기 가상 소환 객체의 오프셋 각도를 획득하는 단계는,
    상기 상대적 방향에 기초하여 상기 초기 방향에 상대적인 상기 가상 소환 객체의 타깃 오프셋 각도를 결정하는 단계;
    상기 타깃 오프셋 각도가 편향가능 각도 범위 내에 있는 경우에 상기 타깃 오프셋 각도를 상기 오프셋 각도로서 획득하는 단계;
    상기 타깃 오프셋 각도가 상기 편향가능 각도 범위의 각도 상한 초과인 경우에, 상기 각도 상한을 상기 오프셋 각도로서 획득하는 단계; 및
    상기 타깃 오프셋 각도가 상기 편향가능 각도 범위의 각도 하한 미만인 경우에, 상기 각도 하한을 상기 오프셋 각도로서 획득하는 단계를 포함하는 방법.
  9. 제8항에 있어서, 상기 방법은 추가로,
    상기 제1 장면 화상에서 상기 가상 소환 객체에 대응하는 각도 표시자 패턴을 제시하는 단계- 상기 각도 표시자 패턴은 상기 편향가능 각도 범위를 표시하기 위해 사용됨 -를 포함하는 방법.
  10. 제8항에 있어서, 상기 방법은 추가로,
    상기 제1 장면 화상에서 각도 표시자 식별자를 제시하는 단계- 상기 각도 표시자 식별자는 상기 제1 장면 화상에서 상기 가상 소환 객체의 이동 방향을 표시하기 위해 사용됨 -를 포함하는 방법.
  11. 단말에 의해 수행되는, 가상 장면에서의 가상 객체 제어 방법으로서, 상기 방법은,
    가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 화상을 제시하는 단계- 상기 제1 화상은 상기 가상 장면에서의 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상이고, 상기 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
    상기 소환 객체 통제 제어에 대한 클릭 동작을 수신하는 것에 응답하여 상기 가상 장면 인터페이스에서 제2 화상을 제시하는 단계- 상기 제2 화상은 상기 가상 캐릭터가 상기 가상 장면에서 가상 소환 객체를 소환하는 화상임 -;
    상기 소환 객체 통제 제어에 대한 누름 동작을 수신하는 것에 응답하여 제3 화상 및 제4 화상을 제시하는 단계- 상기 제3 화상은 상기 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상이고, 상기 제4 화상은 상기 제1 화상의 썸네일 화상이고, 상기 제4 화상은 상기 제1 화상의 상위 레이어 상에 중첩되어 디스플레이되며, 상기 제4 화상의 크기는 상기 제3 화상의 크기 미만임 -;
    상기 소환 객체 통제 제어에 대한 슬라이드 동작을 수신하는 것에 응답하여 제5 화상을 제시하는 단계- 상기 제5 화상은 상기 슬라이드 동작의 동작 정보에 기초하여 상기 가상 장면에서 이동하도록 상기 가상 소환 객체를 제어하는 화상임 -; 및
    상기 제5 화상을 제시하는 프로세스에서 상기 캐릭터 통제 제어에 대한 트리거 동작을 수신한 것에 응답하여 상기 제4 화상을 제6 화상으로 업데이트하고 디스플레이하는 단계- 상기 제6 화상은 상기 가상 캐릭터가 상기 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 화상임 -를 포함하는 방법.
  12. 가상 객체 제어 장치로서,
    가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 장면 화상을 디스플레이하도록 구성되는 제1 디스플레이 모듈- 상기 제1 장면 화상은 상기 가상 장면에서의 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상이고, 상기 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
    상기 소환 객체 통제 제어에 대한 제1 터치 동작에 응답하여, 상기 제1 터치 동작의 동작 정보에 기초하여 상기 가상 소환 객체가 상기 가상 장면에서 이동하는 것을 디스플레이하도록 구성되는 제1 제어 모듈; 및
    상기 제1 터치 동작의 동작 정보에 기초하여 그리고 상기 캐릭터 통제 제어에 대한 제2 터치 동작에 응답하여 상기 가상 장면에서의 상기 가상 소환 객체의 이동 프로세스에서, 가상 캐릭터가 상기 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 것을 디스플레이하도록 구성되는 제2 제어 모듈을 포함하는 가상 객체 제어 장치.
  13. 가상 객체 제어 장치로서,
    가상 장면을 제시하기 위해 사용되는 가상 장면 인터페이스에서 제1 화상을 제시하도록 구성되는 제1 제시 모듈- 상기 제1 화상은 상기 가상 장면에서의 가상 캐릭터에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상이고, 상기 가상 장면 인터페이스는 소환 객체 통제 제어 및 캐릭터 통제 제어를 포함함 -;
    상기 소환 객체 통제 제어에 대한 클릭 동작을 수신하는 것에 응답하여 상기 가상 장면 인터페이스에서 제2 화상을 제시하도록 구성되는 제2 제시 모듈- 상기 제2 화상은 상기 가상 캐릭터가 상기 가상 장면에서 가상 소환 객체를 소환하는 화상임 -;
    상기 소환 객체 통제 제어에 대한 누름 동작을 수신하는 것에 응답하여 제3 화상 및 제4 화상을 제시하도록 구성되는 제3 제시 모듈- 상기 제3 화상은 상기 가상 소환 객체에 대응하는 시야각으로부터 관찰되는 상기 가상 장면의 화상이고, 상기 제4 화상은 상기 제1 화상의 썸네일 화상이고, 상기 제4 화상은 상기 제1 화상의 상위 레이어 상에 중첩되어 디스플레이되며, 상기 제4 화상의 크기는 상기 제3 화상의 크기 미만임 -;
    상기 소환 객체 통제 제어에 대한 슬라이드 동작을 수신하는 것에 응답하여 제5 화상을 제시하도록 구성되는 제4 제시 모듈- 상기 제5 화상은 상기 슬라이드 동작의 동작 정보에 기초하여 상기 가상 장면에서 이동하도록 상기 가상 소환 객체를 제어하는 화상임 -; 및
    상기 제5 화상을 제시하는 프로세스에서 상기 캐릭터 통제 제어에 대한 트리거 동작을 수신한 것에 응답하여 상기 제4 화상을 제6 화상으로 업데이트하고 디스플레이하도록 구성되는 제5 제시 모듈- 상기 제6 화상은 상기 가상 캐릭터가 상기 캐릭터 통제 제어에 대응하는 행동 액션을 수행하는 화상임 -을 포함하는 가상 객체 제어 장치.
  14. 컴퓨터 디바이스로서, 프로세서 및 메모리를 포함하고, 상기 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트를 저장하고, 상기 적어도 하나의 명령어, 상기 적어도 하나의 프로그램, 상기 코드 세트, 또는 상기 명령어 세트는 제1항 내지 제11항 중 어느 한 항에 따른 가상 객체 제어 방법을 구현하기 위해 상기 프로세서에 의해 로딩되고 실행되는 컴퓨터 디바이스.
  15. 컴퓨터-판독가능 저장 매체로서, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트를 저장하고, 상기 적어도 하나의 명령어, 상기 적어도 하나의 프로그램, 상기 코드 세트, 또는 상기 명령어 세트는 제1항 내지 제11항 중 어느 한 항에 따른 가상 객체 제어 방법을 구현하기 위해 상기 프로세서에 의해 로딩되고 실행되는 컴퓨터-판독가능 저장 매체.
KR1020217035082A 2020-04-28 2021-03-26 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체 KR20210143301A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010350845.9 2020-04-28
CN202010350845.9A CN111589133B (zh) 2020-04-28 2020-04-28 虚拟对象控制方法、装置、设备及存储介质
PCT/CN2021/083306 WO2021218516A1 (zh) 2020-04-28 2021-03-26 虚拟对象控制方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
KR20210143301A true KR20210143301A (ko) 2021-11-26

Family

ID=72181272

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217035082A KR20210143301A (ko) 2020-04-28 2021-03-26 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체

Country Status (6)

Country Link
US (1) US20220023761A1 (ko)
JP (3) JP7124235B2 (ko)
KR (1) KR20210143301A (ko)
CN (1) CN111589133B (ko)
SG (1) SG11202111568QA (ko)
WO (1) WO2021218516A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109513208B (zh) * 2018-11-15 2021-04-09 深圳市腾讯信息技术有限公司 对象的显示方法、装置、存储介质及电子装置
CN111589133B (zh) * 2020-04-28 2022-02-22 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、设备及存储介质
CN112386910A (zh) * 2020-12-04 2021-02-23 网易(杭州)网络有限公司 游戏控制方法、装置、电子设备及介质
CN114764295B (zh) * 2021-01-04 2023-09-29 腾讯科技(深圳)有限公司 立体场景切换方法、装置、终端及存储介质
CN113069771B (zh) * 2021-04-09 2024-05-28 网易(杭州)网络有限公司 虚拟对象的控制方法、装置和电子设备
CN113069767B (zh) * 2021-04-09 2023-03-24 腾讯科技(深圳)有限公司 虚拟互动方法、装置、终端和存储介质
CN113332724B (zh) * 2021-05-24 2024-04-30 网易(杭州)网络有限公司 虚拟角色的控制方法、装置、终端和存储介质
CN113181649B (zh) * 2021-05-31 2023-05-16 腾讯科技(深圳)有限公司 虚拟场景中召唤对象的控制方法、装置、设备及存储介质
CN113750518A (zh) * 2021-09-10 2021-12-07 网易(杭州)网络有限公司 技能按钮的控制方法、装置、电子设备及计算机可读介质
CN113750531B (zh) * 2021-09-18 2023-06-16 腾讯科技(深圳)有限公司 虚拟场景中的道具控制方法、装置、设备及存储介质
CN114500851A (zh) * 2022-02-23 2022-05-13 广州博冠信息科技有限公司 视频录制方法及装置、存储介质、电子设备
CN115634449A (zh) * 2022-10-31 2023-01-24 不鸣科技(杭州)有限公司 虚拟场景中控制虚拟对象的方法、装置、设备及产品

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4632521B2 (ja) 2000-11-29 2011-02-16 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
US7137891B2 (en) 2001-01-31 2006-11-21 Sony Computer Entertainment America Inc. Game playing system with assignable attack icons
JP5840386B2 (ja) * 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5943554B2 (ja) * 2011-05-23 2016-07-05 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
US8935438B1 (en) * 2011-06-28 2015-01-13 Amazon Technologies, Inc. Skin-dependent device components
US10328337B1 (en) * 2013-05-06 2019-06-25 Kabam, Inc. Unlocking game content for users based on affiliation size
CN108355348B (zh) 2015-10-10 2021-01-26 腾讯科技(成都)有限公司 信息处理方法、终端及计算机存储介质
JP6852972B2 (ja) * 2016-03-04 2021-03-31 寿一 木村 スロットマシン
JP6143934B1 (ja) 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106598438A (zh) * 2016-12-22 2017-04-26 腾讯科技(深圳)有限公司 一种基于移动终端的场景切换方法及移动终端
CN107145346A (zh) * 2017-04-25 2017-09-08 合肥泽诺信息科技有限公司 一种游戏行为控制模块的虚拟框架系统
CN110694261B (zh) * 2019-10-21 2022-06-21 腾讯科技(深圳)有限公司 控制虚拟对象进行攻击的方法、终端及存储介质
CN111035918B (zh) * 2019-11-20 2023-04-07 腾讯科技(深圳)有限公司 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
CN111013140B (zh) * 2019-12-09 2023-04-07 网易(杭州)网络有限公司 游戏控制的方法、装置、终端、服务器及可读存储介质
CN111589133B (zh) * 2020-04-28 2022-02-22 腾讯科技(深圳)有限公司 虚拟对象控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP2022526456A (ja) 2022-05-24
WO2021218516A1 (zh) 2021-11-04
JP7124235B2 (ja) 2022-08-23
SG11202111568QA (en) 2021-12-30
JP7427728B2 (ja) 2024-02-05
JP2024028561A (ja) 2024-03-04
CN111589133B (zh) 2022-02-22
CN111589133A (zh) 2020-08-28
US20220023761A1 (en) 2022-01-27
JP2022179474A (ja) 2022-12-02

Similar Documents

Publication Publication Date Title
KR20210143301A (ko) 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체
KR102599993B1 (ko) 멀티플레이어 온라인 전투 프로그램에서 프롬프트 정보 전송 방법 및 장치, 및 단말기
WO2021244324A1 (zh) 虚拟对象的控制方法、装置、设备以及存储介质
JP7390400B2 (ja) 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム
US20230033874A1 (en) Virtual object control method and apparatus, terminal, and storage medium
JP2022551069A (ja) 仮想対象の制御方法及びその装置、機器、並びにコンピュータプログラム
CN111589130B (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
CN113289331B (zh) 虚拟道具的显示方法、装置、电子设备及存储介质
CN112870699B (zh) 虚拟环境中的信息显示方法、装置、设备及介质
WO2022134808A1 (zh) 虚拟场景中的数据处理方法、设备、存储介质及程序产品
CN112402971B (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
CN112704876B (zh) 虚拟对象互动模式的选择方法、装置、设备及存储介质
CN111589144B (zh) 虚拟角色的控制方法、装置、设备及介质
KR20230042517A (ko) 연락처 정보 디스플레이 방법, 장치 및 전자 디바이스, 컴퓨터-판독가능 저장 매체, 및 컴퓨터 프로그램 제품
CN111530075B (zh) 虚拟环境的画面显示方法、装置、设备及介质
US20230390650A1 (en) Expression display method and apparatus in virtual scene, device and medium
JPWO2021143259A5 (ko)
US20230271087A1 (en) Method and apparatus for controlling virtual character, device, and storage medium
CN114225372A (zh) 虚拟对象的控制方法、装置、终端、存储介质及程序产品
CN111589129B (zh) 虚拟对象的控制方法、装置、设备及介质
TWI843020B (zh) 虛擬場景的顯示方法及裝置、終端及存儲介質
KR20230021635A (ko) 스킬을 캐스팅하기 위해 가상 캐릭터를 제어하기 위한 방법 및 장치, 디바이스, 매체, 및 프로그램 제품

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal