KR102645534B1 - 가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체 - Google Patents

가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체 Download PDF

Info

Publication number
KR102645534B1
KR102645534B1 KR1020217034089A KR20217034089A KR102645534B1 KR 102645534 B1 KR102645534 B1 KR 102645534B1 KR 1020217034089 A KR1020217034089 A KR 1020217034089A KR 20217034089 A KR20217034089 A KR 20217034089A KR 102645534 B1 KR102645534 B1 KR 102645534B1
Authority
KR
South Korea
Prior art keywords
offset
virtual environment
area
camera model
distance
Prior art date
Application number
KR1020217034089A
Other languages
English (en)
Other versions
KR20210141658A (ko
Inventor
쟈청 웨이
순 후
캉 장
샹위 장
산둥 쑤
융 장
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210141658A publication Critical patent/KR20210141658A/ko
Application granted granted Critical
Publication of KR102645534B1 publication Critical patent/KR102645534B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원은 가상 환경 픽처를 디스플레이하기 위한 방법 및 장치, 디바이스 및 저장 매체를 개시하며 인간-기계 상호작용의 분야에 속한다. 방법은, 제1 가상 환경 픽처를 디스플레이하는 단계로서, 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 상기 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이하는, 제1 가상 환경 픽처를 디스플레이하는 단계, 조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터를 디스플레이하는 단계로서, 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되고, 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우에 스킬 액션 영역인, 영역의 스킬 인디케이터를 디스플레이하는 단계, 제2 가상 환경 픽처를 디스플레이하는 단계로서, 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 제2 관찰 포지션은 제1 관찰 포지션에 대해 오프셋된 포지션이며, 제2 영역은 타깃 영역을 포함하는, 제2 가상 환경 픽처를 디스플레이하는 단계를 포함하며, 이에 의해, 타깃을 조준하는 정확도를 향상시킨다.

Description

가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체
본 출원은, "가상 환경 픽처를 디스플레이하기 위한 방법 및 장치, 디바이스 및 저장 매체(METHOD AND APPARATUS FOR DISPLAYING VIRTUAL ENVIRONMENT PICTURE, DEVICE, AND STORAGE MEDIUM)"란 명칭으로 2020년 4월 9일자로 출원된 중국 특허출원 제202010275730.8호를 우선권으로 주장하며, 이는 전체가 인용으로 본원에 포함된다.
본 출원은 인간-기계 상호작용의 분야에 관한 것으로서, 특히 가상 환경 픽처를 디스플레이하기 위한 방법 및 장치, 디바이스, 및 저장 매체에 관한 것이다.
3차원(3D) 가상 환경을 기반으로 하는 애플리케이션, 예를 들어 배틀 아레나 게임(battle arena game)에서, 마스터 가상 캐릭터는 카메라 모델에 바인딩된다. 사용자가 마스터 가상 캐릭터를 제어하여 가상 환경에서 이동하도록 제어할 때, 카메라 모델은 마스터 가상 캐릭터와 함께 이동하므로, 가상 환경에서 마스터 가상 캐릭터의 픽처가 디스플레이된다.
사용자는 가상 환경에서 다른 가상 캐릭터를 공격하기 위해 가상 환경에서 다양한 영역의 스킬들(regional skills)을 해제하도록 마스터 가상 캐릭터를 제어할 수 있다. 영역의 스킬을 해제할 때, 마스터 가상 캐릭터는 스킬이 해제되는 영역을 선택할 필요가 있고, 영역의 스킬은 해당 영역에 영향을 미치며, 영역의 스킬을 해제하는 과정에서, 렌즈는 여전히 마스터 가상 캐릭터를 따르므로, 마스터 가상 캐릭터는 항상 단말의 디스플레이 스크린의 중앙에 위치한다.
마스터 가상 캐릭터가 영역의 스킬들을 해제할 때, 일부 영역의 스킬들은 디스플레이 스크린의 디스플레이 범위를 벗어날 수 있다. 그 결과, 조준 영역의 시야가 불충분하고, 사용자는 조준 영역에서 타깃 객체를 볼 수 없고 느낌으로만 조준할 수 있으며, 이는 사용자의 판단에 영향을 미친다.
본 출원의 실시예들은, 조준 조작을 통해 영역의 스킬 인디케이터를 트리거함으로써 타깃 영역을 선택하여, 이에 의해 스킬을 해제하는 정확도를 향상시키고, 인간-기계 효율성을 향상시키는, 가상 환경 픽처를 디스플레이하기 위한 방법 및 장치, 디바이스 및 저장 매체를 제공한다. 이러한 기술 솔루션들은 다음과 같다.
본 출원의 한 양상에 따르면, 가상 환경 픽처를 디스플레이하기 위한 방법이 제공된다. 본 방법은, 클라이언트가 수행되며,
제1 가상 환경 픽처를 디스플레이하는 단계로서, 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이하는, 제1 가상 환경 픽처를 디스플레이하는 단계,
조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터(regional skill indicator)를 디스플레이하는 단계로서, 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되고, 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우에 스킬 액션 영역(skill action region)인, 영역의 스킬 인디케이터를 디스플레이하는 단계,
제2 가상 환경 픽처를 디스플레이하는 단계로서, 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 제2 관찰 포지션은 제1 관찰 포지션에 대해 오프셋된 포지션이며, 제2 영역은 타깃 영역을 포함하는, 제2 가상 환경 픽처를 디스플레이하는 단계를 포함한다.
본 출원의 다른 양상에 따르면, 가상 환경 픽처를 디스플레이하기 위한 장치가 제공되며, 이 장치는,
제1 가상 환경 픽처를 디스플레이하도록 구성된 디스플레이 모듈로서, 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이하는, 제1 가상 환경 픽처를 디스플레이하도록 구성된 디스플레이 모듈을 포함한다.
디스플레이 모듈은, 조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터를 디스플레이하도록 구성된 디스플레이 모듈로서, 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되고, 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우에 스킬 액션 영역이고,
디스플레이 모듈은 제2 가상 환경 픽처를 디스플레이하도록 구성되고, 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 제2 관찰 포지션은 제1 관찰 포지션에 대해 오프셋된 포지션이며, 제2 영역은 타깃 영역을 포함한다.
본 출원의 다른 양상에 따르면, 프로세서 및 메모리를 포함하는 컴퓨터 디바이스가 제공되며, 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트를 저장하고, 적어도 하나의 명령어는 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트는 전술한 양상들에서 설명된 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.
본 출원의 다른 양상에 따르면, 컴퓨터-판독 가능한 저장 매체가 제공된다. 저장 매체는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트를 저장하고, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트는 전술한 양상들에서 설명된 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.
본 출원의 다른 양상에 따르면, 컴퓨터 프로그램 제품 또는 컴퓨터 프로그램이 제공되며, 컴퓨터 프로그램 제품 또는 컴퓨터 프로그램은 컴퓨터 명령어들을 포함하고, 컴퓨터 명령어들은 컴퓨터-판독 가능 저장 매체에 저장된다. 컴퓨터 디바이스의 프로세서는 컴퓨터-판독 가능 저장 매체로부터 컴퓨터 명령들을 판독한다. 프로세서는 컴퓨터 디바이스로 하여금 전술한 양상들에서 설명된 가상 환경 픽처를 디스플레이하기 위한 방법을 수행하도록 컴퓨터 명령어들을 실행한다.
본 출원의 실시예들에서 제공되는 기술 솔루션들은 적어도 다음과 같은 유익한 효과들을 달성한다.
클라이언트는 조준 조작을 수신하고 조준 조작을 통해 선택된 타깃 영역에 영역의 스킬 인디케이터를 디스플레이하고, 선택된 타깃 영역에 따라 가상 환경 픽처의 관찰 센터를 조정하여, 가상 환경 픽처는 전체 타깃 영역을 포함하고, 영역의 스킬 인디케이터는 가상 환경 픽처에 완전히 디스플레이될 수 있으며 공격 타깃을 더욱 정확하게 조준할 수 있으며, 이에 의해, 공격 타깃을 정확하게 조준하기 위해 조준 조작에 필요한 시간을 감소시키고, 클라이언트가 너무 많은 무효 조준 조작들을 수신하는 것을 방지하고, 또한, 조준 과정에서 클라이언트의 추가적인 계산들을 감소시키고, 클라이언트의 실행 효율성을 향상시키며, 사람-기계 상호 작용 효율성을 향상시킨다.
도 1은 본 출원의 예시적인 실시예에 따른 가상 환경 픽처의 개략적인 다이어그램이다.
도 2는 본 출원의 예시적인 실시예에 따른 컴퓨터 시스템의 블록 다이어그램이다.
도 3은 본 출원의 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 방법의 흐름도이다.
도 4는 본 출원의 예시적인 실시예에 따른 마스터 가상 캐릭터의 시각(perspective)에 대응하는 카메라 모델의 개략적이 다이어그램이다.
도 5는 본 출원의 다른 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 방법의 흐름도이다.
도 6은 본 출원의 예시적인 실시예에 따른 제1 가상 환경 픽처의 개략적 다이어그램이다.
도 7은 본 출원의 예시적인 실시예에 따른 휠 가상 조이스틱(wheel virtual joystick)의 개략적 다이어그램이다.
도 8은 본 출원의 예시적인 실시예에 따른 영역의 스킬 인디케이터(regional skill indicator)가 디스플레이되는 인터페이스의 개략적 다이어그램이다.
도 9는 본 출원의 예시적인 실시예에 따른 시야 결정 박스(visual field determining box)의 개략적 다이어그램이다.
도 10은 본 출원의 예시적인 실시예에 따른 제2 오프셋 방식의 개략적인 인터페이스 다이어그램이다.
도 11은 본 출원의 예시적인 실시예에 따른 제1 오프셋을 계산하는 개략적 다이어그램이다.
도 12는 본 출원의 예시적인 실시예에 따른 카메라 모델과 가상 환경 사이의 포지션 관계의 개략적 다이어그램이다.
도 13은 본 출원의 예시적인 실시예에 따른 제2 오프셋을 계산하는 개략적 다이어그램이다.
도 14는 본 출원의 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 방법의 프레임워크 다이어그램이다.
도 15는 본 출원의 예시적인 실시예에 따른 카메라 모델을 이동하도록 제어하는 시스템의 프레임워크 다이어그램이다.
도 16은 본 출원의 예시적인 실시예에 따른 글로벌 오프셋을 계산하는 프레임워크 다이어그램이다.
도 17은 본 출원의 예시적인 실시예에 따른 스킬 오프셋을 계산하는 프레임워크 다이어그램이다.
도 18은 본 출원의 예시적인 실시예에 따른 제2 가상 환경 픽처의 개략적 다이어그램이다.
도 19는 본 출원의 예시적인 실시예에 따른 카메라 모델을 이동하도록 제어하는 흐름도 프레임워크 다이어그램이다.
도 20은 본 출원의 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 장치의 프레임워크 다이어그램이다.
도 21은 본 출원의 예시적인 실시예에 따른 컴퓨터 디바이스의 개략적 구조 다이어그램이다.
우선, 본 출원의 실시예들과 관련된 용어들을 소개한다.
가상 환경은 단말에서 실행될 때 애플리케이션에 의해 디스플레이(또는 제공)되는 가상 환경이다. 가상 환경은 현실 세계의 시뮬레이션된 환경일 수도 있거나, 세비-시뮬레이션된 세미-픽션 가상 환경일 수도 있거나, 완전히 픽션 환경일 수 있다. 가상 환경은 2-차원 가상 환경, 2.5-차원 가상 환경, 3D 가상 환경 중 어느 하나일 수 있다. 이는 본 출원에 제한되지 않는다. 이하의 실시예에서는 가상 환경이 3D 가상 환경인 예를 사용하여 설명한다. 일부 실시예들에서, 가상 환경은 적어도 2개의 마스터 가상 캐릭터들에 대한 전투 환경을 제공하기 위해 사용된다. 가상 환경은 대칭인 하부 좌측 코너 영역과 상부 우측 코너 영역을 포함한다. 두 상대측들에 있는 마스터 가상 캐릭터들은 각각 해당 영역들을 점령하고, 각각의 측의 목표는 상대의 영역 내에 깊숙이 있는 타깃 빌딩, 진지, 기지 또는 크리스털을 파괴하여 승리하는 것이다.
가상 캐릭터는 가상 환경에서 이동 가능한 객체이다. 이동 가능한 객체는 3D 가상 환경에 디스플레이되는 캐릭터 또는 동물과 같은 가상 인물, 가상 동물, 만화 인물 등일 수 있다. 선택적으로, 가상 캐릭터는 골격 애니메이션 기술을 기반으로 생성된 3차원 모델이다. 각각의 가상 캐릭터는 3D 가상 환경에서 자신의 모양 및 볼륨을 가지며, 3D 가상 환경에서 일정 공간을 차지한다. 본 출원의 실시예들에서는 가상 캐릭터가 사용자에 의해 제어되는 마스터 가상 캐릭터인 예를 사용한다. 마스터 가상 캐릭터는 일반적으로 가상 환경에서 하나 이상의 마스터 가상 캐릭터들을 지칭한다.
카메라 모델은 가상 환경에서 마스터 가상 캐릭터 주변의 3D 모델로서, 가상 환경에서 마스터 가상 캐릭터를 자동으로 따라가서 가상 환경 픽처를 획득하기 위해 사용된다. 사용자는 카메라 모델을 사용하여 가상 환경 픽처를 보지만, 사용자는 카메라 모델을 볼 수 없다. 가상 환경 픽처는 가상 환경에서 마스터 가상 캐릭터의 1인 시각(first-person perspective) 또는 3인 시각(third-person perspective)으로부터 관찰함으로써 획득되는 픽처일 수 있다.
멀티플레이어 온라인 배틀 아레나 게임(Multiplayer Online battle arena, MOBA)은 적어도 2개의 상대 캠프들의 서로 다른 가상 팀들이 가상 환경에서 각각의 맵 영역들을 점유하고 특정 승리 조건을 목표로 하여 서로 경쟁하는 아레나 게임이다. 승리 조건은 상대 캠프의 진지를 점거 또는 진지를 파괴, 상대 캠프에서 가상 캐릭터들을 살상, 지정된 장면 및 시간 내에서 자신의 생존 보장, 특정 자원을 탈취, 또는 지정된 시간 내에 상대를 압도 중 적어도 하나를 포함하지만, 이들에 한정되지 않는다. 배틀 아레나는 라운드들로 진행될 수 있다. 동일한 맵 또는 서로 다른 맵들은 배틀 아레나 게임의 서로 다른 라운드들에서 사용될 수 있다. 각각의 가상 팀은 하나 이상의 가상 캐릭터들, 예를 들어, 1개의 가상 캐릭터, 2개의 가상 캐릭터들, 3개의 가상 캐릭터들, 또는 5개의 가상 캐릭터들을 포함한다. MOBA 게임의 라운드 기간은 게임이 시작되는 시점부터 승리 조건이 충족되는 시점까지이다.
본 출원에서 제공되는 방법은 가상 현실(VR) 애플리케이션, 3D 맵 프로그램, 군사 시뮬레이션 프로그램, 1인 슈팅 게임(FPS), MOBA 게임 등에 의해 수행될 수 있다. 이하의 실시예들에서 설명을 위한 예로서 게임 동안 애플리케이션이 사용된다.
가상 환경을 기반으로 하는 게임은 하나 이상의 게임 세계들의 맵들로 형성된다. 게임에서 가상 환경은 현실 세계의 시나리오를 시뮬레이션한다. 사용자는, 상대적으로 높은 상호 작용을 갖는 가상 환경에서, 걷기, 달리기, 점프하기, 슈팅, 격투, 운전, 스킬을 해제, 다른 가상 캐릭터의 공격, 가상 환경에서 피해, 다른 가상 캐릭터를 공격 등의 액션들을 수행하도록 게임에서 마스터 가상 캐릭터를 제어할 수 있다. 또한, 다수의 사용자들은 온라인으로 팀을 형성하여 아레나 게임을 할 수 있다.
일부 실시예들에서, 마스터 가상 캐릭터는 스킬을 해제하기 위해 가상 환경에서 위치를 선택한다. 이러한 스킬은 영역의 스킬이라고 한다. 영역의 스킬 인디케이터는 가상 환경에서 위치의 좌표들을 선택할 필요가 있고, 가상 환경에서 가상 유닛, 예를 들어, 진지, 크리스털, 또는 방어 타워를 선택하는 것을 더 포함한다. 마스터 가상 캐릭터는 영역의 스킬 인디케이터를 사용하여 가상 환경에서 영역의 스킬을 해제한다. 영역의 스킬 인디케이터는 마스터 가상 캐릭터가 스킬을 해제할 때 가상 환경에서 스킬 액션 영역을 식별하도록 구성된다.
본 출원의 실시예들은 게임에서 마스터 가상 캐릭터가 영역의 스킬을 해제하는 예를 사용하여 설명된다.
도 1은 본 출원의 예시적인 실시예에 따른 카메라 모델 이동 인터페이스의 개략적 다이어그램이다. 사용자에 의해 보이는 가상 환경 픽처는 가상 환경에서 제공되는 카메라 모델에 의해 캡처된 픽처이다. 카메라 모델은 렌즈 앵커 포인트(lens anchor point)에 해당한다. 렌즈 앵커 포인트는 가상 환경에서 카메라 모델의 3D 포지션 좌표들이다. 카메라 모델의 포지션은 렌즈 앵커 포인트를 변경함으로써 변경된다. 본 출원의 본 실시예는, 카메라 모델의 높이가 변하지 않고(즉, 높이에 해당하는 좌표들은 변하지 않고 유지됨), 단지 수평면 상에서 카메라 모델의 수평 및 수직 좌표들만이 변경되는 예를 사용하여 설명된다. 개략적으로, 사용자에 의해 사용되는 단말은 스마트폰이다.
마스터 가상 캐릭터(100)는 가상 환경의 어느 곳에나 위치할 수 있다. 개략적으로, 도 1의 (a)에 도시된 바와 같이, 마스터 가상 캐릭터(100)는 가상 환경 픽처의 중앙에 디스플레이된다. 이 경우, 마스터 가상 캐릭터(100)는 영역의 스킬의 해제를 준비한다.
사용자가 스킬 컨트롤을 트리거하면, 휠 가상 조이스틱(102)은 스킬 컨트롤에 디스플레이된다. 휠 가상 조이스틱(102)은 휠 부분과 조이스틱 부분을 포함한다. 영역의 스킬 인디케이터(101)는 가상 환경의 지면에는 디스플레이된다. 도 1의 (b)에 도시된 바와 같이, 영역의 스킬 인디케이터(101)는 가상 환경에서 사용자가 휠 가상 조이스틱(102)을 드래그 하는 방향으로 이동한다. 카메라 모델은 영역의 스킬 인디케이터(101)의 이동 방향으로 오프셋되고, 마스터 가상 캐릭터(100)가 가상 환경에 위치하는 포지션은 변경되지 않는다. 가상 환경 픽처는 마스터 가상 캐릭터(100)로부터 멀어지는 방향으로 오프셋되고, 사용자는 마스터 가상 캐릭터(100)가 가상 환경 픽처 측면의 영역에 위치하는 것을 보게 된다. 이 경우, 사용자는 지역 스킬 인디케이터(101)에 의해 선택된 타깃 영역, 즉 영역의 스킬의 스킬 액션 영역을 볼 수 있다.
도 1의 (c)에 도시된 바와 같이, 마스터 가상 캐릭터(100)는 영역의 스킬(도시하지 않음)을 해제하고, 영역의 스킬 인디케이터는 사라진다. 카메라 모델에 의해 캡처되는 가상 환경 픽처는 도 1의 (c)에 도시된 가상 환경 픽처이다. 즉, 도 1의 (b)에 도시된 가상 환경 픽처와 비교되어, 카메라 모델의 포지션은 변경되지 않는다.
마스터 가상 캐릭터(100)가 영역의 스킬을 해제한 후에, 카메라 모델은 마스터 가상 캐릭터(100)를 향해 이동하여 도 1의 (a)에 도시된 가상 환경 픽처를 형성한다. 개략적으로, 마스터 가상 캐릭터(100)는 다시 가상 환경 픽처의 중앙에 위치한다.
마스터 가상 캐릭터에 의해 사용되는 영역의 스킬들의 서로 다른 액션 범위들에 따라, 카메라 모델은 다음 세 가지 방식으로 이동한다. 1. 카메라 모델은 영역의 스킬 인디케이터와 시야 결정 박스 사이의 상대적 포지션 관계에 따라 이동한다(시야 결정 박스는 가상 환경에서 설정되고 사용자에게 보이지 않는 프레임이다). 2. 카메라 모델은 영역의 스킬 인디케이터에 의해 선택된 영역과 특정 비율에 따라 가상 환경에서 오프셋된다. 3. 카메라 모델은 사용된 영역의 스킬의 타입에 따라 오프셋된다.
본 실시예에서, 카메라 모델은 영역의 스킬 인디케이터로 이동되므로, 사용자는 조준 포지션에서 가상 환경 픽처를 볼 수 있으며, 이에 의해, 사용자의 차단된 시야로 인한 조준의 편차를 방지하고, 인간-기계 상호작용의 효율성을 개선시킨다.
도 2는 본 출원의 예시적인 실시예에 따른 컴퓨터 시스템의 블록 다이어그램이다. 컴퓨터 시스템(100)은 제1 단말(120), 서버(140) 및 제2 단말(160)을 포함한다.
가상 환경을 지원하는 애플리케이션은 설치되어 제1 단말(120)에 실행된다. 애플리케이션은 VR 애플리케이션, 3D 맵 프로그램, 군사 시뮬레이션 프로그램, FPS 게임, MOBA 게임, 멀티플레이어 슈팅 서바이벌 게임, 배틀 그라운드 슈팅 게임 중 어느 하나일 수 있다. 제1 단말(120)은 제1 사용자에 의해 사용되는 단말이고, 제1 사용자는 제1 단말(120)을 사용하여 이동을 수행하도록 가상 환경에서 제1 마스터 가상 캐릭터를 제어한다. 이동은 신체 자세 조정, 걷기, 달리기, 점핑, 스킬을 해제, 픽킹-업(picking-up), 공격, 및 다른 가상 캐릭터의 공격 피하기 중 적어도 하나를 포함하지만, 이들에 제한되지 않는다. 개략적으로, 제1 마스터 가상 캐릭터는 제1 가상 인물, 예를 들어, 시뮬레이션된 인물 캐릭터 또는 만화 인물 캐릭터이다. 개략적으로, 제1 마스터 가상 캐릭터는 가상 환경에서 영역의 스킬을 해제하고, 가상 환경 픽처는 마스터 가상 캐릭터가 영역의 스킬 인디케이터에 의해 선택된 타깃 영역에 위치하는 포지션으로부터 이동한다. 영역의 스킬 인디케이터는 마스터 가상 캐릭터가 스킬을 해제할 때 스킬 액션 영역을 선택하기 위해 사용된다.
제1 단말(120)은 무선 네트워크 또는 유선 네트워크를 사용하여 서버(140)에 연결된다.
서버(140)는 하나의 서버, 복수의 서버들, 클라우드 컴퓨팅 플랫폼(cloud computing platform), 및 가상화 센터(virtualization center) 중 적어도 하나를 포함한다. 개략적으로, 서버(140)는 프로세서(144) 및 메모리(142)를 포함한다. 메모리(142)는 수신 모듈(1421), 제어 모듈(1422), 및 전송 모듈(1423)을 더 포함한다. 수신 모듈(1421)은 클라이언트에 의해 전송된 팀 요청과 같은 요청을 수신하도록 구성된다. 제어 모듈(1422)은 가상 환경 픽처의 렌더링을 제어하도록 구성된다. 전송 모듈(1423)은 팀 성공 알림과 같은 메시지 알림을 클라이언트에 전송하도록 구성된다. 서버(140)는 3D 가상 환경을 지원하는 애플리케이션을 위한 백엔드 서비스(backend service)를 제공하도록 구성된다. 선택적으로, 서버(140)는 1차 컴퓨팅 작업을 담당하고, 제1 단말(120) 및 제2 단말(160)은 2차 컴퓨팅 작업을 담당하며, 대안적으로, 서버(140)는 2차 컴퓨팅 작업을 담당하고, 제1 단말(120) 및 제2 단말(160)은 1차 컴퓨팅 작업을 담당하며, 대안적으로, 서버(140), 제1 단말(120) 및 제2 단말(160) 사이의 분산 컴퓨팅 아키텍처를 이용하여 협업 컴퓨팅(collaborative computing)을 수행한다.
제2 단말(160)은 무선 네트워크 또는 유선 네트워크를 이용하여 서버(140)에 연결된다.
가상 환경을 지원하는 애플리케이션은 설치되어 제2 단말(160)에 실행된다. 애플리케이션은 VR 애플리케이션, 3D 맵 프로그램, 군사 시뮬레이션 프로그램, FPS 게임, MOBA 게임, 멀티플레이어 슈팅 서바이벌 게임, 배틀 로얄 슈팅 게임 중 어느 하나일 수 있다. 제2 단말(160)은 제2 사용자에 의해 사용되는 단말이고, 제2 사용자는 제2 단말(160)을 사용하여 이동을 수행하도록 가상 환경에서 제2 마스터 가상 캐릭터를 제어한다. 이동은 신체 자세 조정, 걷기, 달리기, 점핑, 스킬을 해제, 픽킹-업, 공격, 및 다른 가상 캐릭터의 공격 피하기 중 적어도 하나를 포함하지만, 이들에 제한되지 않는다. 개략적으로, 제2 마스터 가상 캐릭터는 제2 가상 인물, 예를 들어, 시뮬레이션된 인물 캐릭터 또는 만화 인물 캐릭터이다.
선택적으로, 제1 가상 인물 캐릭터와 제2 가상 인물 캐릭터는 동일한 가상 환경에 위치한다. 선택적으로, 제1 가상 인물 캐릭터와 제2 가상 인물 캐릭터는 같은 팀 또는 같은 조직에 속하고, 친구 관계를 가지거나 임시 통신 권한을 가질 수 있다.
선택적으로, 제1 단말(120) 및 제2 단말(160)에 설치된 애플리케이션들은 동일하거나, 2개의 단말들에 설치된 애플리케이션들은 서로 다른 제어 시스템 플랫폼들에 대한 동일한 타입의 애플리케이션들이다. 제1 단말(120)은 일반적으로 복수의 단말들 중 하나일 수 있고, 제2 단말(160)은 일반적으로 복수의 단말들 중 하나일 수 있다. 본 실시예에서는, 제1 단말(120) 및 제2 단말(160)만을 예들로서 설명을 위해 사용된다. 제1 단말(120) 및 제2 단말(160)은 동일하거나 서로 다른 디바이스 타입들이다. 디바이스 타입은 스마트폰, 태블릿 컴퓨터, 전자책 리더기(e-book reader), 동영상 전문가 그룹 오디오 레이어 III(MP3) 플레이어, 동영상 전문가 그룹 오디오 레이어 IV(MP4) 플레이어, 랩탑, 및 데스크탑 컴퓨터 중 적어도 하나를 포함한다. 다음의 실시예는 단말이 스마트폰을 포함하는 예를 사용하여 설명한다.
당업자는 더 많거나 더 적은 단말들이 있을 수 있다는 것을 알 수 있다. 예를 들어, 단말이 하나만 있을 수도 있거나, 수십 또는 수백 개 이상의 단말들이 있을 수도 있다. 단말들의 수량 및 디바이스 타입은 본 출원의 실시예들에서 제한되지 않는다.
도 3은 본 출원의 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 방법의 흐름도이다. 본 방법은 도 2에 도시된 컴퓨터 시스템(100)에서 제1 단말(120) 또는 제2 단말(160), 또는 컴퓨터 시스템에서 다른 단말에 의해 수행될 수 있다. 본 방법은 다음 단계들을 포함한다.
단계 301: 제1 가상 환경 픽처를 디스플레이하고, 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이한다.
사용자에 의해 사용되는 단말은 가상 환경을 지원하는 애플리케이션을 실행한다. 사용자가 애플리케이션을 실행할 때, 이에 대응하여, 단말의 디스플레이 스크린은 해당 애플리케이션을 사용하는 사용자 인터페이스(User Interface, UI)를 디스플레이한다. UI에는 가상 환경 픽처가 포함되어 있다. 가상 환경 픽처에 디스플레이되는 가상 환경은 다음 요소들, 즉 산, 평야, 강, 호수, 바다, 사막, 하늘, 식물, 건물, 및 차량 중 적어도 하나를 포함한다.
일부 실시예들에서, 가상 환경은 임의의 경계 형상을 갖는 가상 환경이다. 예를 들어, 가상 환경은 마름모의 형상이다. 사용자는 가상 환경에 대응하는 맵을 보고 가상 환경의 전체 픽처를 브라우징할 수 있다. 가상 환경에는 카메라 모델이 제공된다. 카메라 모델은 가상 환경 픽처들을 획득하기 위해 다른 시각들에서 가상 환경을 관찰하도록 구성된다.
시각은 관찰이 가상 환경에서 마스터 가상 캐릭터의 1인 시각 또는 3-인 시각에서 실행되는 관찰 각도이다.
선택적으로, 카메라 모델은 가상 환경에서 마스터 가상 캐릭터를 자동으로 따른다. 즉, 가상 환경에서 마스터 가상 캐릭터가 위치하는 포지션이 가상 환경에서 변경되는 경우에, 카메라 모델은 마스터 가상 캐릭터가 가상 환경에 위치하는 포지션과 동시에 변경되고, 카메라 모델은 가상 환경에서 마스터 가상 캐릭터의 미리 설정된 거리 범위에 항상 위치한다. 선택적으로 자동 후속 과정에서, 카메라 모델과 마스터 가상 캐릭터 간의 상대 포지션은 변경되거나 변경되지 않은 상태로 유지된다.
카메라 모델은 가상 환경에서 마스터 가상 캐릭터 주위에 위치하는 3D 모델이다. 1인 시각이 사용될 때, 카메라 모델은 마스터 가상 캐릭터의 머리 근처 또는 마스터 가상 캐릭터의 머리에 위치한다. 3인 시각이 사용되는 경우, 카메라 모델은 마스터 가상 캐릭터 뒤에 위치하고 마스터 가상 캐릭터에 바인딩 되거나, 마스터 가상 캐릭터로부터 미리 설정된 거리만큼 떨어진 임의의 포지션에 위치할 수 있다. 3D 가상 환경에 위치한 마스터 가상 캐릭터는 카메라 모델을 이용하여 다양한 각도들에서 관찰할 수 있다. 선택적으로, 3인 시각이 1인 어깨 너머의 시각일 때, 카메라 모델은 마스터 가상 캐릭터 뒤(예를 들어, 가상 인물 캐릭터의 머리 또는 어깨들)에 위치한다. 선택적으로, 1인 시각 및 3인칭 시각에 추가하여, 시각은 다른 시각들, 예를 들어 아래를 내려다보는 시각(look-down perspective)을 채택하는 경우에, 아래를 내려다보는 시각을 포함하고, 카메라 모델은 마스터 가상 캐릭터의 머리 위에 위치할 수 있고, 아래를 내려다보는 시각은 공중에서 아래를 내려다보는 각도로부터 가상 환경을 관찰하기 위한 시각이다. 선택적으로 카메라 모델은 가상 환경에 실제로 디스플레이되지 않는다. 다시 말해, 카메라 모델은 UI에 디스플레이되는 가상 환경 픽처에 디스플레이되지 않는다.
마스터 가상 캐릭터로부터 미리 설정된 거리만큼 떨어진 임의의 포지션에 카메라 모델이 위치하는 예를 사용하여 설명한다. 선택적으로 마스터 가상 캐릭터는 카메라 모델에 대응한다. 카메라 모델은 마스터 가상 캐릭터를 중심으로 회전할 수 있다. 예를 들어 카메라 모델은 마스터 가상 캐릭터의 임의의 포인트를 중심으로 회전한다. 회전 과정에서, 카메라 모델은 각도로 회전할 뿐만 아니라 변위로 오프셋된다. 회전하는 동안, 카메라 모델과 회전 중심 사이의 거리는 변경되지 않는다. 즉, 카메라 모델은 회전 중심을 구 중심으로 사용하여 구면에서 회전되며, 여기서, 마스터 가상 캐릭터의 임의의 포인트는 마스터 가상 캐릭터의 머리 및 몸통 또는 마스터 가상 캐릭터 주위의 임의의 포인트일 수 있지만, 본 출원의 실시예들에서는 이들에 제한되지 않는다. 선택적으로, 카메라 모델이 마스터 가상 캐릭터를 관찰하는 경우에, 카메라 모델의 시점의 중심 방향은 구 중심을 가리키는 카메라 모델이 위치한 구면의 한 포인트의 방향을 가리킨다.
선택적으로, 카메라 모델은 미리 설정된 각도에서 마스터 가상 캐릭터의 다른 방향들로부터 마스터 가상 캐릭터를 더 관찰할 수 있다.
개략적으로, 도 4를 참조하면, 마스터 가상 캐릭터(11)에서 포인트는 회전 중심(12)으로 결정되고, 카메라 모델은 회전 중심(12)을 중심으로 회전한다. 선택적으로, 카메라 모델에는 초기 포지션이 제공된다. 초기 포지션은 마스터 가상 캐릭터의 뒤 및 위의 포지션(예를 들어, 두뇌의 후방 포지션)이다. 개략적으로, 도 4에 도시된 바와 같이, 초기 포지션은 포지션 13이다. 카메라 모델이 포지션 14 또는 포지션 15로 회전할 때, 카메라 모델의 시각 방향은 카메라 모델의 회전으로서 변경된다.
일부 실시예들에서, 카메라 모델의 시각은 사용자에 의한 수동 조작을 통해 전환된다. 예를 들어, 사용자는 가상 환경에 대응하는 맵 상에서 보려는 타깃을 선택하고, 카메라 모델은 사용자에 의해 실행되는 조작에 따라 사용자에 의해 선택된 타깃에 대응하는 시각으로 시각을 전환한다. 이러한 시각의 가상 환경 픽처는 사용자에 의해 선택한 타깃을 디스플레이하며 사용자에 의해 제어되는 마스터 가상 캐릭터를 디스플레이하지 않는다.
제1 관찰 포지션은 카메라 모델이 제1 카메라 포지션(예를 들어, 도 4에서 포지션 14)에서 가상 환경을 관찰할 때 가상 환경에서 대응하는 관찰 포지션이다. 카메라 모델의 렌즈에서 시작하여 관찰 방향(또는 카메라 방향)을 따라 투영되는 직선과 가상 환경 사이에는 교차 지점이 있다. 교차 지점은 관찰 포지션이다. 제1 관찰 포지션은 가상 환경에서 임의의 포지션에 해당하고, 제1 관찰 포지션은 마스터 가상 캐릭터가 위치하는 포지션을 포함한다.
제1 영역은 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 영역이다. 제1 영역은 원형, 직사각형 또는 불규칙한 형상과 같은 임의의 형상일 수 있다. 일부 실시예들에서, 제1 영역은 단말의 디스플레이 스크린을 통해 사용자가 보는 영역이다. 일부 다른 실시예들에서, 제1 영역은 디스플레이 스크린 상에 디스플레이된 영역을 벗어나거나(영역은 가상 환경의 일부임), 제1 영역은 전체 가상 환경에 대응하는 영역이다.
제1 가상 환경 픽처는 마스터 가상 캐릭터가 영역의 스킬을 해제하지 않은 경우 해당 가상 환경 픽처일 수 있거나, 마스터 가상 캐릭터가 영역의 스킬을 한 번 해제한 후의 해당 가상 환경 픽처일 수 있다.
마스터 가상 캐릭터는 가상 환경에서 이동 가능한 객체이다. 마스터 가상 캐릭터는 가상 인물, 가상 동물, 만화 인물 등일 수 있다. 다른 가상 캐릭터들은 가상 환경에서 다른 스킬들을 해제한다. 스킬들은 스킬들, 예를 들어, 영역의 스킬들, 방향 스킬들, 자동-잠금 스킬들 등의 해제 방식들에 따라 복수의 타입으로 분류될 수 있다. 사용자가 가상 환경에서 영역의 스킬이 해제되는 스킬 액션 영역을 선택한 후, 스킬은 스킬 액션 영역에서 마스터 가상 캐릭터에 의해 해제된다. 사용자가 가상 환경에서 해제 방향을 선택한 후, 방향 스킬은 마스터 가상 캐릭터에 의해 선택된 방향으로 해제된다. 자동-잠금 스킬은 해제할 때 해제를 위해 마스터 가상 캐릭터 근처에 위치한 타깃 유닛을 자동으로 잠근다. 본 출원의 본 실시예는 마스터 가상 캐릭터가 영역의 스킬을 해제하는 예를 사용하여 설명된다.
스킬은 가상 캐릭터가 다른 가상 캐릭터(다른 가상 캐릭터 및 가상 캐릭터 자체 포함)를 공격하고 디버프(debuff) 또는 버프(buff)를 생성하기 위해 사용되거나 해제되는 능력이다. 스킬들은 액티브 스킬들 및 패시브 스킬들이 있다. 액티브 스킬은 가상 캐릭터에 의해 능동적으로 사용되거나 해제되는 스킬이다. 패시브 스킬은 패시브 조건이 충족되면 자동으로 트리거되는 스킬이다. 예시적으로, 본 실시예에서 언급된 스킬은 사용자에 의해 제어되는 마스터 가상 캐릭터에 의해 능동적으로 사용 및 해제되는 액티브 스킬이다.
단계(302): 조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터를 디스플레이하고, 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되고, 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우의 스킬 액션 영역이다.
영역의 스킬은 스킬을 해제할 때 해제를 위해 마스터 가상 캐릭터가 스킬 액션 영역을 선택할 필요가 있는 스킬이다. 마스터 가상 캐릭터는 영역의 스킬 인디케이터를 사용하여 가상 환경에서 타깃 영역을 선택하고 타깃 영역에서 영역의 스킬을 해제한다. 해제할 때, 영역의 스킬은 타깃 영역에 위치한 가상 유닛에 스킬 효과를 생성한다. 예를 들어, 가상 유닛은 가상 캐릭터, 크리스털, 진지, 방어 타워 등을 포함한다. 일부 실시예들에서, 마스터 가상 캐릭터는 다음과 같은 방식으로 영역의 스킬을 해제한다. 사용자는 영역의 스킬의 해제 조작(또는 조준 조작)을 수행하여, 예를 들어 영역의 스킬의 해제 제어를 트리거하여, 영역의 스킬 인디케이터를 제어하기 위한 휠 가상 조이스틱을 디스플레이하고 가상 환경 픽처에 영역의 스킬 인디케이터를 디스플레이한다. 사용자는 휠 가상 조이스틱을 제어함으로써 가상 환경에서 영역의 스킬 인디케이터의 포지션을 제어할 수 있다. 영역의 스킬 인디케이터는 가상 환경의 임의의 포지션에 위치할 수 있다. 영역의 스킬 인디케이터에 의해 선택된 영역은 영역의 스킬의 스킬 액션 영역을 나타내며, 스킬 액션 영역은 가상 환경에서 영역의 스킬 인디케이터에 의해 식별되는 타깃 영역이기도 하다. 스킬의 해제 조작이 사용자가 휠 가상 조이스틱을 드래그 하여 타깃 영역을 선택하도록 영역의 스킬 인디케이터를 제어한 후 손을 해제하는 예에서, 사용자가 손을 해제(드래그 조작을 중지)할 때, 영역의 스킬 인디케이터에 의해 현재 선택된 영역은 타깃 영역으로 사용되며, 마스터 가상 캐릭터는 타깃 영역에서 영역의 스킬을 해제한다. 영역의 스킬의 스킬 액션 영역은 원형, 직사각형, 삼각형, 다각형, 불규칙한 형상 등의 임의의 형상일 수 있다. 본 출원의 본 실시예는 액션 영역이 원형인 예를 사용하여 설명된다. 예시적으로, 영역의 스킬 인디케이터의 형상은 영역의 스킬의 스킬 액션 영역의 형상과 동일하다.
일부 실시예들에서, 타깃 영역과 제1 영역 사이에 부분적으로 중첩되는 영역이 있다. 즉, 타깃 영역의 일부가 제1 영역 외부에 위치하거나, 타깃 영역이 제1 영역과 중첩되지 않는, 즉 타깃 영역이 제1 영역 외부에 위치한다.
사용자에 의해 사용되는 단말이 스마트폰이나 태블릿 컴퓨터와 같이 터치 디스플레이 스크린을 갖는 단말인 경우, 조준 조작은 사용자가 UI 컨트롤을 트리거함으로써 생성되거나, 영역의 스킬을 해제하고 터치 디스플레이 스크린에 구현되는 제스처 조작을 통해 생성된다. 일부 실시예들에서, UI 컨트롤은 또한 스킬 해제 컨트롤 또는 영역의 스킬 해제 컨트롤로 명명된다. 본 출원의 실시예에서는 컨트롤의 명칭은 제한되지 않는다.
사용자에 의해 사용되는 단말이 외부 입력 디바이스, 예를 들어 데스크탑 컴퓨터, 또는 노트북 컴퓨터에 연결된 단말일 때, 조준 조작은 사용자가 외부 입력 디바이스를 트리거함으로써 생성된다. 예를 들어, 사용자는 마스터 가상 캐릭터를 제어하기 위해 데스크탑 컴퓨터에 연결된 마우스나 핸들을 클릭하여 영역의 스킬을 해제한다.
단계(303): 제2 가상 환경 픽처를 디스플레이하며, 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 제2 관찰 포지션은 제1 관찰 포지션에 대해 오프셋된 포지션이며, 제2 영역은 타깃 영역을 포함한다.
카메라 모델은 제1 카메라 포지션에서 제2 카메라 포지션으로 이동(도 4에 도시된 바와 같이, 포지션 14에서 포지션 13으로 이동)되어 제2 가상 환경 픽처를 형성한다. 제2 관찰 포지션은 카메라 모델이 제2 카메라 포지션에서 가상 환경을 관찰할 때 가상 환경에서 획득되는 제2 가상 환경 픽처의 중심에 대응하는 관찰 포지션이다. 제2 관찰 포지션은 제1 관찰 포지션을 기준으로 오프셋팅(offsetting)함으로써 획득된다. 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 형성된다.
제2 영역은 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 영역이다. 제2 영역은, 원형, 직사각형, 또는 불규칙한 형상과 같은 임의의 형상일 수 있다. 타깃 영역은 제2 영역에 위치한다. 일부 실시예들에서, 제2 영역은 단말의 디스플레이 스크린을 통해 사용자가 보는 가상 환경의 영역 범위이다.
제2 가상 환경 픽처는, 조준 조작에 따라 영역의 스킬 인디케이터가 디스플레이될 때, 영역의 스킬의 타깃 영역을 선택하기 위한 가상 환경 픽처, 즉 영역의 스킬이 해제되기 이전에 조준 과정에서 디스플레이되는 가상 환경 픽처이다. 예시적으로, 제2 가상 환경 픽처는 대안적으로 조준 조작에 따른 영역의 스킬 인디케이터를 이용하여 가상 환경에서 타깃 영역이 선택된 후에 타깃 영역에 영역의 스킬이 해제될 때 디스플레이되는 가상 환경 픽처, 즉, 영역의 스킬이 해제될 때 디스플레이되는 가상 환경 픽처이다.
상기에 기초하여, 본 실시예에서 제공되는 방법에서, 클라이언트는 조준 조작을 수신하고, 조준 조작을 통해 선택된 타깃 영역에 따라, 타깃 영역에 영역의 스킬 인디케이터를 디스플레이하고, 선택된 타깃 영역에 따라 가상 환경 픽처의 관찰 센터를 조정하기 때문에, 가상 환경 픽처는 전체 타깃 영역을 포함한다. 클라이언트는 타깃 영역을 관찰 센터로 사용하여 가상 환경 픽처에 전체 타깃 영역을 디스플레이하기 때문에, 사용자는 영역의 스킬의 스킬 액션 영역을 관찰하고, 해제된 영역의 스킬의 액션 범위를 결정할 수 있으며, 이에 의해, 스킬을 해제하는 정확도를 향상시키며, 인간-기계 상호작용의 효율성을 향상시킨다. 가상 환경 픽처의 디스플레이 방식을 최적화함으로써, 사용자는 보다 완전한 영역의 스킬 인디케이터를 볼 수 있으므로, 사용자는 공격 타깃을 조준하기 위해 영역의 스킬 인디케이터를 보다 정확하게 제어할 수 있으며, 이에 의해, 사용자 조작들의 효율성을 향상하고 조준 조작을 통해 타깃 영역을 정확하게 선택하는 시간을 줄일 수 있고, 사용자가 스킬의 액션 영역을 정확하게 관찰할 수 없기 때문에 사용자가 장기간 조준 조작을 수행하는 경우를 방지하고, 조준 과정 동안 클라이언트의 실효성이 없는 계산들을 더욱 줄이고, 클라이언트의 실행 효율성을 향상시킨다.
가상 환경 픽처를 디스플레이하기 위한 방법은 UI를 참조하여 설명된다.
도 5는 본 출원의 다른 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 방법의 흐름도이다. 본 방법은 도 2에 도시된 컴퓨터 시스템(100)에서 제1 단말(120) 또는 제2 단말(160), 또는 컴퓨터 시스템의 다른 단말에 의해 수행될 수 있다. 본 방법은 다음 단계들을 포함한다.
단계(501): 제1 가상 환경 픽처를 디스플레이하며, 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 제1 가상 환경 픽처는 가상 환경에 위치된 마스터 가상 캐릭터를 디스플레이한다.
개략적으로, 사용자에 의해 사용되는 단말이 스마트폰을 포함하는 예가 사용된다. 도 6에 도시된 바와 같이, 단말의 디스플레이 스크린에는 게임 프로그램의 UI가 디스플레이된다. UI는 제1 가상 환경 픽처(60)를 디스플레이하고, 제1 가상 환경 픽처(60)는 마스터 가상 캐릭터(61)를 포함한다. 제1 가상 환경 픽처(60)는 제1 영역을 포함한다. 제1 영역은 제1 가상 환경 픽처(60)에 의해 디스플레이되는 영역만큼 큰 영역이다.
일예에서, 제1 영역은 제1 가상 환경 픽처(60)에 의해 디스플레이되는 영역이고, 마스터 가상 캐릭터(61)는 제1 영역에 위치한다.
UI는 UI 컨트롤(62)을 더 포함한다. UI 컨트롤(62)은 UI 컨트롤이 사용자에 의해 트리거 될 때 가상 환경에서 스킬을 해제하도록 마스터 가상 캐릭터를 제어하도록 구성된다. 일부 실시예들에서, 사용자는 상이한 타입들의 스킬들을 해제하기 위해 상이한 UI 컨트롤(62)을 트리거 한다. 본 출원의 본 실시예는 마스터 가상 캐릭터가 영역의 스킬을 해제하도록 제어되는 예를 사용하여 설명된다.
단계(502): 조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터를 디스플레이하고, 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되며, 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우 스킬 액션 영역이다.
개략적으로, 사용자는 UI에 대한 UI 컨트롤을 트리거하고, 단말은 조준 조작을 수신한다. 한 예에서, UI 컨트롤(62)은 영역의 스킬을 해제하기 위해 마스터 가상 캐릭터를 제어하도록 구성된다. 사용자가 UI 컨트롤(62)을 클릭할 때, 도 7에 도시된 휠 가상 조이스틱이 디스플레이된다. 휠 가상 조이스틱은 휠 부분(63)과 조이스틱 부분(64)을 포함한다. 조이스틱 부분(64)을 드래그 함으로써, 영역의 스킬 인디케이터(65)는 도 8에 도시된 가상 환경에 포지션을 디스플레이하도록 제어된다. 일부 실시예들에서, 조이스틱 부분(64)은 대안적으로 삼각형 또는 직사각형과 같은 다른 형상일 수 있거나, 조이스틱 부분(64)은 영역의 스킬 인디케이터의 중앙에서 휠 부분(63)의 가장자리로 향하는 레이(ray)이다. 가상 환경에서 영역의 스킬 인디케이터에 의해 선택된 타깃 영역은 레이의 방향을 통해 지시된다.
개략적으로, 영역의 스킬 인디케이터(65)는 원형이고, 영역의 스킬 인디케이터(65)에 의해 식별되는 영역은 마스터 가상 캐릭터가 영역의 스킬을 해제하는 타깃 영역이다. 타깃 영역은 원형이고 영역의 스킬의 액션 범위는 타깃 영역이다. 일부 실시예들에서, 타깃 영역의 에어리어(에어리어)는 영역의 스킬의 액션 범위와 관련되거나 영역의 스킬의 타입과 관련된다. 예를 들어, 영역의 스킬의 액션 범위가 클수록, 타깃 영역의 에어리어는 더 넓어진다.
일부 실시예들에서, 영역의 스킬 인디케이터(65)는 선택 영역(66)에서 해제되고, 선택 영역(66)은 타깃 영역을 선택하기 위해 영역의 스킬 인디케이터(65)에 대한 선택 범위를 제공하기 위해 사용된다. 선택 영역(66)은 가상 환경의 일부일 수 있거나, 전체 가상 환경에 대응하는 영역일 수 있다. 선택적으로, 선택 영역은 마스터 가상 캐릭터가 위치하는 포지션을 중심으로 하는 영역이다. 선택 영역의 형상은 임의적일 수 있다. 예를 들어 선택 영역은 원형이다.
일부 실시예들에서, 영역의 스킬을 해제하는 방식은 마스터 가상 캐릭터가 가상 환경에서 타깃 영역을 선택하고 타깃 영역에서 스킬을 해제하는 것일 수 있다. 예시적으로, 해제된 스킬은 타깃 영역에 위치한 가상 유닛에 효과를 생성한다. 예를 들어, 가상 유닛은 가상 캐릭터, 크리스탈, 진지, 방어 타워 등을 포함한다. 대안적으로, 해제된 영역의 스킬은 타깃 영역에서 가상 환경에 대한 효과를 생성하는데, 예를 들어, 타깃 영역의 지형 속성을 변경하거나, 타깃 영역에 새로운 지형을 생성하거나, 타깃 영역에 트랩을 배치하고, 또는 해제된 영역의 스킬은 마스터 가상 캐릭터를 타깃 영역과 연관시키는데, 예를 들어 가상 캐릭터를 타깃 영역으로 전송한다.
단계(503): 오프셋 방식에 따라 카메라 모델을 제1 카메라 포지션에서 제2 카메라 포지션으로 이동하고, 제1 카메라 포지션은 제1 관찰 포지션에 해당하고, 제2 카메라 포지션은 제2 관찰 포지션에 해당한다.
카메라 모델은 가상 환경에 제공된다. 카메라 모델은 가상 환경 픽처를 획득하기 위해 가상 환경을 관찰하도록 구성된다. 제1 가상 환경 픽처는 카메라 모델의 포지션을 변경함으로써 디스플레이를 위한 제2 가상 환경 픽처로 전환된다.
도 4에 도시된 바와 같이, 개략적으로, 제1 카메라 포지션은 포지션 13이다. 포지션 13에서 카메라 모델에 의해 관찰되거나 캡처된 가상 환경의 픽처는 제1 가상 환경 픽처이다. 카메라 모델은 오프셋 방식에 따라 제2 카메라 포지션으로 이동한다. 제2 카메라 포지션은 포지션 15이다. 포지션 15에서 카메라 모델에 의해 관찰되거나 캡처된 가상 환경의 픽처는 제2 가상 환경 픽처이다.
일부 실시예들에서, 오프셋 방식은 카메라 모델의 이동 속도를 포함한다. 예를 들어, 카메라 모델은 제1 카메라 포지션에서 제2 카메라 포지션으로 일정한 속도로 이동한다. 일부 다른 실시예들에서, 오프셋 방식은 카메라 모델이 이동하도록 트리거하는 방식을 포함한다. 즉, 트리거 조건이 충족된 후에, 카메라 모델이 이동하도록 트리거 된다. 일부 다른 실시예들에서, 카메라 모델의 이동 방식은 카메라 모델의 이동 거리를 포함한다. 예를 들어, 마스터 가상 캐릭터에 의해 해제되는 영역의 스킬의 액션 범위가 상대적으로 작을 때, 카메라 모델의 이동 거리는 상대적으로 작거나, 마스터 가상 캐릭터에 의해 해제되는 영역의 스킬의 액션 범위는 비교적 크고, 카메라 모델의 이동 거리는 상대적으로 크다. 본 출원의 본 실시예는 오프셋 방식이 카메라 모델이 이동하도록 트리거하는 방식을 포함하는 예를 사용하여 설명된다.
카메라 모델의 오프셋 방식은 제1 오프셋 방식 및 제2 오프셋 방식 중 적어도 하나를 포함한다. 카메라 모델이 제1 오프셋 방식으로 오프셋될 때, 단계(503)는 다음 단계들로 대체될 수 있다.
단계(503a): 영역 기준점이 시야 결정 박스 외부에 위치하는 것에 응답하여, 영역 기준점과 시야 결정 박스의 프레임 사이의 거리에 따라 제1 오프셋 방식으로 카메라 모델의 제1 오프셋을 결정하며, 영역 기준점은 타깃 영역의 중심점을 기준으로 결정된다.
제1 오프셋 방식은 카메라 모델이 시야 결정 박스에 기초하여 오프셋되는 방식이며, 시야 결정 박스는 카메라 모델의 시야 범위를 지시하도록 구성된다. 시야 결정 박스는 가상 환경 픽처에 설정된 보이지 않는 프레임이다. 시야 결정 박스는 카메라 모델의 관찰 센터를 중심점으로 사용하고 하고 수평면에 평행한 프레임이다. 시야 결정 박스의 적어도 하나의 프레임은 카메라 모델의 관찰 방향에 수직이다.
시야 결정 박스의 형상은 단말의 디스플레이 스크린 형상(및 다른 요인)에 따라 결정된다. 시야 결정 박스의 중심은 가상 환경에서 카메라 모델이 조준되는 포지션이다. 단말의 스크린이 직사각형인 예에서, 가상 환경에서 카메라 모델이 조준되는 포지션은 시야 결정 박스의 중심으로 사용하고, 시야 결정 박스의 길이 및 폭은 스크린의 길이와 폭에 따라 결정된다. 시야 결정 박스의 크기는 스크린보다 약간 작다. 시야 결정 박스의 긴 측면은 카메라 모델의 관찰 방향에 수직이고 짧은 측면은 카메라 모델의 관찰 방향과 평행하거나, 또는 시야 결정 박스의 짧은 측면은 카메라 모델의 관찰 방향에 수직이고 긴 측면은 카메라 모델의 관찰 방향과 평행하다. 예시적으로, 시야 결정 박스는 가상 환경에서 카메라 모델의 이동에 의해 이동한다. 예시적으로, 카메라 모델이 오프셋되지 않고 카메라 모델이 마스터 가상 캐릭터가 관찰 센터로 위치하는 포지션을 사용할 때, 시야 결정 박스의 중심도 마스터 가상 캐릭터가 위치하는 포지션에 위치한다.
도 9에 도시된 바와 같이, 시야 결정 박스(67)는 가상 환경 픽처에 디스플레이된다. 시야 결정 박스(67)는 대안적으로 원형, 삼각형, 다각형 등일 수 있다. 시야 결정 박스(67)의 형상은 본 출원의 본 실시예에서 제한되지 않는다. 시야 결정 박스(67)의 크기는 미리 설정되거나, 카메라 모델의 오프셋 거리에 따라 설정되거나, 영역의 스킬의 액션 범위에 따라 설정될 수 있다. 시야 결정 박스(67)의 크기는 본 출원의 본 실시예에서 제한되지 않는다. 본 출원의 본 실시예에서, 시야 결정 박스(67)는 단지 예로서 사용된다. 실제 상황에서는 시야 결정 박스(67)가 가상 환경 픽처에 디스플레이되지 않는다. 즉, 사용자는 UI 상에서 시야 결정 박스(67)를 볼 수 없다.
도 9에 도시된 바와 같이, 영역 기준점(68)은 영역의 스킬 지표(65)의 중심점에 기초하여 결정된다. 영역 기준점(68)이 시야 결정 박스(67) 외부에 있을 때, 카메라 모델은 오프셋되도록 트리거 된다. 제1 오프셋 방식의 카메라 모델의 제1 오프셋은 영역 기준점(68)과 시야 결정 박스(67) 사이의 거리에 기초하여 계산된다.
단계(504a): 제1 오프셋에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동한다.
카메라 모델은 단계(503a)에서 계산된 제1 오프셋에 따라 오프셋되며, 제1 오프셋은 카메라 모델의 제1 이동 방향 및 제1 이동 거리를 포함한다.
본 실시예에서 제공되는 방법에서, 시야 결정 박스가 설정되고, 카메라 모델의 제1 오프셋이 시야 결정 박스에 따라 결정되므로, 카메라 모델은 해당 포지션으로 정확하게 이동될 수 있으며, 이에 의해, 카메라 모델의 포지션에 따라 제2 가상 환경 픽처를 정확하게 디스플레이한다.
카메라 모델이 제2 오프셋 방식으로 오프셋될 때, 단계(503)는 다음 단계로 대체될 수 있다.
단계(503b): 지시 방향에 따라 제2 오프셋 방식으로 카메라 모델의 제2 오프셋을 결정한다.
제2 오프셋 방식은 지시 방향에 기초하여 오프셋팅의 방식이며, 지시 방향은 마스터 가상 캐릭터가 타깃 영역의 중심점에 위치한 포지션을 가리키는 방향이다.
도 10에 도시된 바와 같이, 영역의 스킬 인디케이터(65)는 가상 환경 픽처에 디스플레이된다. 영역의 스킬 인디케이터(65)는 중심점(68)에 대응한다. 영역의 스킬 인디케이터(65)는 영역의 스킬이 해제되는 타깃 영역을 식별한다. 사용자는 선택 영역(66)에서 영역의 스킬 인디케이터(65)의 해제 포지션을 선택한다.
가상 환경 픽처는 지시 방향(69)을 더 디스플레이한다. 지시 방향은 마스터 가상 캐릭터가 위치한 포지션으로부터 영역의 스킬 인디케이터의 중심점, 즉 타깃 영역의 중심점을 가리킨다.
제2 오프셋 방식의 카메라 모델의 제2 오프셋은 지시 방향과 수평 방향 사이의 각도, 지시 방향에 대응하는 거리, 및 오프셋 비율에 따라 결정된다.
단계(504b): 제 2 오프셋에 따라 제 1 카메라 포지션에서 제 2 카메라 포지션으로 카메라 모델을 이동한다.
카메라 모델은 단계(504a)에서 결정된 제2 오프셋에 따라 오프셋되며, 제2 오프셋은 카메라 모델의 제2 이동 방향 및 제2 이동 거리를 포함한다.
본 실시예에서 제공되는 방법은 해당 각도, 고정된 오프셋 거리, 오프셋 비율은 카메라 모델의 제2 오프셋을 결정하기 위해 영역의 스킬 인디케이터에 의해 지시되는 방향을 통해 획득되므로, 마스터 가상 캐릭터에 의해 해제되는 스킬의 액션 범위의 변화는 상대적으로 크고, 카메라 모델은 제2 오프셋에 따라 해당 포지션으로 정확하게 오프셋될 수 있고, 제2 가상 환경 픽처는 정확하게 디스플레이될 수 있다.
단계(505): 카메라 모델이 위치한 제2 카메라 포지션에 따라 제2 가상 환경 픽처를 디스플레이한다.
카메라 모델이 제2 카메라 포지션으로 이동된 후, 제2 카메라 포지션에서 캡처되거나 관찰된 픽처는 제2 가상 환경 픽처로 디스플레이된다. 제2 가상 환경 픽처는 가상 환경의 제2 카메라 포지션에서 관찰된 제2 영역을 포함하고, 제2 영역은 영역의 스킬 인디케이터에 의해 식별된 타깃 영역을 포함한다.
상술한 제1 오프셋 방식 및 제2 오프셋 방식은 개별적으로 또는 조합하여 구현될 수도 있거나, 다른 오프셋 방식과 조합하여 구현될 수도 있음을 알 수 있다.
상기에 기초하여, 본 실시예에서 제공되는 방법에서, 클라이언트는 상이한 오프셋 방식들로 제1 카메라 포지션에서 제2 카메라 포지션으로 이동하도록 카메라 모델을 제어하므로, 영역의 스킬 인디케이터에 의해 선택된 전체 타깃 영역은 가상 환경에서 카메라 모델에 의해 캡처된 가상 환경 픽처에 디스플레이되며, 사용자는 가상 환경 픽처에서 영역의 스킬의 스킬 액션 영역을 더 완전히 관찰할 수 있고, 스킬 액션 영역에 기초하여 해제된 영역의 스킬의 액션 범위를 결정할 수 있으며, 이에 의해, 사용자가 느낌에 기초하여 가상 환경에서 영역의 스킬을 해제하도록 마스터 가상 캐릭터를 제어하는 경우를 감소시키고, 스킬을 해제하는 정확도를 향상시키고, 인간-기계 상호작용의 효율성을 향상시키고, 조준 과정에서 사용자의 실효성이 없는 조작들을 감소시키며, 실효성이 없는 조작들에 의해 야기되는 클라이언트의 논리의 계산량을 감소시키며, 스킬 해제 조작을 수신하는 경우에 클라이언트의 실행 효율성을 향상시킨다.
카메라 모델은 상이한 오프셋 방식들로 상이한 오프셋들에 대응한다. 클라이언트는 상이한 오프셋들에 따라 오프셋되도록 카메라 모델을 제어하므로, 카메라 모델은 해당 포지션의 가상 환경 픽처를 정확하게 캡처할 수 있고, 해당 가상 환경 픽처는 UI에 정확하게 디스플레이될 수 있다.
제1 오프셋 및 제2 오프셋을 결정하기 위한 방법들은 각각 아래에 설명된다.
도 5에 기초한 선택적인 실시예에서, 카메라 모델이 제1 오프셋 방식으로 오프셋될 때, 전술한 단계(503a)는 다음 단계로 대체될 수 있다.
단계(5031a): 영역 기준점이 시야 결정 박스 외부에 위치한다는 것에 응답하여 영역 기준점과 시야 결정 박스의 프레임 사이의 수직 거리를 계산하며, 수직 거리는 가로 방향의 수직 거리 및 세로 방향의 수직 거리 중 적어도 하나를 포함하고, 가로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 세로 방향의 프레임 사이의 수직 거리이고, 세로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 프레임 사이의 수직 거리이다.
예시적으로, 가로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 세로 방향의 프레임 사이의 수직 거리이고, 세로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 가로 방향의 프레임 사이의 수직 거리이다.
도 11에 도시된 바와 같이, 영역의 스킬 인디케이터(65)와 시야 결정 박스(67) 사이의 수직 거리들은 가로 방향의 수직 거리(70)와 세로 방향의 수직 거리(71)를 포함한다. 가로 방향의 수직 거리(70)는 영역 기준점(68)에서 시야 결정 박스(67)까지의 수직 거리이다.
개략적으로, 직사각형 평면 좌표계는 마스터 가상 캐릭터를 원점으로 사용하고, 카메라 모델에 수직인 관찰 방향을 x축으로 사용하고, 카메라 모델과 평행한 관찰 방향을 y축으로 사용하여 가상 환경에서 설정된다. 개략적으로, 가로 방향 수직 거리(70)가 계산된다. 영역 기준점(68)의 좌표들이 (x1, y1)이고, 시야 결정 박스(67) 상에 있고 영역 기준점(68)으로부터 수직 거리를 지시하는 포인트의 좌표들이 (x2, y1)인 경우, 가로 방향의 수직 거리(70)는 (x1-x2)이고, 세로 방향의 수직 거리는 0이다(2개의 포인트들의 수직 좌표들은 동일하다).
유사하게, 세로 방향의 수직 거리(71)가 계산된다. 영역 기준점(68)의 좌표들이 (x3, y3)이고, 시야 결정 박스(67) 상에 있고 영역 기준점(68)으로부터 수직 거리를 지시하는 포인트의 좌표들이 (x3, y4)인 경우, 세로 수직 거리(71)는 (x3-x4)이고, 가로 방향의 수직 거리는 0이다(2개의 포인트의 수평 좌표들은 동일하다).
단계(5032a): 제1 오프셋 방식으로 카메라 모델의 제1 오프셋으로 수직 거리를 결정한다.
제1 오프셋 방식에서, 제1 오프셋은 제1 가로 방향의 수직 거리 및 제1 세로 수직 거리 중 적어도 하나를 포함한다.
상기에 기초하여, 본 실시예에서 제공되는 방법에서, 시야 결정 박스가 설정되고, 카메라 모델의 제1 오프셋은 시야 결정 박스와 영역 기준점 사이의 수직 거리에 따라 계산되므로, 카메라 모델의 좌표들은, 카메라 모델이 타깃 포지션으로 이동할 때, 정확하게 결정할 수 있고, 카메라 모델은 타깃 포지션으로 정확하게 이동하도록 더 제어될 수 있다.
도 5에 기초한 선택적인 실시예에서, 개략적으로, 사용자가 휠 가상 조이스틱을 드래그 함으로써 영역의 스킬 인디케이터의 배치 포지션을 제어할 때, 드래그 하는 동안, 영역 기준점은 시야 결정 박스에서 재배치될 수 있다. 이 경우에, 카메라 모델은 다음과 같은 방식으로 이동될 수 있다.
단계(1): 영역 기준점이 시야 결정 박스에서 재배치되는 것에 응답하여 카메라 모델을 제2 카메라 포지션에서 제3 카메라 포지션으로 이동하며, 제3 카메라 포지션은 제2 카메라 포지션과 제1 카메라 포지션 사이에 위치하고, 제3 카메라 포지션은 제3 관찰 포지션에 대응한다.
개략적으로, 전술한 실시예의 제2 가상 환경 픽처를 예로서 사용하여, 제2 가상 환경 픽처는 픽처 그룹의 i번째 프레임에 대응한다. 이 경우, 영역 기준점은 시야 결정 박스 외부에 위치하며, 카메라 모델은 시야 결정 박스와 영역 기준점 사이의 거리에 따라 제1 오프셋 방식으로 제1 오프셋을 결정한다. 제1 오프셋에 따라 카메라 모델이 오프셋된 후에, 픽처는 (i+1)번째 프레임에 들어간다. 가상 환경에서 영역의 스킬 인디케이터가 해제되지 않을 때, 시야 결정 박스는 자동으로 영역 기준점에 접근하므로, 영역 기준점은 시야 결정 박스 내에 위치한다. 이 경우에, 카메라 모델은 제2 카메라 포지션에서 제3 카메라 포지션으로 이동된다. 카메라 모델은 제2 카메라 포지션에서 제1 카메라 포지션으로 이동되고 제1 카메라 포지션에 도달하지 않는데, 이는 "스프링" 효과를 생성하는 것과 유사하다. 즉, 사용자가 휠 가상 조이스틱을 드래그 하여 영역의 스킬 인디케이터를 제1 방향으로 이동하도록 제어할 때, 카메라 모델은 영역의 스킬 인디케이터와 함께 이동한다. 사용자가 휠 가상 조이스틱을 드래그 하여 영역의 스킬 인디케이터를 제1 방향과 반대 방향으로 이동하도록 제어할 때, 카메라 모델은 영역의 스킬 인디케이터와 함께 제1 방향과 반대 방향으로 이동한다.
제3 카메라 포지션에 위치한 카메라 모델에 따라 제3 가상 환경 픽처를 디스플레이하며, 제3 가상 환경 픽처는 제3 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제3 영역을 포함하고, 제3 영역은 타깃 영역을 포함한다.
카메라 모델이 "스프링"과 유사한 리트렉션 이동(retraction movement)을 수행할 때, 제3 가상 환경 픽처는 카메라 모델의 포지션에 따라 디스플레이된다. 영역의 스킬 인디케이터에 의해 선택된 타깃 영역은 항상 제3 가상 환경 픽처에 해당하는 영역에 디스플레이된다. 제1 영역 및 제2 영역과 유사하게, 제3 영역은 제3 가상 환경 픽처에 디스플레이되는 가상 환경 내의 영역을 포함한다.
상기에 기초하여, 본 실시예에서 제공되는 방법에서, 사용자는 영역의 스킬 인디케이터를 다시 제어하여 타깃 영역을 선택하므로, 영역의 스킬 인디케이터의 영역 기준점은 시야 결정 박스에 재배치되고, 사용자는 카메라 모델을 제어하여 제3 카메라 포지션으로 이동하도록 제어하는데, 즉, 카메라 모델을 "후퇴(pulls back)"하여, 영역 기준점이 원래 가상 환경 픽처 외부에 있을 때 오프셋되도록 카메라 모델을 제어하고, 영역 기준점이 원래 가상 환경 픽처에 있을 때 카메라 모델을 동시에 후퇴하도록 제어하며, 이에 의해, 카메라 모델이 오프셋될 때 카메라 모델의 연속성을 향상시켜, 사용자가 조작 및 관찰하는 데 도움이 된다.
도 5에 기초한 선택적인 실시예에서, 카메라 모델이 제2 오프셋 방식으로 오프셋될 때, 전술한 단계(503b)는 다음 단계로 대체될 수 있다.
단계(5031b): 디스플레이 방향과 수평 방향 사이의 각도를 획득한다. 수평 방향은 가상 환경에서 수평면에 평행하고 카메라 모델의 관찰 방향에 수직이다.
지시 방향은 마스터 가상 캐릭터로부터 타깃 영역의 중심점을 가리키는 방향이며, 예를 들어, 도 10에 도시된 지시 방향(69)이다.
도 12에 도시된 바와 같이, 가상 환경이 위치한 평면(200)에는 마스터 가상 캐릭터(204), 수평 방향(203) 및 다른 가상 캐릭터(207)가 존재한다. 마스터 가상 캐릭터(204)는 카메라 모델(201)에 해당한다. 카메라 모델(201)의 관찰 방향(202)은 수평 방향(203)에 수직이고, 수평 방향(203)은 가상 환경의 수평면(즉, 가상 환경이 위치한 평면(200))에 평행한다. 카메라 모델(201)의 관찰 방향(202)은 수평면과 45°이다. 일부 실시예들에서, 관찰 방향(202)은 수평면과 60°또는 90°이며, 이는 본 출원의 실시예에서 제한되지 않는다.
단계(5032b): 지시 방향에 대응하는 카메라 모델의 고정된 오프셋 거리를 획득한다.
지시 방향과 수평 방향 사이에 특정 각도가 있을 때, 지시 방향에 대응하는 고정된 오프셋 거리가 획득된다. 일부 실시예들에서, 고정된 오프셋 거리는 실제 지시 방향에 따라 미리 설정되거나 설정된다. 일부 실시예들에서, 지시 방향은 위, 아래, 좌측, 우측, 좌측 상단, 좌측 하단, 우측 상단, 우측 하단 중 어느 하나를 포함한다. 고정된 오프셋 거리는 가로 방향의 오프셋 거리 및 세로 방향의 오프셋 거리 중 적어도 하나를 포함한다.
단계(5033b): 제2 오프셋 방식으로 카메라 모델의 오프셋 비율을 획득하며, 오프셋 비율은 비율에 따라 이동하도록 카메라 모델에 명령하는 데 사용된다.
영역의 스킬 인디케이터는 선택 영역에서 타깃 영역을 임의로 선택할 수 있다. 따라서, 영역의 스킬 인디케이터에 의해 선택된 타깃 영역에 대응하는 서로 다른 지시 방향들에 따라 카메라 모델의 오프셋들은 또한 상이하다.
단계(5034b): 각도, 고정된 오프셋 거리, 및 오프셋 비율에 따라 제2 오프셋을 결정한다.
제2 오프셋은 가로 방향의 오프셋 및 세로 방향의 오프셋 중 적어도 하나를 포함한다.
가로 방향의 오프셋 및 세로 방향의 오프셋을 결정하는 방법들은 각각 아래에 설명된다.
1. 각도의 코사인 값, 가로 방향의 오프셋 거리, 및 오프셋 비율의 곱에 따라 가로 방향의 오프셋을 결정한다.
가로 방향의 오프셋 거리는 좌측 오프셋 거리 및 우측 오프셋 거리 중 적어도 하나를 포함한다. 좌측과 우측은 각각 가상 환경 픽처의 포워드 방향에 기초한다. 좌측 오프셋 거리는 가상 환경 픽처의 좌측면에 의해 가리키는 방향에 대응하는 오프셋 거리이고, 우측 오프셋 거리는 가상 환경 픽처의 우측면에 의해 가리키는 방향에 대응하는 오프셋 거리이다.
오프셋 비율은 제1 거리 대 제2 거리의 비율이다. 제1 거리는 마스터 가상 캐릭터가 위치한 포지션과 타깃 영역의 중심점 사이의 거리이다. 제2 거리는 선택 영역의 반경이다. 선택 영역은 타깃 영역을 선택하기 위해 영역의 스킬 인디케이터에 대한 선택 범위를 제공하기 위해 사용된다.
도 13에 도시된 바와 같이, 영역의 스킬 인디케이터(65)는 선택 영역(66)의 에지에 위치하고, 영역의 스킬 인디케이터의 중심점은 C이며, 마스터 가상 캐릭터가 위치한 포지션은 A이며, 선택 영역(66) 상에 포인트 B가 있다. 제1 거리는 거리 AC이고, 제2 거리는 거리 AB이며, 오프셋 비율은 AC/AB이다. 일부 실시예들에서, 마스터 가상 캐릭터가 위치하는 포지션이 선택 영역의 중심일 때, 제2 거리는 선택 영역의 반경이다. 일부 다른 실시예에서, 마스터 가상 캐릭터가 위치하는 포지션이 선택 영역의 중심이 아닐 때, 제2 거리는 마스터 가상 캐릭터가 위치하는 포지션과 선택 영역의 에지 사이의 거리이다.
카메라 모델의 가로 방향의 오프셋 X는 다음 공식들을 사용하여 계산될 수 있다.
X=cosα*x*(AC/AB)
여기서, α는 지시 방향과 수평 방향 사이의 각도이고, x는 고정된 값인 가로 방향의 오프셋 거리이며, AC/AB는 오프셋 비율이다.
2. 각도의 사인 값, 세로 방향의 오프셋 거리, 및 오프셋 비율의 곱에 따라 세로 방향의 오프셋을 결정한다.
세로 방향의 오프셋 거리는 상부 오프셋 거리 및 하부 오프셋 거리 중 적어도 하나를 포함한다. 상부 및 하부는 각각 가상 환경 픽처의 포워드 방향에 기초한다. 상부 오프셋 거리는 가상 환경 픽처의 상부면에 의해 가리키는 방향에 대응하는 오프셋 거리이고, 하부 오프셋 거리는 가상 환경 픽처의 하부면에 의해 가리키는 방향에 대응하는 오프셋 거리이다.
가로 방향의 오프셋 계산하기 위한 방법과 유사하게, 카메라 모델의 세로 방향의 오프셋 Y는 다음 공식을 사용하여 계산될 수 있다.
Y=sinα*y*(AC/AB)
여기서, α는 지시 방향과 수평 방향 사이의 각도이고, y는 고정된 값인 세로 방향의 오프셋 거리이며, AC/AB는 오프셋 비율이다.
상기에 기초하여, 본 실시예에서 제공되는 방법에서, 영역의 스킬 인디케이터에 의해 지시된 방향에 대응하는 파라미터들(지시 방향과 수평 방향 사이의 각도, 지시 방향에 대응하는 고정된 오프셋 거리 및 오프셋 비율을 포함)이 획득되어 카메라 모델의 제2 오프셋을 계산하므로, 카메라 모델은 마스터 가상 캐릭터에 의해 해제되는 스킬의 비율 및 액션 범위에 따라 이동될 수 있고, 영역의 스킬 인디케이터는 가상 환경 픽처에 완전히 디스플레이되며, 이에 의해, 인간-기계의 상호작용의 효율성을 향상시킨다.
전술한 실시예들에서 카메라 모델을 이동시킴으로써 제2 가상 환경 픽처를 디스플레이하는 것에 더하여, 일부 실시예들에서, 카메라 모델에 의해 캡처된 가상 환경 픽처는 대안적으로, 카메라 모델에 대응하는 렌즈의 초점 거리를 변경하거나, 카메라 모델의 관찰 방향과 가상 환경의 각도를 변경, 예를 들어 가상 환경에 대한 카메라 모델의 피치 각도 및 편향 각도를 변경함으로써 변경될 수 있으므로, 카메라 모델은 다른 각도들에서의 관찰 방향들로부터 다른 가상 환경 픽처들을 캡처한다.
본 출원의 실시예들은 가상 환경 픽처를 디스플레이하기 위한 방법의 흐름도 프레임워크를 제공한다. 도 14에 도시된 바와 같이, 본 방법의 흐름도 프레임워크는 다음과 같다.
사용자가 가상 환경에서 영역의 스킬을 사용하기 위해 마스터 가상 캐릭터를 제어할 때(1401), 카메라 모델은 영역의 스킬 인디케이터를 능동적으로 조준한다.
카메라 모델은 이동을 수행한다(1402).
마스터 가상 캐릭터가 성공적으로 영역의 스킬을 해제하거나, 영역의 스킬의 해제를 취소할 때, 카메라 모델은 원래의 포지션으로 이동된다(1403).
카메라 모델이 마스터 가상 캐릭터가 영역의 스킬을 사용하지 않을 때 해당 가상 환경 픽처를 캡처하거나 영역의 스킬을 한 번 사용하는 종료 순간에 해당 가상 환경 픽처를 캡처할 때 카메라 모델에 해당하는 카메라 포지션은 원래의 포지션이다.
일부 실시예들에서, 카메라 모델에는 렌즈가 제공되고, 렌즈는 실제 상황에 따라 변경될 수 있으므로, 단말의 디스플레이 스크린에 다른 가상 환경 픽처들이 디스플레이될 수 있다. 예를 들어, 가상 환경에서 가상 유닛을 확대하기 위한 해당 렌즈가 사용되는 경우, 가상 환경 픽처에 디스플레이되는 가상 유닛은 더 커진다.
일부 실시예들에서, 가상 환경에서 카메라 모델의 3D 포지션 좌표들은 렌즈 앵커 포인트에 의해 표현된다. 본 출원의 본 실시예에서, 카메라 모델의 렌즈 앵커 포인트의 수평 좌표와 수직 좌표(즉, 평면 좌표들)만이 변경되며, 이는 카메라 모델의 높이 포지션의 좌표가 변경되지 않음을 지시한다. 즉, 카메라 모델과 가상 환경 사이의 상대 거리는 변경되지 않거나, 카메라 모델과 마스터 가상 캐릭터 사이의 상대 거리가 변경되지 않는다.
카메라 모델이 상대적으로 큰 오프셋을 가질 때 카메라 모델에 의해 디스플레이되는 가상 환경 픽처가 사용자에게 어지러움을 유발하는 것을 방지하기 위해, 일반적으로 카메라 모델이 오프셋될 때 최대 거리가 제한된다. 오프셋이 최대 거리에 도달할 때, 카메라 모델은 이동을 정지한다.
일부 실시예들에서, 카메라 모델이 제2 오프셋 방식으로 이동할 때, 카메라 모델의 높이 포지션에 대응하는 좌표는 변경될 수 있다. 예를 들어, 카메라 모델은 카메라 모델과 가상 환경 사이의 상대적인 거리를 증가시키기 위해 리프팅될 수 있으므로, 카메라 모델은 더 넓은 에어리어를 갖는 가상 환경을 캡처할 수 있고, 가상 환경 픽처에 더 많은 콘텐츠가 디스플레이되며, 사용자는 마스터 가상 캐릭터에서 더 멀리 떨어진 가상 유닛(가상 환경에서 다른 가상 캐릭터 또는 가상 객체)을 볼 수 있다.
상기에 기초하여, 사용자가 가상 환경에서 영역의 스킬 인디케이터를 사용하도록 마스터 가상 캐릭터를 제어할 때, 카메라 모델은 영역의 스킬 인디케이터를 능동적으로 따르므로, 사용자는 완전한 영역의 스킬 인디케이터, 즉, 영역의 스킬 인디케이터에 의해 조준되는 타깃 영역을 볼 수 있으며, 이에 의해, 인간-기계의 상호작용의 효율성을 향상시킨다.
본 출원의 실시예들은 카메라 모델의 오프셋을 계산하는 시스템 프레임워크를 제공한다. 본 시스템 프레임워크는 다음과 같다.
S1: 카메라 모델의 스킬 오프셋 및 글로벌 오프셋을 획득된다.
카메라 모델 도구 세트(1501)(CameraActionUtils)는 렌즈 모듈 도구 세트라고도 하며 대중에게 다양한 조작들에 대응하는 인터페이스들을 제공하며, 조작들은 이동, 회전, 카메라 모델의 리프팅 또는 렌즈의 리프팅을 포함한다.
카메라 모델 컨트롤러(1502)(CameraController)는 렌즈 컨트롤러라고도 하며 주로 카메라 모델 또는 렌즈의 다양한 데이터를 관리하고 렌즈 모듈 도구 세트 내부에 각각의 인터페이스들을 제공하도록 구성된다.
카메라 모델 솔루션(1503)(CameraAction)은 렌즈 솔루션이라고도 하며 카메라 모델의 이동 동안 다양한 데이터를 설정하도록 구성된다. 이동은 예를 들어 등속 모션(uniform motion), 차동 모션(difference motion) 또는 평활 댐핑 모션(smooth damping motion)이다.
스킬 오프셋 처리(1504a)(LocalMoveComponent)는 마스터 가상 캐릭터가 스킬을 해제하고 카메라 모델이 타깃 포지션에 도달할 때까지 카메라 모델이 매 프레임 이동될 때 렌즈 솔루션으로부터 솔루션 파라미터들을 획득하기 위한 것이다. 스킬 오프셋은 오프셋 방식에 따라 결정되며, 오프셋 방식은 전술한 실시예들에서 제1 오프셋 방식 및 제2 오프셋 방식 중 적어도 하나일 수 있다. 흐름도 프레임워크는 기본 카메라 포지션으로 돌아가도록 스킬 오프셋을 기반으로 오프셋된 카메라 모델을 제어하게 되는 궤적 리턴(SetLocalPosOff)(1505a)을 더 포함한다는 것을 알 수 있다.
글로벌 오프셋 프로세싱(1504b)(GlobalMoveComponent)은 도 16에 도시된 바와 같이 글로벌-공통 드래그 조작들에 따라 오프셋하도록 카메라 모델을 제어하기 위한 것이다. 글로벌 오프셋은 카메라 모델의 제어 명령어에 따라 결정된다. 제어 명령어는 맵을 드래그 하는 명령어, 미니맵 보기 명령어, 가상-유닛 시각을 지정하는 명령어, 및 총알(bullet)을 따라가는 명령어 중 적어도 하나를 포함한다. 맵을 드래그 하는 명령어는 맵에서 선택된 위치에 해당하는 가상 환경 픽처를 전환 및 디스플레이하기 위해 사용된다. 미니맵 보기 명령어는 가상 환경을 나타내는 맵을 열고 해당 가상 유닛을 맵에서 보기 위해 사용된다. 가상-유닛 시각을 지정하는 명령어는 선택된 가상 유닛의 시각에서 가상 환경을 관찰하기 위해 사용된다. 예를 들어, 마스터 가상 캐릭터는 마스터 가상 캐릭터가 죽은 후에도 팀원의 시각에서 가상 환경을 계속해서 관찰한다. 총알을 따라가는 명령어는, 마스터 가상 캐릭터에 의해 해제된 스킬의 액션 범위가 상대적으로 크거나 해제된 스킬이 총알을 전달할 때, 카메라 모델이 스킬의 동작 방향으로 이동하거나 스킬이 해제될 때까지 날아가는 총알을 따라가도록 지시하기 위해 사용된다. 흐름도 프레임워크는 글로벌 오프셋을 기반으로 오프셋된 카메라 모델을 디폴트 카메라 포지션으로 리턴하도록 제어하는 글로벌 리턴(SetGlobalPosOff)(1505b)을 추가로 포함하는 것을 알 수 있다.
S2: 스킬 오프셋과 글로벌 오프셋의 합을 카메라 모델의 오프셋으로 결정한다.
카메라 모델이 이동될 때 충돌이 발생하는 경우를 줄이기 위해, 카메라 모델의 오프셋은 스킬 오프셋과 글로벌 오프셋으로 분류된다.
스킬 오프셋의 프레임워크는 도 4에 도시되어 있다. 스킬 오프셋은 마스터 가상 캐릭터가 스킬을 해제할 때 카메라 모델에 의해 생성되는 오프셋이다. 스킬 오프셋은 전술한 실시예들에 관련된 제1 오프셋 및 제2 오프셋 중 적어도 하나를 포함하고, 다른 오프셋을 더 포함한다. 다른 오프셋은 마스터 가상 캐릭터에 의해 해제되는 스킬의 타입에 따라 결정되는 카메라 모델의 오프셋이다. 도 18에 도시된 바와 같이, 마스터 가상 캐릭터(80)가 스킬을 해제할 때, 스킬의 액션 범위는 부채꼴 형상이다. 따라서, 카메라 모델은 액션 범위에 따라 가상 환경 픽처의 하부 우측 코너로 오프셋되므로, 스킬 인디케이터는 가상 환경 픽처에 완전히 디스플레이된다.
일부 실시예들에서, 카메라 모델의 최종 오프셋은 글로벌 오프셋, 스킬 오프셋, 및 렌즈 높이 중 적어도 하나를 포함한다.
오프셋이 획득되는 후에, 카메라 모델은 오프셋에 따라 이동될 필요가 욕 있다. 일부 실시예들에서, 카메라 모델의 이동 방식은 오프셋 방식에 따라 획득된다. 이동 방식은 예를 들어 등속 모션, 평활 댐핑 모션, 차동 모션 중 적어도 하나를 포함한다. 카메라 모델은 이동 방식에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 이동하도록 제어된다.
등속 모션은 구성된 시간 내에 카메라 모델이 제1 카메라 포지션에서 제2 카메라 포지션으로 일정한 속도로 이동하도록 제어하는 것이다. 이 모션 방식은 리드미컬한 변화(rhythmic change)가 부족하다.
평활 댐핑 모션은 댐핑 기능이 있는 함수를 호출함으로써 획득되는 모션, 예를 들어 Vector3.SmoothDamp() 함수를 사용하여 제어되는 카메라 모델의 이동이므로, 카메라 모델은 움직이는 과정에서 오버슈트(overshoot)를 발생시키지 않도록 한다.
차동 모션은 카메라 모델의 포지션, 타깃 포지션, 및 차동 비율에 따라 수행되는 모션이다. 카메라 모델은 Vector3.Lerp(s, e, t) 함수를 사용하여 이동하도록 제어되며, 여기서, s는 현재 오프셋 값이고, t는 0에서 1로 변경된다. 카메라 모델은 t가 1로 변경될 때까지 이동한다.
일예에서, 현재 포지션과 타깃 포지션 사이의 거리는 10이고, 차이 비율은 0.1이다. 각각의 프레임은 현재 포지션에서 타깃 포지션까지의 거리의 차이 비율만큼 이동한다. 예를 들어, 제1 프레임은 현재 포지션 0에서 타깃 포지션 10까지의 거리의 차이 비율 0.1만큼 이동하는데, 즉, 현재 포지션 1로 이동하고, 제2 프레임은 현재 포지션 1에서 타깃 포지션 10까지의 거리의 차이 비율 0.1만큼 이동하는데, 즉, 현재 포지션 1.9로 이동하며, 제3 프레임은 현재 포지션 1.9에서 타깃 포지션 10까지의 거리의 차이 비율 0.1만큼 이동하는데, 즉, 현재 포지션 2.71로 이동하는, 등으로 이동한다.
다른 예에서, 이동의 최소 속도가 설정된다. 현재 이동 속도가 최소 속도미만이면, 오프셋은 최소 속도로 수행된다.
다른 예에서, 차이 비율 증가분 a가 설정되고, 각각의 프레임의 차이 비율은 차이 비율 증가분 a를 통해 변경된다. 예를 들어, 현재 포지션과 타깃 포지션 사이의 거리가 10이고, 차이 비율은 0.2이고, 비율 증가분이 0.03인 경우, 제1 프레임은 현재 포지션 0에서 타깃 포지션 10까지의 거리의 차이 비율 0.2만큼 이동하는데, 즉 현재 포지션 2로 이동하며, 제2 프레임은 현재 포지션 2에서 타깃 포지션 10까지의 거리의 0.23만큼 이동하는데, 즉, 현재 포지션 3.84로 이동하는, 등으로 이동한다.
도 19에 도시된 바와 같이, 카메라 모델의 오프셋 프로세스는 3개의 상태들로 분류된다.
오프셋 입력을 위한 대기(IDLE): 카메라 모델의 오프셋이 있거나 오프셋이 완료되었다.
대기 지연(FAR): 사용자가 영역의 스킬 인디케이터를 드래그할 때 생성되는 오프셋, 및
리턴의 대기 중 지연(BACK): 카메라 모델은 마스터 가상 캐릭터가 영역의 스킬을 해제한 후에 원점으로 리턴한다.
이동 솔루션들은 카메라 모델의 스킬 해제 및 리턴을 각각 나타내는 파(Far) 및 백(Back) 모두에 대해 지정될 수 있다. 즉, 2개의 솔루션들이 스킬 해제를 위해 사용될 수 있다.
또한, 지연 시간(DelayTime)이 설정될 수 있으므로, 카메라 모델의 상태는 아이들(IDLE)에서 파(FAR)로 또는 백(BACK)에서 아이들(IDLE)로 변경될 때, 카메라 모델은 즉시 오프셋되지 않고, 버퍼링 효과가 시각적으로 생성된다.
상기에 기초하여, 카메라 모델의 총 오프셋은 글로벌 오프셋과 스킬 오프셋의 합에 기초하여 계산된다. 사용자가 맵을 슬라이드하여 카메라 모델에 의해 캡처된 가상 환경 픽처를 변경하고 가상 환경 픽처를 넘어선 영역의 스킬 인디케이터를 사용하는 경우, 카메라 모델은 전술한 2개의 오프셋을 참조하여 카메라 모델의 총 오프셋을 결정함으로, 서로 다른 조작들에 의해 생성된 카메라 모델의 오프셋 효과들은 충돌하지 않으며, 이에 의해, 계산의 어려움을 감소시킨다.
전술한 방법은 전술한 실시예들에서 게임 애플리케이션 시나리오를 기반으로 설명되었으며, 다음은 군사 시뮬레이션 애플리케이션 시나리오를 기반으로 하는 전술한 방법에 대한 예시적인 설명이다.
시뮬레이션 기술은 시스템의 거동(behavior)이나 프로세스가 실제 세계를 시뮬레이션하는 실험을 통해 소프트웨어와 하드웨어를 이용하여 반영되는 모델 기술이다.
군사 시뮬레이션 프로그램은 시뮬레이션 기술을 이용하여 군사 애플리케이션을 위해 특별히 구축된 프로그램이며, 이는 해상, 공중, 지상과 같은 전투 요소들, 무기 장비 성능, 배틀 액션들, 등에 대한 정량적 분석을 수행하여, 배틀 필드 환경(battlefield environment)을 정확하게 시뮬레이션하고 배틀 필드 상황을 제시하며, 이에 의해, 배틀 시스템 평가 및 결정 지원들을 구현한다.
한 예에서, 군인들은 군사 시뮬레이션 프로그램이 있는 단말에 가상 배틀 필드를 설정하고 팀들과 싸운다. 군인은 가상 배틀 필드 환경에서 마스터 가상 캐릭터를 제어하여, 가상 배틀 필드 환경에서 서기, 쪼그려 앉기, 앉기, 뒤로 눕기, 엎드려 눕기, 옆으로 눕기, 걷기, 달리기, 오르기, 운전, 사격, 던지기, 공격, 부상, 탐지, 근접 전투 및 다른 액션들 중 적어도 하나의 조작을 수행한다. 가상 배틀 필드 환경은 다음과 같은, 평야, 산, 고원, 분지, 사막, 강, 호수, 바다, 초목의 자연 형태들과, 건물, 차량, 유적지(ruins), 훈련장 등의 현장 형태들 중 적어도 하나를 포함한다. 마스터 가상 캐릭터는 가상 인물 캐릭터, 가상 동물 캐릭터, 만화 인물 캐릭터 등을 포함한다. 각각의 마스터 가상 캐릭터는 3D 가상 환경에서 형상 및 크기를 가지며 3D 가상 환경에서 일부 공간을 차지한다.
전술한 상황에 기초하여, 일예에서, 배틀을 위한 가상 환경에서 2개의 그룹들에 군인들에 의해 제어되는 마스터 가상 캐릭터들이 있다. 개략적으로, 제1 팀에서 군인 A에 의해 제어되는 마스터 가상 캐릭터 a와 제2 팀에서 군인 B에 의해 제어되는 마스터 가상 캐릭터 b가 있다. 카메라 모델이 가상 환경에 제공되며, 카메라 모델은 군인들이 볼 수 있는 가상 환경 픽처들을 캡처한다.
마스터 가상 캐릭터 a가 위치하는 가상 환경은 제1 가상 환경 픽처에 해당한다. 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 하는 가상 환경 픽처이다. 제1 관찰 포지션에 해당하는 카메라 모델은 제1 카메라 포지션에 위치한다. 군인 A가 마스터 가상 캐릭터를 제어하여 군인 B에 의해 제어되는 마스터 가상 캐릭터 b를 공격하고, 마스터 가상 캐릭터 b는 제1 가상 환경 픽처에 있지 않다. 군인 A는 영역의 스킬을 해제하는 조준 조작을 수행하고 마스터 가상 캐릭터 a를 제어하여, 영역의 스킬 인디케이터를 배치하도록 가상 캐릭터 b가 가상 환경에 위치하는 영역을 선택한다.
개략적으로, 카메라 모델은 군인 A의 조작으로 제1 오프셋 방식으로 오프셋된다. 군인 A에게 보이지 않는 시야 결정 박스가 가상 환경에 제공된다. 시야 결정 박스는 카메라 모델의 관찰 센터를 중심점으로 하고 수평면에 평행한 직사각형이다. 시야 결정 박스의 적어도 하나의 프레임은 카메라 모델의 관찰 방향에 수직이다. 영역 기준점은 영역의 스킬 인디케이터의 중앙에 설정된다. 개략적으로 영역의 스킬 인디케이터는 원형이고 영역 기준점은 영역의 스킬 인디케이터의 중심이다. 영역의 스킬 인디케이터의 중심이 시야 결정 박스 외부에 있을 때, 영역 기준점과 시야 결정 박스의 프레임 사이의 거리가 계산된다. 거리는 제1 가로 방향의 오프셋 거리 및 제1 세로 방향의 오프셋 거리 중 적어도 하나를 포함하는 카메라 모델의 오프셋이다.
카메라 모델은 오프셋 거리에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 전환된다. 제2 카메라 포지션은 제2 관찰 포지션에 해당하고, 제2 가상 환경 픽처가 제2 관찰 포지션을 관찰 센터로 하여 디스플레이된다. 군인 A는 제2 가상 환경 픽처에서 영역의 스킬 인디케이터에 의해 선택된 타깃 영역을 볼 수 있으며, 이에 의해, 영역의 스킬 인디케이터를 해제하여 마스터 가상 캐릭터 b를 공격한다.
개략적으로, 카메라 모델은 군인 A의 조작에 의해 제2 오프셋 방식으로 오프셋된다. 선택 영역이 가상 환경에 디스플레이되고, 선택 영역은 영역의 스킬 인디케이터가 타깃 영역을 선택하는 범위이다. 마스터 가상 캐릭터 a는 영역의 스킬 인디케이터를 사용하여 마스터 가상 캐릭터 b에게 더 큰 액션 범위를 가진 영역의 스킬을 해제한다. 개략적으로 영역의 스킬 인디케이터는 원형이고, 영역 기준점은 영역의 스킬 인디케이터의 중심이다. 선택 영역은 또한 원형이다.
카메라 모델은 군인 A의 조작에 따라 영역의 스킬 인디케이터의 지시 방향과 지시 방향과 수평 방향 사이의 각도를 결정하고, 지시 방향에 따라 오프셋 방향에서 대응하는 카메라 모델의 고정된 오프셋 거리를 결정한다. 고정된 오프셋 거리는 제2 가로 방향의 오프셋 거리 및 제2 세로 방향의 오프셋 거리 중 적어도 하나를 포함한다. 카메라 모델의 오프셋은 오프셋 방향, 고정된 오프셋 거리, 및 오프셋 비율에 따라 계산된다. 카메라 모델의 오프셋은 가로 방향의 오프셋 및 세로 방향의 오프셋 중 적어도 하나를 포함한다.
가로 방향의 오프셋은 지시 방향과 수평 방향 사이의 각도의 코사인 값, 제2 가로 방향의 오프셋 거리, 및 오프셋 비율의 곱이다. 공식은 다음과 같다.
가로 방향의 오프셋 = cosα*제2 가로 방향의 오프셋 거리*(E/F)
여기서, α는 오프셋 방향과 수평 방향 사이의 각도이고, E는 마스터 가상 캐릭터와 영역 기준점 사이의 거리이고, F는 선택 영역의 반경이며, E/F는 오프셋 비율이다.
세로 방향의 오프셋은 오프셋 방향과 수평 방향 사이의 각도의 사인 값, 제2 세로 방향의 오프셋 거리, 및 오프셋 비율의 곱이다. 공식은 다음과 같다.
세로 방향의 오프셋 = sinα*제2 세로 방향의 오프셋 거리*(E/F)
여기서, α는 오프셋 방향과 수평 방향 사이의 각도이고, E는 마스터 가상 캐릭터와 영역 기준점 사이의 거리이고, F는 선택 영역의 반경이며, E/F는 오프셋 비율이다.
카메라 모델은 오프셋에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 전환된다. 제2 카메라 포지션은 제2 관찰 포지션에 해당하며, 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 디스플레이된다. 군인 A는 제2 가상 환경 픽처에서 영역의 스킬 인디케이터에 의해 선택된 타깃 영역을 볼 수 있으며, 이에 의해, 공격받을 마스터 가상 캐릭터 b를 정확히 조준한다.
상기에 기초하여, 본 실시예에서, 가상 환경 픽처를 디스플레이하기 위한 전술한 방법은 군사 시뮬레이션 프로그램에 적용된다. 카메라 모델이 영역의 스킬 인디케이터에 의해 선택된 타깃 영역에 따라 오프셋되므로, 군인은 조준 영역을 볼 수 있으며, 이에 의해, 군인의 조준 정확도를 향상시키고, 실제 전투 장면을 보다 사실적으로 시뮬레이션을 수행하고, 군인을 위한 더 나은 훈련을 제공한다.
다음은 본 출원의 장치 실시예이다. 장치 실시예에서 상세하게 설명되지 않은 세부 사항은 전술한 방법 실시예들에서 대응하는 기록을 참조할 수 있다. 세부 사항은 여기에서 다시 설명되지 않는다.
도 20은 본 출원의 예시적인 실시예에 따른 가상 환경 픽처를 디스플레이하기 위한 장치의 개략적 구조 다이어그램이다. 본 장치는 소프트웨어, 하드웨어, 또는 이들의 조합을 이용하여 전체 단말 또는 단말의 일부로 구현될 수 있다. 본 장치는,
제1 가상 환경 픽처를 디스플레이하도록 구성된 디스플레이 모듈(2010)로서, 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이하는, 디스플레이 모듈(2010)을 포함하고,
디스플레이 모듈(2010)은, 조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터를 디스플레이하도록 구성되고, 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되며, 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우에 스킬 액션 영역이고,
디스플레이 모듈(2010)은 제2 가상 환경 픽처를 디스플레이하도록 구성되고, 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 제2 관찰 포지션은 제1 관찰 포지션에 대해 오프셋된 포지션이며, 제2 영역은 타깃 영역을 포함한다.
선택적인 실시예에서, 가상 환경에는 카메라 모델이 제공되고, 카메라 모델은 가상 환경 픽처를 획득하기 위해 가상 환경을 관찰하도록 구성되며, 디스플레이 모듈(2010)은 제어 유닛(2020)을 포함한다.
제어 유닛(2020)은 오프셋 방식에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키도록 구성되는데, 여기서, 제1 카메라 포지션은 제1 관찰 포지션에 대응하고, 제2 카메라 포지션은 제2 관찰 포지션에 대응하며, 카메라 모델이 위치한 제2 카메라 포지션에 따라 제2 가상 환경 픽처를 디스플레이하도록 구성된다.
선택적인 실시예에서, 오프셋 방식은 제1 오프셋 방식을 포함하고, 제1 오프셋 방식은 카메라 모델이 시야 결정 박스를 기반으로 오프셋되는 방식이고, 시야 결정 박스는 카메라 모델의 시야 범위를 지시하도록 구성되고, 본 장치는 계산 모듈(2030)을 포함한다.
계산 모듈(2030)은, 영역 기준점이 시야 결정 박스 외부에 위치하는 것에 응답하여, 영역 기준점과 시야 결정 박스의 프레임 사이의 거리에 따라 제1 오프셋 방식으로 카메라 모델의 제1 오프셋을 결정하도록 구성되고, 영역 기준점은 타깃 영역의 중심점에 기초하여 결정된다. 제어 유닛(2020)은 제1 오프셋에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키도록 구성된다.
선택적인 실시예에서, 계산 모듈(2030)은, 영역 기준점이 시야 결정 박스 외부에 위치하는 것에 응답하여, 영역 기준점과 시야 결정 박스의 프레임 사이의 수직 거리를 계산하도록 구성되고, 수직 거리는 가로 방향의 수직 거리 및 세로 방향의 수직 거리 중 적어도 하나를 포함하고, 가로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 세로 방향의 프레임 사이의 수직 거리이고, 세로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 가로 방향의 프레임 사이의 수직 거리이다. 제어 유닛(2020)은 제1 오프셋 방식으로 카메라 모델의 제1 오프셋으로서 수직 거리를 결정하도록 구성된다.
선택적인 실시예에서, 제어 유닛(2020)은, 영역 기준점이 시야 결정 박스에 재위치하는 것에 응답하여, 제2 카메라 포지션에서 제3 카메라 포지션으로 카메라 모델을 이동시키도록 구성되고, 제3 카메라 포지션은 제2 카메라 포지션과 제1 카메라 포지션 사이에 위치하고, 제3 카메라 포지션은 제3 관찰 포지션에 대응한다. 디스플레이 모듈(2010)은 제3 카메라 포지션에 위치한 카메라 모델에 따라 제3 가상 환경 픽처를 디스플레이하도록 구성되고, 제3 가상 환경 픽처는 제3 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제3 영역을 포함하고, 제3 영역은 타깃을 포함한다.
선택적인 실시예에서, 오프셋 방식은 제2 오프셋 방식을 포함하고, 제2 오프셋 방식은 지시 방향에 기초한 오프셋팅의 방식이고, 지시 방향은 마스터 가상 캐릭터가 위치하는 포지션에서 타깃 영역의 중심점으로 가리키는 방향이며, 본 장치는 계산 모듈(2030)을 더 포함한다.
계산 모듈(2030)은 지시 방향에 따라 제2 오프셋 방식으로 카메라 모델의 제2 오프셋을 결정하도록 구성된다.
제어 유닛(2020)은 제2 오프셋에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키도록 구성된다.
선택적인 실시예에서, 계산 모듈(2030)은 획득 유닛(2040)을 포함한다.
획득 유닛(2040)은 지시 방향과 수평 방향 사이의 각도를 획득 - 수평 방향은 가상 환경에서 수평면과 평행하고 카메라 모델의 관찰 방향에 수직임 -하고, 지시 방향에 대응하는 카메라 모델의 고정된 오프셋 거리를 획득하며, 제2 오프셋 방식으로 카메라 모델의 오프셋 비율을 획득 - 오프셋 비율은 비율에 따라 이동하도록 카메라 모델에 지시하기 위해 사용됨 -하도록 구성된다. 계산 모듈(2030)은 각도, 고정된 오프셋 거리, 및 오프셋 비율에 따라 제2 오프셋을 결정하도록 구성된다.
선택적인 실시예에서, 제2 오프셋은 가로 방향의 오프셋을 포함하고, 고정된 오프셋 거리는 가로 방향의 오프셋 거리를 포함한다.
계산 모듈(2030)은 각도의 코사인 값, 가로 방향의 오프셋 거리, 및 오프셋 비율의 곱에 따라 가로 방향의 오프셋을 결정하도록 구성되고, 오프셋 비율은 제1 거리 대 제2 거리의 비율이고, 제1 거리는 마스터 가상 캐릭터가 위치하는 포지션과 타깃 영역의 중심점 사이의 거리이고, 제2 거리는 선택 영역의 반경이고, 선택 영역은 타깃 영역을 선택하기 위한 영역의 스킬 인디케이터에 대한 선택 범위를 제공하기 위해 사용된다.
선택적인 실시예에서, 제2 오프셋은 세로 방향의 오프셋을 포함하고, 고정된 오프셋 거리는 세로 방향의 오프셋 거리를 포함한다.
계산 모듈(2030)은 각도의 사인 값, 세로 방향의 오프셋 거리, 및 오프셋 비율의 곱에 따라 세로 방향의 오프셋을 결정하도록 구성되고, 오프셋 비율은 제1 거리 대 제2 거리의 비율이고, 제1 거리는 마스터 가상 캐릭터가 위치하는 포지션과 타깃 영역의 중심점 사이의 거리이고, 제2 거리는 선택 영역의 반경이며, 선택 영역은 타깃 영역을 선택하기 위한 영역의 스킬 인디케이터에 대한 선택 범위를 제공하기 위해 사용된다.
선택적인 실시예에서, 제어 유닛(2020)은, 오프셋 방식에 따라 카메라 모델의 이동 방식을 획득하도록 구성되는데, 이동 방식은 등속 모션, 차동 모션 및 평활 댐핑 모션 중 어느 하나를 포함하며, 또한, 이동 방식에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 이동하도록 카메라 모델을 제어하도록 구성된다.
선택적인 실시예에서, 오프셋 방식은 카메라 모델의 오프셋에 대응한다.
획득 유닛(2040)은 카메라 모델의 스킬 오프셋 및 글로벌 오프셋을 획득하도록 구성되는데, 스킬 오프셋은 오프셋 방식에 따라 결정되고, 글로벌 오프셋은 카메라 모델의 제어 명령어에 따라 결정되고, 제어 명령어는 맵을 드래그 하는 명령어, 미니맵을 보는 명령어, 및 가상-유닛 시점을 지정하는 명령어 중 적어도 하나를 포함하고, 또한, 기술 오프셋과 글로벌 오프셋의 합을 카메라 모델의 오프셋으로 결정하도록 구성된다.
도 21은 본 출원의 예시적인 실시예에 따른 컴퓨터 디바이스(2100)의 구조 블록 다이어그램이다. 컴퓨터 디바이스(2100)는 예를 들어, 스마트폰, 태블릿 컴퓨터, MP3 플레이어, 또는 MP4 플레이어와 같은 휴대용 모바일 단말일 수 있다. 컴퓨터 디바이스(2100)는 사용자 장비 또는 휴대용 단말과 같은 다른 명칭으로 또한 지칭될 수 있다.
일반적으로, 컴퓨터 디바이스(2100)는 프로세서(2101) 및 메모리(2102)를 포함한다.
프로세서(2101)는 하나 이상의 프로세싱 코어들, 예를 들어, 4-코어 프로세서 또는 8-코어 프로세서를 포함할 수 있다. 프로세서(2101)는 디지털 신호 프로세서(Digital Signal Processor, DSP), 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 프로그램 가능한 로직 어레이(Programmable Logic Array, PLA) 중 적어도 하나의 하드웨어 형태로 구현될 수 있다. 프로세서(2101)는 또한 메인 프로세서 및 보조 프로세서(coprocessor)를 포함할 수 있다. 메인 프로세서는 어웨이크 상태(awake state)에서 데이터를 처리하도록 구성된 프로세서이고, 중앙 처리 유닛(Central Processing Unit, CPU)라고도 지칭되며, 보조 프로세서는 스탠바이 상태(standby state)에서 데이터를 처리하도록 구성된 저전력 소비 프로세서이다. 일부 실시예들에서, 프로세서(2101)는 그래픽스 처리 유닛(graphics processing unit, GPU)와 통합될 수 있다. GPU는 디스플레이 스크린에 디스플레이될 콘텐츠를 렌더링 및 드로잉하는 것을 담당한다. 일부 실시예들에서, 프로세서(2101)는 인공 지능(AI) 프로세서를 더 포함할 수 있다. AI 프로세서는 기계 학습과 관련된 계산 조작을 처리하도록 구성된다.
메모리(2102)는 하나 이상의 컴퓨터-판독 가능한 저장 매체를 포함할 수 있다. 컴퓨터-판독 가능한 저장 매체는 유형적 및 비일시적일 수 있다. 메모리(2102)는 고속 랜덤 액세스 메모리(random access memory, RAM), 및 하나 이상의 디스크 저장 디바이스들 또는 플래시 저장 디바이스들과 같은 비휘발성 메모리를 더 포함할 수 있다. 일부 실시예들에서, 메모리(2102) 내의 비일시적 컴퓨터-판독 가능한 저장 매체는 적어도 하나의 명령어를 저장하도록 구성되고, 적어도 하나의 명령어는 본 출원의 방법 실시예들에서 제공된 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서(2101)에 의해 실행되도록 구성된다.
일부 실시예들에서, 컴퓨터 디바이스(2100)는 선택적으로 주변 인터페이스(2103) 및 적어도 하나의 주변기기를 포함할 수 있다. 구체적으로, 주변기기는 무선 주파수(RF) 회로(2104), 터치 디스플레이 스크린(2105), 카메라 어셈블리(2106), 오디오 회로(2107), 포지셔닝 컴포넌트(2108), 및 전원(2109) 중 적어도 하나를 포함한다.
주변기기 인터페이스(2103)는 입출력(I/O)과 관련된 적어도 하나의 주변기기를 프로세서(2101) 및 메모리(2102)에 연결하도록 구성될 수 있다. 일부 실시예들에서, 프로세서(2101), 메모리(2102), 및 주변기기 인터페이스(2103)는 동일한 칩 또는 회로 기판에 통합된다. 일부 다른 실시예들에서, 프로세서(2101), 메모리(2102), 및 주변기기 인터페이스(2103) 중 임의의 하나 또는 둘은 별도의 칩 또는 회로 기판 상에 구현될 수 있다. 이는 본 실시예에서 제한되지 않는다.
RF 회로(2104)는 전자기 신호라고도 하는 RF 신호를 수신 및 전신하도록 구성된다. RF 회로(2104)는 전자기 신호를 이용하여 통신 네트워크 및 다른 통신 디바이스와 통신한다. RF 회로(2104)는 전송을 위해 전기 신호를 전자기 신호로 변환하거나, 수신된 전자기 신호를 전기 신호로 변환한다. 선택적으로, RF 회로(2104)는 안테나 시스템, RF 트랜시버, 하나 이상의 증폭기들, 튜너, 발진기, DSP, 코덱 칩셋, 가입자 식별 모듈 카드 등을 포함한다. RF 회로(2104)는 적어도 하나의 무선 통신 프로토콜을 사용하여 다른 단말들과 통신할 수 있다. 무선 통신 프로토콜은 월드 와이드 웹, 대도시 영역 네트워크, 인트라넷, 이동 통신 네트워크의 세대들(2G, 3G, 4G 및 5G), 무선 근거리 통신망 및/또는 무선 충실도(Wi-Fi) 네트워크를 포함하지만, 이들에 제한되지 않는다. 일부 실시예들에서, RF(2104)는 근거리 통신(Near-Field Communication, NFC)과 관련된 회로를 더 포함할 수 있으며, 이는 본 출원에 제한되지 않는다.
터치 디스플레이 스크린(2105)은 UI를 디스플레이하도록 구성된다. UI는 그래프, 텍스트, 아이콘, 비디오, 및 이들의 임의의 조합을 포함할 수 있다. 터치 디스플레이 스크린(2105)은 또한 터치 디스플레이 스크린(2105)의 표면에 또는 그 위의 터치 신호를 수집하는 능력을 갖는다. 터치 신호는 프로세싱을 위해 프로세서(2101)에 제어 신호로서 입력될 수 있다. 터치 디스플레이 스크린(2105)은 소프트 버튼 및/또는 소프트 키보드로도 지칭되는 가상 버튼 및/또는 가상 키보드를 제공하도록 구성된다. 일부 실시예들에서, 컴퓨터 디바이스(2100)의 전면 패널에 배치된 하나의 터치 디스플레이 스크린(2105)이 존재한다. 일부 다른 실시예들에서, 컴퓨터 디바이스(2100)의 상이한 표면들에 각각 배치되거나 접을 수 있는 형태로 설계된 적어도 2개의 터치 디스플레이 스크린들(2105)이 있을 수 있다. 또 다른 일부 실시예들에서, 터치 디스플레이 스크린(2105)은 컴퓨터 디바이스(2100)의 곡면 또는 접힌 표면에 배치된 플렉서블 디스플레이 스크린일 수 있다. 심지어, 터치 디스플레이 스크린(2105)은 직사각형이 아닌 불규칙한 패턴으로 또한 설정될 수 있는데, 즉 특별한 형태의 스크린일 수 있다. 터치 디스플레이 스크린(2105)은 액정 디스플레이(Liquid Crystal Display, LCD) 또는 유기 발광 다이오드(Organic Light Emitting Diode, OLED)와 같은 물질로 만들어질 수 있다.
일부 실시예들에서, 컴퓨터 디바이스(2100)는 하나 이상의 센서들(2110)을 더 포함한다. 하나 이상의 센서들(2110)은 가속도 센서(2111), 자이로스코프 센서(2112), 압력 센서(2113), 지문 센서(2114), 광학 센서(2115), 및 근접 센서(2116)를 포함하지만, 이들에 제한되지 않는다.
압력 센서(2113)는 컴퓨터 디바이스(2100)의 측면 프레임 및/또는 터치 디스플레이 스크린(2105)의 하부 레이어에 배치될 수 있다. 압력 센서(2113)가 컴퓨터 디바이스(2100)의 측면 프레임에 배치될 때, 컴퓨터 디바이스(2100) 상의 사용자의 홀딩 신호가 탐지될 수 있고, 왼손/오른손 식별 및 빠른 조작은 홀딩 신호에 따라 수행될 수 있다. 압력 센서(2113)가 터치 디스플레이 스크린(2105)의 하부 레이어에 배치되는 경우, UI 인터페이스의 조작 가능한 컨트롤은 터치 디스플레이 스크린(2105)에 대한 사용자의 압력 조작에 따라 제어될 수 있다. 조작 가능한 컨트롤은 버튼 컨트롤, 스크롤-바 컨트롤, 아이콘 컨트롤, 및 메뉴 컨트롤 중 적어도 하나를 포함한다.
당업자는 도 21에 도시된 구조가 컴퓨터 디바이스(2100)에 대한 어떠한 제한도 구성하지 않다는 것을 알 수 있으며, 컴퓨터 디바이스는 도면에 도시된 것보다 더 많은 구성요소들 또는 더 적은 구성요소들을 포함할 수 있거나, 일부 구성요소들이 결합될 수 있거나, 다른 구성요소 배치가 사용될 수 있다.
본 출원의 실시예는 프로세서 및 메모리를 포함하는 컴퓨터 디바이스를 더 제공하며, 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트를 저장하고, 적어도 하나의 명령어는, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트는 전술한 방법 실시예에서 제공된 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.
본 출원의 실시예는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트를 저장하는 컴퓨터-판독가능 저장 매체를 더 제공하며, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트는 전술한 방법 실시예들에서 제공된 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서에 의해 로딩 및 실행된다.
본 출원은 컴퓨터 프로그램 제품 또는 컴퓨터 프로그램을 제공하며, 컴퓨터 프로그램 제품 또는 컴퓨터 프로그램은 컴퓨터 명령어들을 포함하고, 컴퓨터 명령어들은 컴퓨터-판독 가능한 저장 매체에 저장된다. 컴퓨터 디바이스의 프로세서는 컴퓨터-판독 가능 저장 매체로부터 컴퓨터 명령어들을 판독한다. 프로세서는 컴퓨터 명령어들을 실행하여, 컴퓨터 디바이스로 하여금 전술한 양상들에서 설명된 가상 환경 픽처를 디스플레이하기 위한 방법을 수행하게 한다.

Claims (20)

  1. 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법으로서, 상기 방법은,
    제1 가상 환경 픽처를 디스플레이하는 단계 - 상기 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 상기 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이함 -;
    조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터(regional skill indicator)를 디스플레이하는 단계 - 상기 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되고, 상기 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우에 스킬 액션 영역(skill action region)임 -; 및
    제2 가상 환경 픽처를 디스플레이하는 단계 - 상기 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 상기 제2 관찰 포지션은 제1 관찰 포지션에 대해 상기 타깃 영역에 기반하여 오프셋된 포지션이며, 상기 제2 영역은 타깃 영역을 포함함 -;
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  2. 제1항에 있어서,
    상기 가상 환경에는 카메라 모델이 제공되고, 상기 카메라 모델은 가상 환경 픽처를 획득하기 위해 가상 환경을 관찰하도록 구성되며,
    상기 제2 가상 환경 픽처를 디스플레이하는 단계는,
    오프셋 방식에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키는 단계 - 상기 제1 카메라 포지션은 제1 관찰 포지션에 대응하고, 상기 제2 카메라 포지션은 상기 제2 관찰 포지션에 대응함 -; 및
    상기 카메라 모델이 위치한 제2 카메라 포지션에 따라 제2 가상 환경 픽처를 디스플레이하는 단계
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  3. 제2항에 있어서,
    상기 오프셋 방식은 제1 오프셋 방식을 포함하고, 상기 제1 오프셋 방식은 시야 결정 박스(visual field determining box)에 기초하여 카메라 모델이 오프셋되는 방식이고, 상기 시야 결정 박스는 카메라 모델의 시야 범위를 지시하도록 구성되며,
    오프셋 방식에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키는 단계는,
    영역 기준점이 시야 결정 박스 외부에 위치하는 것에 응답하여, 영역 기준점과 시야 결정 박스의 프레임 사이의 거리에 따라 제1 오프셋 방식으로 카메라 모델의 제1 오프셋을 결정하는 단계 - 상기 영역 기준점은 타깃 영역의 중심점에 기초하여 결정됨 -; 및
    상기 제1 오프셋에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키는 단계
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  4. 제3항에 있어서,
    영역 기준점이 시야 결정 박스 외부에 위치하는 것에 응답하여, 영역 기준점과 시야 결정 박스의 프레임 사이의 거리에 따라 제1 오프셋 방식으로 카메라 모델의 제1 오프셋을 결정하는 단계는,
    상기 영역 기준점이 시야 결정 박스의 외부에 위치하는 것에 응답하여 영역 기준점과 시야 결정 박스의 프레임 사이의 수직 거리를 계산하는 단계 - 상기 수직 거리는 가로 방향의 수직 거리 및 세로 방향의 수직 거리 중 적어도 하나를 포함하고, 상기 가로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 세로 방향의 프레임 사이의 수직 거리이고, 상기 세로 방향의 수직 거리는 영역 기준점과 시야 결정 박스의 가로 방향의 프레임 사이의 수직 거리임 -; 및
    상기 제1 오프셋 방식으로 카메라 모델의 제1 오프셋으로서 수직 거리를 결정하는 단계
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  5. 제3항에 있어서,
    상기 영역 기준점이 시야 결정 박스에 재위치하는 것에 응답하여 제2 카메라 포지션에서 제3 카메라 포지션으로 카메라 모델을 이동시키는 단계 - 상기 제3 카메라 포지션은 제2 카메라 포지션과 제1 카메라 포지션 사이에 위치하고, 제3 카메라 포지션은 제3 관찰 포지션에 대응함 -; 및
    상기 제3 카메라 포지션에 위치한 카메라 모델에 따라 제3 가상 환경 픽처를 디스플레이하는 단계 - 상기 제3 가상 환경 픽처는 제3 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제3 영역을 포함하고, 상기 제3 영역은 타깃을 포함함 -;
    를 더 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  6. 제2항에 있어서,
    상기 오프셋 방식은 제2 오프셋 방식을 포함하고, 상기 제2 오프셋 방식은 지시 방향에 기초한 오프셋팅(offsetting)의 방식이고, 상기 지시 방향은 마스터 가상 캐릭터가 위치하는 포지션에서 타깃 영역의 중심점으로 가리키는 방향이며,
    오프셋 방식에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키는 단계는,
    상기 지시 방향에 따라 상기 제2 오프셋 방식으로 카메라 모델의 제2 오프셋을 결정하는 단계; 및
    제2 오프셋에 따라 제1 카메라 포지션에서 제2 카메라 포지션으로 카메라 모델을 이동시키는 단계
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  7. 제6항에 있어서,
    상기 지시 방향에 따라 제2 오프셋 방식으로 카메라 모델의 제2 오프셋을 결정하는 단계는,
    상기 지시 방향과 수평 방향 사이의 각도를 획득하는 단계 - 상기 수평 방향은 가상 환경에서 수평면과 평행하고 카메라 모델의 관찰 방향에 수직임 -;
    상기 지시 방향에 대응하는 카메라 모델의 고정된 오프셋 거리를 획득하는 단계;
    상기 제2 오프셋 방식으로 카메라 모델의 오프셋 비율을 획득하는 단계 - 상기 오프셋 비율은 비율에 따라 카메라 모델이 이동하도록 지시하기 위해 사용됨 -; 및
    상기 각도, 고정된 오프셋 거리, 및 오프셋 비율에 따라 제2 오프셋을 결정하는 단계
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  8. 제7항에 있어서,
    상기 제2 오프셋은 가로 방향의 오프셋을 포함하고, 상기 고정된 오프셋 거리는 가로 방향의 오프셋 거리를 포함하고,
    상기 각도, 고정된 오프셋 거리, 및 오프셋 비율에 따라 제2 오프셋을 결정하는 단계는,
    상기 각도의 코사인 값, 가로 방향의 오프셋 거리, 및 오프셋 비율의 곱에 따라 가로 방향의 오프셋을 결정하는 단계 - 상기 오프셋 비율은 제1 거리 대 제2 거리의 비율이고, 상기 제1 거리는 마스터 가상 캐릭터가 위치하는 포지션과 타깃 영역의 중심점 사이의 거리이고, 제2 거리는 선택 영역의 반경이고, 상기 선택 영역은 타깃 영역을 선택하기 위한 영역의 스킬 인디케이터에 대한 선택 범위를 제공하기 위해 사용됨 -;
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  9. 제7항에 있어서,
    상기 제2 오프셋은 세로 방향의 오프셋을 포함하고, 상기 고정된 오프셋 거리는 세로 방향의 오프셋 거리를 포함하고,
    상기 각도, 고정된 오프셋 거리 및 오프셋 비율에 따라 제2 오프셋을 결정하는 단계는,
    상기 각도의 사인 값, 세로 방향의 오프셋 거리, 및 오프셋 비율의 곱에 따라 세로 방향의 오프셋을 결정하는 단계 - 상기 오프셋 비율은 제1 거리 대 제2 거리의 비율이고, 상기 제1 거리는 마스터 가상 캐릭터가 위치하는 포지션과 타깃 영역의 중심점 사이의 거리이고, 상기 제2 거리는 선택 영역의 반경이며, 상기 선택 영역은 타깃 영역을 선택하기 위한 영역의 스킬 인디케이터에 대한 선택 범위를 제공하기 위해 사용됨 -;
    를 포함하는, 클라이언트에 의해 수행되는 가상 환경 픽처를 디스플레이하기 위한 방법.
  10. 가상 환경 픽처를 디스플레이하기 위한 장치로서,
    제1 가상 환경 픽처를 디스플레이하도록 구성된 디스플레이 모듈 - 상기 제1 가상 환경 픽처는 제1 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제1 영역을 포함하고, 상기 제1 가상 환경 픽처는 가상 환경에 위치한 마스터 가상 캐릭터를 디스플레이함 -;을 포함하고,
    상기 디스플레이 모듈은, 조준 조작을 수신하는 것에 응답하여, 타깃 영역을 선택하도록 구성된 영역의 스킬 인디케이터를 디스플레이하도록 구성되고, 상기 영역의 스킬 인디케이터는 가상 환경에서 타깃 영역을 식별하도록 구성되며, 상기 타깃 영역은 마스터 가상 캐릭터가 스킬을 해제하는 경우에 스킬 액션 영역이고,
    상기 디스플레이 모듈은 제2 가상 환경 픽처를 디스플레이하도록 구성되고, 상기 제2 가상 환경 픽처는 제2 관찰 포지션을 관찰 센터로 사용하여 가상 환경을 관찰함으로써 획득되는 제2 영역을 포함하고, 상기 제2 관찰 포지션은 제1 관찰 포지션에 대해 상기 타깃 영역에 기반하여 오프셋된 포지션이며, 상기 제2 영역은 타깃 영역을 포함하는,
    가상 환경 픽처를 디스플레이하기 위한 장치.
  11. 컴퓨터 디바이스로서,
    프로세서 및 메모리를 포함하고, 상기 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트를 저장하고, 상기 명령어, 프로그램, 코드 세트, 또는 명령어 세트는 제1항 내지 제9항 중 어느 한 항에 따른 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서에 의해 로딩 및 실행되는,
    컴퓨터 디바이스.
  12. 컴퓨터-판독 가능한 저장 매체로서,
    적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령어 세트를 저장하고, 상기 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령어 세트는 제1항 내지 제9항 중 어느 한 항에 따른 가상 환경 픽처를 디스플레이하기 위한 방법을 구현하기 위해 프로세서에 의해 로딩 및 실행되는,
    컴퓨터-판독 가능한 저장 매체.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020217034089A 2020-04-09 2021-03-11 가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체 KR102645534B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010275730.8 2020-04-09
CN202010275730.8A CN111481934B (zh) 2020-04-09 2020-04-09 虚拟环境画面的显示方法、装置、设备及存储介质
PCT/CN2021/080258 WO2021203904A1 (zh) 2020-04-09 2021-03-11 虚拟环境画面的显示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
KR20210141658A KR20210141658A (ko) 2021-11-23
KR102645534B1 true KR102645534B1 (ko) 2024-03-07

Family

ID=71798367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217034089A KR102645534B1 (ko) 2020-04-09 2021-03-11 가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체

Country Status (6)

Country Link
US (2) US11847734B2 (ko)
JP (1) JP2022531770A (ko)
KR (1) KR102645534B1 (ko)
CN (1) CN111481934B (ko)
SG (1) SG11202111549TA (ko)
WO (1) WO2021203904A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质
CN111921191B (zh) * 2020-08-27 2023-10-13 腾讯科技(深圳)有限公司 状态图标的显示方法、装置、终端及存储介质
CN112245920A (zh) * 2020-11-13 2021-01-22 腾讯科技(深圳)有限公司 虚拟场景的显示方法、装置、终端及存储介质
JP6928709B1 (ja) * 2020-12-28 2021-09-01 プラチナゲームズ株式会社 情報処理プログラム、情報処理装置、および情報処理方法
CN113379870A (zh) * 2021-03-12 2021-09-10 广东虚拟现实科技有限公司 基于虚拟训练场景训练的显示方法、装置及存储介质
CN113368490B (zh) * 2021-06-10 2023-05-30 北京字跳网络技术有限公司 一种控制方法、装置以及计算机存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157942A (ja) * 2009-04-01 2009-07-16 Nintendo Co Ltd 表示領域を移動させる画像処理プログラムおよび画像処理装置
CN107168611A (zh) * 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
US7614954B2 (en) * 2002-11-20 2009-11-10 Sega Corporation Game image display control program, game device, and recoding medium
JP2006018476A (ja) 2004-06-30 2006-01-19 Sega Corp 画像の表示制御方法
JP2011255119A (ja) 2010-06-11 2011-12-22 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5117565B2 (ja) 2010-12-13 2013-01-16 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
CN109621411B (zh) * 2017-09-30 2022-05-06 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107913520B (zh) * 2017-12-14 2021-04-23 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN109200582A (zh) * 2018-08-02 2019-01-15 腾讯科技(深圳)有限公司 控制虚拟对象与投掷物交互的方法、装置及存储介质
CN109260702A (zh) * 2018-08-30 2019-01-25 腾讯科技(深圳)有限公司 虚拟场景中的虚拟载具控制方法、计算机设备及存储介质
CN109568957B (zh) 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109840043B (zh) * 2019-01-30 2021-08-10 腾讯科技(深圳)有限公司 在虚拟环境中建造建筑物的方法、装置、设备及存储介质
CN110115838B (zh) * 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110292778A (zh) * 2019-08-02 2019-10-01 网易(杭州)网络有限公司 一种游戏技能释放的方法和装置
CN110613933A (zh) * 2019-09-24 2019-12-27 网易(杭州)网络有限公司 游戏中技能释放控制方法、装置、存储介质和处理器
CN111481934B (zh) * 2020-04-09 2023-02-10 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157942A (ja) * 2009-04-01 2009-07-16 Nintendo Co Ltd 表示領域を移動させる画像処理プログラムおよび画像処理装置
CN107168611A (zh) * 2017-06-16 2017-09-15 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US20220051470A1 (en) 2022-02-17
KR20210141658A (ko) 2021-11-23
CN111481934A (zh) 2020-08-04
US11847734B2 (en) 2023-12-19
JP2022531770A (ja) 2022-07-11
SG11202111549TA (en) 2021-11-29
WO2021203904A1 (zh) 2021-10-14
US20240070974A1 (en) 2024-02-29
CN111481934B (zh) 2023-02-10

Similar Documents

Publication Publication Date Title
KR102645534B1 (ko) 가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체
KR102665665B1 (ko) 가상 환경 픽처를 디스플레이하는 방법 및 장치, 디바이스, 및 저장 매체
CN110433488B (zh) 基于虚拟角色的对战控制方法、装置、设备及介质
CN111035918B (zh) 基于虚拟环境的侦察界面显示方法、装置及可读存储介质
KR20210140747A (ko) 가상 객체 제어 방법 및 장치, 디바이스 및 매체
CN111399639B (zh) 虚拟环境中运动状态的控制方法、装置、设备及可读介质
JP2022179474A (ja) 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
WO2021213070A1 (zh) 虚拟角色的控制方法、装置、设备及存储介质
JP2022539289A (ja) 仮想オブジェクト照準方法、装置及びプログラム
JP7406567B2 (ja) 仮想環境の画面表示方法及び装置、並びにコンピュータ装置及びプログラム
KR20210142739A (ko) 가상 객체 제어 방법 및 장치, 단말 그리고 저장 매체
JP7325664B2 (ja) 仮想オブジェクトの制御方法及び装置、端末、並びに、コンピュータプログラム
TWI789088B (zh) 虛擬對象釋放技能的方法、裝置、設備、媒體及程式產品
JP2023543519A (ja) 仮想アイテムの投入方法、装置、端末、及びプログラム
JP2023164787A (ja) 仮想環境の画面表示方法、装置、機器及びコンピュータプログラム
CN112316429A (zh) 虚拟对象的控制方法、装置、终端及存储介质
WO2023071808A1 (zh) 基于虚拟场景的图形显示方法、装置、设备以及介质
CN111589134A (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN112843682B (zh) 数据同步方法、装置、设备及存储介质
US20230040506A1 (en) Method and apparatus for controlling virtual character to cast skill, device, medium, and program product

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant