KR102602074B1 - 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체 - Google Patents

가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체 Download PDF

Info

Publication number
KR102602074B1
KR102602074B1 KR1020217020054A KR20217020054A KR102602074B1 KR 102602074 B1 KR102602074 B1 KR 102602074B1 KR 1020217020054 A KR1020217020054 A KR 1020217020054A KR 20217020054 A KR20217020054 A KR 20217020054A KR 102602074 B1 KR102602074 B1 KR 102602074B1
Authority
KR
South Korea
Prior art keywords
axis distance
rotation
virtual
rotation axis
distance
Prior art date
Application number
KR1020217020054A
Other languages
English (en)
Other versions
KR20210095931A (ko
Inventor
진 양
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210095931A publication Critical patent/KR20210095931A/ko
Application granted granted Critical
Publication of KR102602074B1 publication Critical patent/KR102602074B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

본 발명은, 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체를 개시한다. 상기 방법은, 제1 환경 인터페이스를 표시하는 단계 - 여기서, 제1 환경 인터페이스는, 제1 회전 축을 이용하여 회전 관찰을 수행할 때 획득한 이미지를 포함함 -; 시야 각 회전 동작을 수신하는 단계; 시야 각 회전 동작의 동작 파라미터가 물체 관찰 조건을 만족하는 경우, 회전 중심의 위치를 조정하고 제1 회전 축이 제2 회전 축이 되도록 조정하는 단계; 및 제2 환경 인터페이스를 표시하는 단계 - 여기서, 제2 환경 인터페이스는, 제2 회전 축을 이용하여 가상 환경의 가상 물체에 대한 회전 관찰을 수행할 때 획득한 이미지를 포함함 - 를 포함한다.

Description

가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체
본 출원은 2019년 4월 11일에 중국 특허청에 출원된 "METHOD AND APPARATUS FOR OBSERVING VIRTUAL ITEM IN VIRTUAL ENVIRONMENT AND READABLE STORAGE MEDIUM"이라는 명칭의 중국 특허 출원 제201910290579.2호에 대한 우선권을 주장하며, 그 내용 전부는 참조에 의해 본 명세서에 포함된다.
본 출원의 실시 예들은 컴퓨터 기술 분야에 관한 것으로, 특히 가상 환경에서 가상 아이템을 관찰하는 방법 및 장치, 및 판독 가능한 저장 매체에 관한 것이다.
가상 환경을 포함하는 애플리케이션에서, 가상 환경에서의 가상 객체는 일반적으로 가상 환경에서 이동, 예를 들어, 걷거나, 운전을 하거나, 수영을 하거나, 싸우거나, 아이템을 집도록 제어될 필요가 있다. 아이템을 집는 것은, 가상 객체로 하여금 가상 환경의 가상 아이템에 대해 집기 동작을 수행하도록 제어하는 것을 의미한다.
관련 기술에서는, 가상 아이템을 집기 위해, 먼저 가상 개체가 가상 아이템의 위치를 결정하기 위해 아래쪽을 본 다음, 가상 아이템의 위치에 따라 가상 아이템 근처의 위치로 이동하고, 가상 아이템을 선택하여 가상 아이템에 대한 집기 동작을 구현할 필요가 있다.
그러나 이러한 과정은 일반적으로 시야 각 회전이 부정확하다는 문제가 있다.
본 출원에서 제공되는 다양한 실시 예들에 따르면, 가상 환경에서 가상 아이템을 관찰하는 방법 및 장치, 및 판독 가능한 저장 매체가 제공된다.
일 측면에서, 컴퓨터 디바이스에 의해 수행되는, 가상 환경에서 가상 아이템을 관찰하는 방법이 제공되며, 상기 방법은,
제1 환경 인터페이스를 표시하는 단계 - 여기서, 상기 제1 환경 인터페이스는, 제1 회전 축 거리(rotation axis distance)를 이용하여 회전 관찰(rotation observation)을 수행할 때 가상 환경의 화상을 포함하고, 상기 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리임 -;
시야 각 회전 동작(viewing angle rotation operation)을 수신하는 단계 - 여기서, 상기 시야 각 회전 동작은, 상기 회전 중심을 중심으로 상기 관찰 포인트를 회전시키도록 구성됨 -;
상기 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하는 단계; 및
제2 환경 인터페이스를 표시하는 단계 - 여기서, 상기 제2 환경 인터페이스는, 상기 제2 회전 축 거리를 이용하여 상기 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 상기 가상 환경의 화상을 포함함 - 를 포함한다.
다른 측면에서, 가상 환경에서 가상 아이템을 관찰하는 장치가 제공되며, 상기 장치는,
제1 환경 인터페이스를 표시하도록 구성된 표시 모듈 - 여기서, 상기 제1 환경 인터페이스는, 제1 회전 축 거리를 이용하여 회전 관찰을 수행할 때 가상 환경의 화상을 포함하고, 상기 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리임 -;
시야 각 회전 동작을 수신하도록 구성된 수신 모듈 - 여기서, 상기 시야 각 회전 동작은, 상기 회전 중심을 중심으로 상기 관찰 포인트를 회전시키도록 구성됨 -; 및
상기 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 구성된 조정 모듈을 포함하고,
상기 표시 모듈은 제2 환경 인터페이스를 표시하도록 추가로 구성된다 - 여기서, 상기 제2 환경 인터페이스는, 상기 제2 회전 축 거리를 이용하여 상기 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 상기 가상 환경의 화상을 포함함 -.
다른 측면에서, 메모리 및 프로세서를 포함하는 컴퓨터 디바이스가 제공되며, 메모리는 컴퓨터로 판독 가능한 명령어를 저장하고, 컴퓨터로 판독 가능한 명령어는 프로세서에 의해 실행될 때 프로세서로 하여금, 본 출원의 실시 예들에 따른 가상 환경에서 가상 아이템을 관찰하는 방법을 수행하도록 한다.
다른 측면에서, 컴퓨터로 판독 가능한 명령어를 저장하는 하나 이상의 비 휘발성 저장 매체가 제공되고, 컴퓨터로 판독 가능한 명령어는 프로세서에 의해 실행될 때 프로세서로 하여금, 본 출원의 실시 예들에 따른 가상 환경에서 가상 아이템을 관찰하는 방법을 수행하도록 한다.
다른 측면에서, 컴퓨터 프로그램 제품이 제공되며, 컴퓨터 프로그램 제품은 컴퓨터 상에서 실행될 때 컴퓨터로 하여금, 본 출원의 실시 예들에 따른 가상 환경에서 가상 아이템을 관찰하는 방법을 수행하도록 한다.
본 출원의 하나 이상의 실시 예들의 세부 사항들은 첨부된 도면 및 아래 설명에서 제공된다. 본 출원의 다른 특징들, 목적들 및 이점들은 명세서, 첨부된 도면 및 청구 범위로부터 명백해진다.
본 출원의 실시 예들의 기술적 해결 방안들을 보다 명확하게 설명하기 위해, 이하에서는 실시 예들을 설명하기 위해 필요한 첨부된 도면들을 간략하게 소개한다. 명백히, 아래 설명에서 첨부된 도면은 본 출원의 일부 실시 예들만을 보여주며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는, 창의적인 노력없이 이들 첨부된 도면들로부터 다른 도면들을 여전히 도출할 수 있다.
도 1은 본 출원의 예시적인 일 실시 예에 따른 카메라 모델의 관찰 방식에 대한 개략도이다.
도 2는 본 출원의 예시적인 일 실시 예에 따른 회전 축 거리 및 회전 범위 간의 대응 관계에 대한 개략도이다.
도 3은 본 출원의 예시적인 일 실시 예에 따른 단말에 대한 구조적 블록도이다.
도 4는 본 출원의 예시적인 일 실시 예에 따른 구현 환경에 대한 개략도이다.
도 5는 본 출원의 예시적인 일 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 흐름도이다.
도 6은, 도 5에 도시된 실시 예에 따른 아이템 관찰 조건에 대한 개략적인 인터페이스 도이다.
도 7은, 도 5에 도시된 실시 예에 따른 다른 아이템 관찰 조건에 대한 개략적인 인터페이스 도이다.
도 8은 본 출원의 예시적인 일 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 개략적인 인터페이스 도이다.
도 9는 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 흐름도이다.
도 10은, 도 9에 도시된 실시 예에 따른 서 있는 상태 및 운전 상태의 가상 객체에 대응하는 회전 축 간의 대응 관계에 대한 개략도이다.
도 11은 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 흐름도이다.
도 12는 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 흐름도이다.
도 13은 본 출원의 예시적인 일 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 장치에 대한 구조적 블록도이다.
도 14는 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 장치에 대한 구조적 블록도이다.
도 15는 본 출원의 예시적인 다른 실시 예에 따른 단말에 대한 구조적 블록도이다.
본 출원의 목적, 기술적 해결 방안 및 이점을 더 명확하게 하기 위해, 아래에서는 첨부된 도면을 참조하여 본 출원의 구현 예들에 대해 상세히 설명한다.
먼저, 본 출원의 실시 예들과 관련된 용어들을 간략히 소개한다.
회전 축 거리: 가상 환경에 대해 회전 관찰을 수행할 때 관찰 포인트와 회전 중심 사이의 거리를 말한다. 선택적으로, 가상 환경을 관찰하는 동안, 관찰 포인트에서 카메라 모델을 사용하여 가상 환경에 대해 시뮬레이션 촬영(simulation photographing)을 수행하고, 가상 환경의 화상을 획득하여, 가상 환경의 관찰을 구현한다. 즉, 회전 축 거리는 카메라 모델과 카메라 모델의 회전 중심 사이의 거리를 의미한다. 선택적으로, 회전 축 거리를 변경하는 동안, 카메라 모델과 가상 객체의 상대 위치(relative position)는 변경되지 않고, 회전 중심의 위치가 조정되어, 회전 축 거리가 변경된다. 회전 축 거리의 변경은 주로, 카메라 모델의 회전 유연성(rotation flexibility)을 조정하기 위해 사용된다. 예를 들어, 회전 축 거리가 상대적으로 작은 경우 회전 유연성이 상대적으로 높아서, 화면 상에서 동일한 슬라이드 동작이 수행되는 경우, 카메라 모델이 회전하는 각도가 상대적으로 크고 가상 환경을 관찰하는 범위가 비교적 넓다.
카메라 모델: 가상 환경에서 가상 객체 주변에 위치한 3 차원 모델이다. 1 인칭 시야 각을 사용하여 가상 환경을 관찰하는 경우, 카메라 모델은 가상 객체의 머리 근처 또는 가상 객체의 머리에 위치한다. 3 인칭 시야 각을 사용하여 가상 환경을 관찰하는 경우, 카메라 모델은 가상 객체 뒤에 위치하여 가상 객체에 바인딩될 수 있거나, 가상 객체로부터 미리 설정된 거리만큼 떨어진 임의의 위치에 위치할 수 있다. 카메라 모델을 이용하여 3 차원 가상 환경에 위치한 가상 객체를 다양한 각도에서 관찰할 수 있다. 선택적으로, 3 인칭 시야 각이 1 인칭 어깨 너머(over-shoulder) 시야 각인 경우, 카메라 모델은 가상 객체(예를 들어, 가상 캐릭터의 머리 및 어깨) 뒤에 위치한다. 선택적으로, 카메라 모델은 3 차원 가상 환경에서 실제로 표시되지 않으며, 즉, 카메라 모델은 사용자 인터페이스에 표시된 3 차원 가상 환경에서 인식될 수 없다.
상세한 설명은 카메라 모델이 가상 객체로부터 미리 설정된 거리만큼 떨어진 임의의 위치에 있는 예를 사용하여 상세한 설명이 이루어진다. 선택적으로, 하나의 가상 객체는 하나의 카메라 모델에 대응하고, 카메라 모델은 가상 객체를 회전 중심으로 하여 회전할 수 있다. 예를 들어, 카메라 모델은 가상 객체의 임의의 포인트를 회전 중심으로 하여 회전한다. 회전하는 동안, 카메라 모델은 회전할 뿐만 아니라 변위된다(displaced). 회전하는 동안, 카메라 모델과 회전 중심 사이의 거리는 변경되지 않으며, 즉, 카메라 모델은, 회전 중심이 구의 중심인 구의 표면에서 회전된다. 가상 객체의 임의의 포인트는, 가상 객체의 머리 또는 몸통, 또는 가상 객체 주변의 임의의 포인트가 될 수 있다. 이는 본 출원의 실시 예들에서 제한되지 않는다. 선택적으로, 카메라 모델이 가상 객체를 관찰할 때, 카메라 모델의 시야 각 방향은, 카메라 모델이 위치한 구형 표면의 접평면(tangent plane)에 대한 수직선이 가상 객체를 가리키는 방향이다.
선택적으로, 카메라 모델은 대안적으로, 가상 객체의 서로 다른 방향의 미리 설정된 각도에서 가상 객체를 관찰할 수 있다.
예를 들어, 도 1을 참조하면, 가상 객체(11)의 하나의 포인트가 회전 중심(12)으로 결정되고, 카메라 모델은 회전 중심(12)을 중심으로 회전한다. 선택적으로, 카메라 모델은 초기 위치로 구성되며, 초기 위치는 가상 객체의 상방 위치 및 후방 위치(예를 들어, 뇌 후방의 위치)이다. 예를 들어, 도 1에 도시된 바와 같이, 초기 위치는 위치(13)이고, 카메라 모델이 위치(14) 또는 위치(15)로 회전하는 경우, 카메라 모델이 회전함에 따라 카메라 모델의 시야 각 방향이 변경된다.
도 1을 참조하면, 회전 축 거리의 조정에 대해 설명한다. 도 2에 도시된 바와 같이, 가상 객체(200)의 코가 있는 위치는, (예를 들어, 1 인칭 시야 각을 사용함에 따라) 카메라 모델(210)이 있는 위치이고, 회전 중심(221)은 도 2에 도시된 위치에 있다. 카메라 모델(210)은 회전 중심(221)을 중심으로 회전하므로, 축 거리 조정 전 카메라 모델(210)의 제1 회전 축 거리는 카메라 모델(210)과 회전 중심(221) 사이의 거리이고, 축 거리 조정 전 카메라 모델(210)의 회전 범위는 도 2에서 점선으로 도시된 구형 범위이다. 회전 중심(221)의 위치가 회전 중심(222)의 위치로 조정된 후, 제2 회전 축 거리는 카메라 모델(210)과 회전 중심(222) 사이의 거리이고, 축 거리 조정 후 카메라 모델(210)의 회전 범위는 도 2에서 실선으로 도시된 구형 범위이다.
본 애플리케이션에서 단말은 데스크톱 컴퓨터, 휴대용 랩톱 컴퓨터, 휴대폰, 태블릿 컴퓨터, 전자 책 리더, MP3(Moving Picture Experts Group Audio Layer III) 플레이어, MP4(Moving Picture Experts Group Audio Layer IV) 플레이어 등일 수 있다. 가상 환경을 지원하는 애플리케이션은 3 차원 가상 환경을 지원하는 애플리케이션과 같이 단말에 설치되어 실행된다. 애플리케이션은 가상 현실 애플리케이션, 3 차원 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, 3 인칭 슈팅 게임(third-personal shooting game, TPS) 게임, 1 인칭 슈팅 게임(first-person shooting game, FPS) 게임, MOBA 게임 중 어느 하나일 수 있다. 선택적으로, 애플리케이션은, 독립형(standalone) 3D 게임 애플리케이션과 같은 독립형 애플리케이션일 수 있거나, 네트워크 온라인 애플리케이션일 수 있다.
도 3은 본 출원의 예시적인 일 실시 예에 따른 전자 디바이스의 구조적 블록도를 도시한다. 전자 디바이스(300)는 운영 체제(320) 및 애플리케이션(322)을 포함한다.
운영 체제(320)는 컴퓨터 하드웨어에 대한 보안 액세스를 수행하기 위해 애플리케이션(322)에 제공되는 기본 소프트웨어이다.
애플리케이션(322)은 가상 환경을 지원하는 애플리케이션이다. 선택적으로, 애플리케이션(322)은 3 차원 가상 환경을 지원하는 애플리케이션이다. 애플리케이션(322)은 가상 현실 애플리케이션, 3 차원 애플리케이션, 군사 시뮬레이션 애플리케이션, TPS 게임, FPS 게임, MOBA 게임, 멀티 플레이어 슈팅 서바이벌 게임 중 어느 하나일 수 있다. 애플리케이션(322)은 독립형 3D 게임과 같은 독립형 애플리케이션일 수 있다.
도 4는 본 출원의 예시적인 일 실시 예에 따른 컴퓨터 시스템의 구조적 블록도를 도시한다. 컴퓨터 시스템(400)은 제1 디바이스(420), 서버(440) 및 제2 디바이스(460)를 포함한다.
가상 환경을 지원하는 애플리케이션은 제1 디바이스(420)에 설치되어 실행된다. 애플리케이션은 가상 현실 애플리케이션, 3 차원 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, TPS 게임, FPS 게임, MOBA 게임, 멀티 플레이어 슈팅 서바이벌 게임 중 어느 하나일 수 있다. 제1 디바이스(420)는 제1 사용자가 사용하는 디바이스이고, 제1 사용자는 제1 디바이스(420)를 사용하여 가상 환경에서 제1 가상 객체가 이동하도록 제어하고, 이동은, 신체 자세 조정(body posture adjustment), 기어가기(crawling), 걷기, 달리기, 사이클링, 점프, 운전, 집기(picking), 사격, 공격 및 던지기 중 적어도 하나를 포함하지만, 이에 국한되는 것은 아니다. 예를 들어, 제1 가상 객체는, 시뮬레이션된 캐릭터 역할 또는 만화 캐릭터 역할과 같은 제1 가상 캐릭터이다.
제1 디바이스(420)는 무선 네트워크 또는 유선 네트워크를 이용하여 서버(440)와 연결된다.
서버(440)는 하나의 서버, 복수의 서버, 클라우드 컴퓨팅 플랫폼 및 가상화 센터 중 적어도 하나를 포함한다. 서버(440)는 3 차원 가상 환경을 지원하는 애플리케이션에 대한 백엔드 서비스(backend service)를 제공하도록 구성된다. 선택적으로, 서버(440)는 1 차 컴퓨팅 작업(primary computing work)을 담당하고, 제1 디바이스(420) 및 제2 디바이스(460)는 2 차 컴퓨팅 작업(secondary computing work)을 담당한다. 대안적으로, 서버(440)는 2 차 컴퓨팅 작업을 담당하고, 제1 디바이스(420) 및 제2 디바이스(460)는 1 차 컴퓨팅 작업을 담당한다; 대안적으로, 서버(440), 제1 디바이스(420) 및 제2 디바이스(460)는 분산 컴퓨팅 아키텍처를 이용하여 서로 간에 협업 컴퓨팅을 수행한다.
가상 환경을 지원하는 애플리케이션은 제2 디바이스(460)에 설치되어 실행된다. 애플리케이션은 가상 현실 애플리케이션, 3 차원 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, FPS 게임, MOBA 게임, 멀티 플레이어 슈팅 서바이벌 게임 중 어느 하나일 수 있다. 제2 디바이스(460)는 제2 사용자가 사용하는 디바이스이고, 제2 사용자는 제2 디바이스(460)를 사용하여 가상 환경에서 제2 가상 객체가 이동하도록 제어하고, 이동은, 신체 자세 조정, 기어가기, 걷기, 달리기, 사이클링, 점프, 운전, 집기, 사격, 공격 및 던지기 중 적어도 하나를 포함하지만, 이에 국한되는 것은 아니다. 예를 들어, 제2 가상 객체는, 시뮬레이션된 캐릭터 역할 또는 만화 캐릭터 역할과 같은 제2 가상 캐릭터이다.
선택적으로, 제1 가상 캐릭터와 제2 가상 캐릭터는 동일한 가상 환경에 있다. 선택적으로, 제1 가상 캐릭터 및 제2 가상 캐릭터는 동일한 팀 또는 동일한 조직에 속하거나, 친구 관계를 갖거나, 임시 통신 권한(temporary communication permission)을 가질 수 있다. 선택적으로, 제1 가상 캐릭터 및 제2 가상 캐릭터는 대안적으로 서로 다른 팀, 서로 다른 조직 또는 서로 적대적인 두 그룹에 속할 수 있다.
선택적으로, 제1 디바이스(420) 및 제2 디바이스(460)에 탑재된 애플리케이션은 동일하거나, 두 디바이스에 탑재된 애플리케이션은 서로 다른 제어 시스템 플랫폼의 동일한 유형의 애플리케이션이다. 제1 디바이스(420)는 일반적으로 복수의 디바이스 중 하나를 지칭할 수 있고, 제2 디바이스(460)는 일반적으로 복수의 디바이스 중 하나를 지칭할 수 있다. 본 실시 예에서는 제1 디바이스(420) 및 제2 디바이스(460)만을 예로 들어 설명한다. 제1 디바이스(420)의 유형과 제2 디바이스(460)의 유형은 동일할 수도 있고 상이할 수도 있다. 장치 유형은, 게임 콘솔, 데스크톱 컴퓨터, 스마트폰, 태블릿 컴퓨터, 전자 책 리더, MP3 플레이어, MP4 플레이어 및 휴대용 랩톱 컴퓨터 중 적어도 하나를 포함한다. 이하의 실시 예들에서는, 디바이스가 데스크톱 컴퓨터인 예를 사용하여 설명한다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 디바이스가 더 많거나 더 적을 수 있음을 알 수 있다. 예를 들어, 하나의 디바이스만 있을 수 있거나, 수십 또는 수백 개 이상의 디바이스가 있을 수 있다. 디바이스의 수량 및 디바이스 유형은 본 출원의 실시 예들에서 제한되지 않는다.
용어 및 구현 환경에 대해 전술한 설명을 참조하여, 본 출원의 일 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법을 설명한다. 예를 들어, 상기 방법은 단말에 적용된다. 도 5에 도시된 바와 같이, 상기 방법은 다음을 포함한다.
단계 501. 제1 환경 인터페이스를 표시하되, 제1 환경 인터페이스는, 제1 회전 축 거리를 이용하여 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
선택적으로, 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리이다. 선택적으로, 가상 환경은, 관찰 포인트에서 카메라 모델을 사용하여 가상 환경의 화상을 획득함으로써 관찰된다. 즉, 제1 회전 축 거리는 카메라 모델과 회전 중심 사이의 거리이다.
선택적으로, 카메라 모델을 이용하여 가상 환경에 대해 회전 관찰을 수행하는 과정에서, 가상 환경은 카메라 모델 및 가상 객체가 동기적으로(synchronously) 회전하는 방식, 즉 카메라 모델과 가상 객체의 위치가 바인딩되고, 카메라 모델이 회전하는 동안, 가상 객체는 카메라 모델이 회전함에 따라 동기적으로 회전하는 방식으로 관찰될 수 있다. 카메라 모델은 대안적으로 개별적으로 회전하는(individually rotating) 방식, 즉 가상 객체가 향하는 위치 및 방향이 변경되지 않은 채 유지되고, 카메라 모델은 가상 환경을 관찰하기 위해 회전하는 방식으로 가상 환경을 관찰할 수 있다.
선택적으로, 제1 회전 축 거리는, 가상 환경이 관찰될 때 기본 축 거리(default axis distance)이다.
선택적으로, 가상 객체의 움직임 상태는 서 있는 상태, 달리기 상태, 걷기 상태, 운전 상태, 탑승(riding) 상태 및 수영 상태 중 어느 하나를 포함한다. 선택적으로, 가상 객체의 상이한 움직임 상태들에 대응하는 제1 회전 축 거리들의 축 거리 길이들은 상이하다. 운전 상태 및 탑승 상태는 번갈아 조합하여 하나의 상태로 구현될 수 있다. 예를 들어, 탑승 상태 및 운전 상태는 운전 상태로 구현되도록 조합된다.
선택적으로, 가상 환경을 관찰하는 개인 시야 각은 1 인칭 시야 각 및 3 인칭 시야 각 중 어느 하나를 포함한다. 선택적으로, 상이한 개인 시야 각들에 대응하는 제1 회전 축 거리들의 축 거리 길이들은 상이하다.
선택적으로, 가상 객체의 움직임 상태 및 가상 환경을 관찰하는 개인 시야 각과 관련하여, 움직임 상태 및 개인 시야 각의 상이한 조합에 대해, 대응하는 제1 회전 축 거리의 축 거리 길이는 상이하다. 예를 들어, 개인 시야 각, 움직임 상태 및 제1 회전 축 거리의 축 거리 길이 간의 대응 관계에 대해서는 아래의 표 1을 참조할 수 있다.
[표 1]
x1은 가상 객체가 서 있는 상태에 있고 1 인칭 시야 각에서 가상 환경을 관찰하는 경우 수평 방향의 축 거리를 나타내고, y1은 가상 객체가 서 있는 상태에 있고 1 인칭 시야 각에서 가상 환경을 관찰하는 경우 수직 방향의 축 거리를 나타낸다. x2는 가상 객체가 서 있는 상태에 있고 3 인칭 시야 각에서 가상 환경을 관찰하는 경우 수평 방향의 축 거리를 나타내고, y2는 가상 객체가 서 있는 상태에 있고 3 인칭 시야 각에서 가상 환경을 관찰하는 경우 수직 방향의 축 거리를 나타낸다. x3은 가상 객체가 운전 상태에 있고 1 인칭 시야 각에서 가상 환경을 관찰하는 경우 수평 방향의 축 거리를 나타내고, y3은 가상 객체가 운전 상태에 있고 1 인칭 시야 각에서 가상 환경을 관찰하는 경우 수직 방향의 축 거리를 나타낸다. x4는 가상 객체가 운전 상태에 있고 3 인칭 시야 각에서 가상 환경을 관찰하는 경우 수평 방향의 축 거리를 나타내고, y4는 가상 객체가 운전 상태에 있고 3 인칭 시야 각에서 가상 환경을 관찰하는 경우 수직 방향의 축 거리를 나타낸다. x5는 가상 객체가 수영 상태에 있고 1 인칭 시야 각에서 가상 환경을 관찰하는 경우 수평 방향의 축 거리를 나타내고, y5는 가상 객체가 수영 상태에 있고 1 인칭 시야 각에서 가상 환경을 관찰하는 경우 수직 방향의 축 거리를 나타낸다. x6은 가상 객체가 수영 상태에 있고 3 인칭 시야 각에서 가상 환경을 관찰하는 경우 수평 방향의 축 거리를 나타내고, y6은 가상 객체가 수영 상태에 있고 3 인칭 시야 각에서 가상 환경을 관찰하는 경우 수직 방향의 축 거리를 나타낸다.
단계 502. 시야 각 회전 동작을 수신한다.
선택적으로, 시야 각 회전 동작은 회전 중심을 중심으로 관찰 포인트를 회전하도록 구성된다.
선택적으로, 시야 각 회전 동작의 구현은 다음 방식 중 적어도 하나를 포함한다.
먼저, 상기 방법은 터치 표시 화면을 포함하는 이동 단말에 적용되고, 시야 각 회전 동작은 터치 표시 화면에 대한 슬라이딩을 수행함으로써 구현된다.
선택적으로, 터치 표시 화면에 대한 슬라이드 동작은 터치 표시 화면의 왼쪽 절반에 대해 수행되는 슬라이드 동작일 수 있거나, 터치 표시 화면의 오른쪽 절반에 대해 수행되는 슬라이드 동작일 수 있으며, 또는 터치 표시 화면의 임의의 위치에서 수행되는 슬라이드 동작일 수 있다. 슬라이드 동작의 구체적인 위치는 시각 각도의 회전을 제어하기 위한 설정 파라미터에 따라 결정된다.
둘째, 상기 방법은 자이로스코프를 포함하는 이동 단말에 적용되고, 시야 각 회전 동작은, 단말을 스윙(swing)하여 자이로스코프의 회전을 제어함으로써 구현된다.
셋째, 상기 방법은 데스크톱 컴퓨터, 휴대용 랩톱 컴퓨터에 적용되고, 시야 각 회전 동작은 외부 입력 디바이스를 사용하여 입력 동작을 수행함으로써 구현되며, 예를 들어 키보드를 사용하여 방향 제어 신호가 입력되고, 시야 각 회전 동작을 구현한다.
단계 503. 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정한다.
선택적으로, 아이템 관찰 조건은 가상 환경에서 가상 아이템의 관찰에 대응하는 조건을 나타내기 위해 사용된다.
선택적으로, 동작 파라미터는 동작 각을 포함하고, 동작 각이 타깃 각 범위 내에 있는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리는 제2 회전 축 거리로 조정된다.
선택적으로, 동작 파라미터는 동작 거리를 더 포함하고, 동작 각이 타깃 각 범위 내에 있고 동작 거리가 타깃 거리에 도달하는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리는 제2 회전 축 거리로 조정된다.
선택적으로, 동작 파라미터는 가상 환경에서 가상 객체의 미리 설정된 거리 범위에서의 가상 아이템 존재 상태를 더 포함하고, 동작 각이 미리 설정된 각도 범위 내에 있고 가상 아이템이 가상 환경에서 가상 객체의 미리 설정된 거리 범위 내에 존재하는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정한다. 선택적으로, 가상 아이템은 가상 객체가 향하는 방향에서 미리 설정된 거리 범위에 위치한다. 즉, 동작 각이 미리 설정된 각도 범위 내에 있고 가상 아이템이 가상 객체의 미리 설정된 거리 범위 및 가상 객체가 향하는 방향 범위에 존재하는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정한다. 가상 아이템은 집기 위한(pick up) 가상 아이템이다. 예를 들어, 도 6을 참조하면, 제1 환경 인터페이스(600)는 가상 객체(610)를 포함한다. 단말이 시야 각 회전 동작을 수신하고, 시야 각 회전 동작의 동작 각이 미리 설정된 각도 범위 내에 있는 경우, 가상 아이템이 가상 객체(610)의 미리 설정된 거리 범위(630) 및 가상 객체(610)가 향하는 방향 범위(620)에 존재하는지 여부가 결정된다. 도 6에 도시된 바와 같이, 가상 아이템(640)은 방향 범위(620)와 미리 설정된 거리 범위(630)의 교차 세트(intersection set)에 존재하고, 가상 아이템(640)은 집기 위한 아이템이므로, 시야 각 회전 동작에 따라 회전 중심의 위치가 조정된다.
선택적으로, 가상 환경이 관찰 포인트에서 카메라 모델을 사용하여 관찰되는 경우, 동작 파라미터는 카메라 모델의 회전 종료 위치를 더 포함한다. 동작 각이 타깃 각 범위 내에 있고 회전 종료 위치가 미리 설정된 위치 범위 내에 있는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정한다. 선택적으로, 사전 설정된 위치 범위는 회전 중심에 대응하는 수평 위치 위의 범위이다. 수평 위치 위의 범위에서 관찰이 수행되는 경우, 이는 카메라 모델이 아래쪽을 바라보는 상태임을 나타내며, 즉 카메라 모델이 가상 아이템을 관찰하는 상태임을 나타낸다. 따라서, 동작 각이 타깃 각 범위 내에 있고 회전 종료 위치가 회전 중심에 해당하는 수평 위치 위의 범위 내에 있는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정한다. 예를 들어, 도 7을 참조하면, 제1 환경 인터페이스(700)는 가상 객체(710)를 포함한다. 단말이 시야 각 회전 동작을 수신하고, 시야 각 회전 동작의 동작 각이 미리 설정된 각도 범위 내에 있는 경우, 카메라 모델(720)의 회전 종료 위치를 결정한다. 도 7에 도시된 바와 같이, 카메라 모델(720)의 회전 중심(730)에 대응하는 수평 위치는 평면(740)이고, 카메라 모델(720)의 회전 종료 위치는 평면(740) 위에 위치하므로, 회전 중심의 위치는 시야 각 회전 동작에 따라 조정된다.
단계 504. 제2 환경 인터페이스를 표시하되, 제2 환경 인터페이스는, 제2 회전 축 거리를 이용하여 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
선택적으로, 제2 회전 축 거리는 관찰 포인트와 조정된 회전 중심 사이의 거리이다. 선택적으로, 제2 회전 축 거리는 카메라 모델과 조정된 회전 중심 사이의 거리이다.
결론적으로, 본 실시 예에서 제공되는 가상 환경에서 가상 아이템을 관찰하는 방법에 있어서, 시야 각 회전 동작의 동작 파라미터는 아이템 관찰 조건과 매칭되어, 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인지 여부를 결정한다. 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인 경우, 회전 중심의 위치를 조정하여 관찰 포인트와 회전 중심 사이의 회전 축 거리를 조정하여 관측 포인트의 회전 유연성을 조정한다. 가상 아이템의 관찰과 매칭되는 회전 유연성은 시야 각 회전 동작을 모니터링함으로써 실시간으로 전환되며, 일반 축 거리와 가상 아이템을 관찰하는 축 거리를 구분하여, 더 넓은 시야를 사용하여 보다 유연한 방식으로 가상 아이템을 관찰할 수 있다.
본 실시 예에서 제공되는 방법에서, 시야 각 회전 동작이 아이템 관찰 조건을 만족하는지 여부는, 시야 각 회전 동작의 동작 각을 사용하여 결정된다. 아이템 관찰 조건을 만족시키는 것은 적어도 다음 중 하나: 동작 각이 타깃 각 범위 내에 있는 경우, 동작 거리가 타깃 거리에 도달하는 경우, 회전 종료 위치가 미리 설정된 위치 범위 내에 있는 경우, 및 가상 환경에서 가상 객체의 사전 설정된 거리 범위 내에 가상 아이템이 존재하는 경우를 포함하며, 사용자가 수평 방향 또는 경사 방향으로 시야 각 회전 동작을 수행할 때 수직 방향으로도 동작 변위도 존재하기 때문에 실수로 회전 축 거리의 조정이 트리거되는 문제를 방지할 수 있다.
가상 환경에서 가상 객체의 미리 설정된 거리 범위 내에 집기 위한 가상 아이템이 존재하는지 여부가 결정되고, 가상 아이템이 가상 객체의 미리 설정된 거리 범위 내에 존재하는 경우 회전 축 거리의 조정이 트리거되어, 가상 객체 주변에 가상 아이템이 없는 경우 조정이 트리거됨에 따라 가상 아이템을 관찰하기 위한 회전 축 거리의 잘못된 트리거링(false triggering) 문제를 방지할 수 있다.
예를 들어, 도 8은 본 출원의 예시적인 일 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 개략적인 인터페이스 도이다. 3 인칭 시야 각을 예로 들어 설명하도록 한다. 도 8에 도시된 바와 같이, 제1 환경 인터페이스(810)는 가상 객체(811)를 포함하고, 현재 제1 환경 인터페이스(810)에서 제1 회전 축 거리를 이용하여 가상 환경을 관찰한다. 단말의 표시 화면 상에서 손가락이 제1 거리만큼 가로로 슬라이드하면, 제1 환경 인터페이스(820)가 표시되고, 제1 환경 인터페이스(820)에는 캐비닛(821)의 절반이 표시된다. 단말의 표시 화면 상에서 손가락이 세로로 슬라이드한 후, 세로 슬라이드 동작이 아이템 관찰 조건을 만족하는 경우, 예를 들어 세로 슬라이드 동작이 미리 설정된 각도 범위(812) 내에 있는 경우, 회전 중심(822)의 위치가 조정되어, 제1 회전 축 거리(823)(카메라 모델(825)과 회전 중심(826) 사이의 거리)를 제2 회전 축 거리(824)로 조정하고, 제2 환경 인터페이스(830)를 표시한다. 제2 환경 인터페이스(830)는 제2 회전 축 거리를 이용하여 가상 환경에서 가상 아이템(831)을 관찰하는 화상이다. 단말의 표시 화면 상에서 손가락이 제1 거리만큼 가로로 슬라이드하면, 제2 환경 인터페이스(840)가 표시되고, 제2 환경 인터페이스(840)에 전체 캐비닛(821)이 표시된다. 도 8 및 전술한 설명에 따라, 제1 회전 축 거리를 제2 회전 축 거리로 조정한 후, 동일한 슬라이드 동작을 수행함으로써, 시야 각의 회전 각도가 상이하며, 즉 시야 각의 회전 유연성이 상이함을 알 수 있다. 도 8에 도시된 바와 같이, 제1 회전 축 거리를 제2 회전 축 거리로 조정한 후, 시야 각 회전의 유연성이 향상되고, 시야 각 회전시 시야가 넓어진다. 즉, 제1 회전 축 거리를 제2 회전 축 거리로 조정하여, 시야 각 회전의 유연성을 조정한다. 선택적으로, 제1 회전 축 거리는 제2 회전 축 거리로 조정되어, 시야 각 회전의 유연성이 낮음에서 높음으로 조정될 수 있거나, 시야 각 회전의 유연성이 높음에서 낮음으로 조정될 수 있다.
선택적인 일 실시 예에서, 가상 객체의 상이한 움직임 상태들에 대응하는 제2 회전 축 거리들은 상이하다. 도 9는 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 흐름도이다. 예를 들어, 상기 방법은 단말에 적용된다. 도 9에 도시된 바와 같이, 상기 방법은 다음을 포함한다.
단계 901. 제1 환경 인터페이스를 표시하되, 제1 환경 인터페이스는, 제1 회전 축 거리를 이용하여 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
선택적으로, 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리이다. 선택적으로, 가상 환경은, 관찰 포인트에서 카메라 모델을 사용하여 가상 환경의 화상을 획득함으로써 관찰된다. 즉, 제1 회전 축 거리는 카메라 모델과 회전 중심 사이의 거리이다.
선택적으로, 제1 회전 축 거리를 사용하여 가상 환경에서 회전 관찰이 수행되는 관찰 방식은 전술한 단계 501에서 상세하게 설명되었다. 상세한 내용에 대해서는 다시 설명하지 않는다.
단계 902. 시야 각 회전 동작을 수신한다.
선택적으로, 시야 각 회전 동작은 회전 중심을 중심으로 관찰 포인트를 회전하도록 구성된다.
선택적으로, 시야 각 회전 동작의 구현은 전술한 단계 502에서 상세하게 설명되었다. 상세한 내용에 대해서는 다시 설명하지 않는다.
단계 903. 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 가상 객체의 움직임 상태를 결정한다.
선택적으로, 움직임 상태는 서 있는 상태, 달리기 상태, 걷기 상태, 운전 상태, 라이딩 상태 및 수영 상태 중 어느 하나를 포함한다.
선택적으로, 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는지 여부를 결정하는 방식은 전술한 단계 503에서 상세히 설명되었다. 상세한 내용에 대해서는 다시 설명하지 않는다.
단계 904. 가상 객체의 움직임 상태에 대응하는 축 거리 길이를 결정한다.
선택적으로, 움직임 상태에 대응하는 축 거리 길이를 결정하는 방식은 다음 중 적어도 하나를 포함한다.
먼저, 움직임 상태와 축 거리 길이 간의 대응 관계를 구하고, 대응하는 축 거리 길이는 움직임 상태에 따라 대응 관계에서 결정된다. 선택적으로, 대응 관계는 단말에 저장될 수 있거나, 단말이 서버에서 획득할 수 있다. 예를 들어, 대응 관계는 아래의 표 2에 나타나 있다.
[표 2]
p1은 서 있는 상태에서 수평 방향의 축 거리를 나타내고, q1은 서 있는 상태에서 수직 방향의 축 거리를 나타낸다. p2는 운전 상태에서 수평 방향의 축 거리를 나타내고, q2는 운전 상태에서 수직 방향의 축 거리를 나타낸다. p3은 수영 상태에서 수평 방향의 축 거리를 나타내고, q3는 수영 상태에서 수직 방향의 축 거리를 나타낸다.
둘째, 타깃 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로 사용하고, 가상 객체의 타깃 상태 및 움직임 상태에 대응하는 축 거리 계수를 결정하고, 축 거리 계수와 기준 축 거리 길이의 곱은, 가상 객체의 움직임 상태에 대응하는 축 거리 길이로 결정된다. 선택적으로, 가상 객체의 움직임 상태는 서 있는 상태, 운전 상태 및 수영 상태 중 어느 하나를 포함한다. 타깃 상태가 서 있는 상태인 예를 사용하여 설명한다. 가상 객체가 운전 상태인 경우, 운전 상태에 대응하는 제1 축 거리 계수를 결정하고, 제1 축 거리 계수와 기준 축 거리 길이의 곱을 운전 상태에 대응하는 축 거리 길이로 결정한다. 대안적으로, 가상 객체가 수영 상태인 경우, 수영 상태에 대응하는 제2 축 거리 계수를 결정하고, 제2 축 거리 계수와 기준 축 거리 길이의 곱을 수영 상태에 대응하는 축 거리 길이로 결정한다. 선택적으로, 단말은 축 거리 계수와 움직임 상태 간의 대응 관계를 저장할 수 있거나, 서버로부터 대응 관계를 획득할 수 있다. 예를 들어, 대응 관계는 아래의 표 3에 나타나 있다.
[표 3]
서 있는 상태의 제2 회전 축 거리가 (x, y)인 경우, 운전 상태에 대응하는 제2 회전 축 거리는 (0.7x, 0.8y)이고, 수영 상태에 대응하는 제2 회전 축 거리는 (1.5x, 1.2y)이다.
예를 들어, 도 10을 참조하면, 가상 객체(1010)가 서 있는 상태인 경우, 가상 객체(1010)에 대응하는 가로 회전 축(1011)의 축 거리(회전 중심(1013)과 카메라 모델(1014) 사이의 거리)는 x이고, 세로 회전 축(1012)의 축 거리(회전 중심(1013)과 지면(ground) 사이의 거리)는 y이다. 가상 객체(1010)가 운전 상태인 경우, 운전 상태에 대응하는 가로 회전 축(1021)의 축 거리(회전 중심(1023)과 카메라 모델(1024) 사이의 거리)는 1.25x이고, 세로 회전 축(1022)의 축 거리(회전 중심(1023)과 지면 사이의 거리)는 0.8y이다.
단계 905. 축 거리 길이에 따라 회전 중심의 위치를 조정하여, 제1 회전 축 거리를 제2 회전 축 거리로 조정한다.
선택적으로, 제2 회전 축 거리는 관찰 포인트와 조정된 회전 중심 사이의 거리이다. 선택적으로, 제2 회전 축 거리는 카메라 모델과 조정된 회전 중심 사이의 거리이다.
단계 906. 제2 환경 인터페이스를 표시하되, 제2 환경 인터페이스는, 제2 회전 축 거리를 이용하여 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
결론적으로, 본 실시 예에서 제공되는 가상 환경에서 가상 아이템을 관찰하는 방법에 있어서, 시야 각 회전 동작의 동작 파라미터는 아이템 관찰 조건과 매칭되어, 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인지 여부를 결정한다. 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인 경우, 회전 중심의 위치를 조정하여 관찰 포인트와 회전 중심 사이의 회전 축 거리를 조정하여 관측 포인트의 회전 유연성을 조정한다. 가상 아이템의 관찰과 매칭되는 회전 유연성은 시야 각 회전 동작을 모니터링함으로써 실시간으로 전환되며, 일반 축 거리와 가상 아이템을 관찰하는 축 거리를 구분하여, 더 넓은 시야를 사용하여 보다 유연한 방식으로 가상 아이템을 관찰할 수 있다.
본 실시 예에서 제공되는 방법에서, 상이한 제2 회전 축 거리들은 가상 객체의 상이한 움직임 상태들에 대해 설정된다. 상이한 움직임 상태들은 상이한 제2 회전 축 거리들에 피팅(fit)된다. 예를 들어, 운전 상태에서, 가상 객체의 움직임 속도가 상대적으로 크고, 시야 각의 상대적으로 낮은 회전 유연성이 필요하므로, 운전 상태의 유연성 요구 사항에 따라 대응하는 제2 회전 축 거리가 피팅되고, 서 있는 상태에서 제2 회전 축 거리가 운전 상태에 피팅되지 않는 문제를 방지할 수 있다.
선택적 실시 예에서, 상이한 개인 시야 각들에 대응하는 제2 회전 축 거리들은 상이하다. 도 11은 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 흐름도이다. 예를 들어, 상기 방법은 단말에 적용된다. 상기 방법은 다음을 포함한다.
단계 1101. 제1 환경 인터페이스를 표시하되, 제1 환경 인터페이스는, 제1 회전 축 거리를 이용하여 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
선택적으로, 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리이다. 선택적으로, 가상 환경은, 관찰 포인트에서 카메라 모델을 사용하여 가상 환경의 화상을 획득함으로써 관찰된다. 즉, 제1 회전 축 거리는 카메라 모델과 회전 중심 사이의 거리이다.
선택적으로, 제1 회전 축 거리를 사용하여 가상 환경에서 회전 관찰이 수행되는 관찰 방식은 전술한 단계 501에서 상세하게 설명되었다. 상세한 내용에 대해서는 다시 설명하지 않는다.
단계 1102. 시야 각 회전 동작을 수신한다.
선택적으로, 시야 각 회전 동작은 회전 중심을 중심으로 관찰 포인트를 회전하도록 구성된다.
선택적으로, 시야 각 회전 동작의 구현은 전술한 단계 502에서 상세하게 설명되었다. 상세한 내용에 대해서는 다시 설명하지 않는다.
단계 1103. 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 가상 객체의 움직임 상태를 결정한다.
선택적으로, 움직임 상태는 서 있는 상태, 달리기 상태, 걷기 상태, 운전 상태, 라이딩 상태 및 수영 상태 중 어느 하나를 포함한다.
선택적으로, 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는지 여부를 결정하는 방식은 전술한 단계 503에서 상세히 설명되었다. 상세한 내용에 대해서는 다시 설명하지 않는다.
단계 1104. 타깃 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로 사용하고, 가상 객체의 개인 시야 각 및 움직임 상태에 대응하는 축 거리 계수를 결정한다.
선택적으로, 움직임 상태들 중 어떤 상태든 타깃 상태로 구현될 수 있다. 예를 들어, 서 있는 상태에 대응하는 축 거리 길이가 기준 축 거리 길이로서 사용된다.
선택적으로, 타깃 개인 시야 각에서 타깃 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로 사용한다. 예를 들어, 1 인칭 시야 각에서 서 있는 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로 사용한다.
선택적으로, 단말은 개인 시야 각, 동작 상태 및 축 거리 계수 간의 대응 관계를 저장한다. 대안적으로, 단말은 서버로부터 대응 관계를 획득한다. 예를 들어, 대응 관계는 아래의 표 4에 나타나 있다.
[표 4]
단계 1105. 축 거리 계수와 기준 축 거리 길이의 곱을 가상 객체의 움직임 상태에 대응하는 축 거리 길이로 결정한다.
상기 표 4를 참조하면, 1 인칭 시야 각에서 서 있는 상태에 대응하는 제2 회전 축 거리가 (x, y)인 경우, 3 인칭 시야 각에서 서 있는 상태에 대응하는 제2 회전 축 거리는 (0.5x, 0.85y)이고, 1 인칭 시야 각에서 운전 상태에 대응하는 제2 회전 축 거리는 (0.75x, 0.8y)이고, 3 인칭 시야 각에서 운전 상태에 대응하는 제2 회전 축 거리는 (2.25x, 0.85y)이고, 1 인칭 시야 각에서 수영 상태에 대응하는 제2 회전 축 거리는 (0.5x, 0.65y)이며, 3 인칭 시야 각에서 수영 상태에 대응하는 제2 회전 축 거리는 (x, 1.2y)이다.
선택적으로, 축 거리 길이는 대안적으로, 인터페이스 표시 방식으로 맞춤화될(customized) 수 있다. 즉, 단말은 축 거리 조정 인터페이스를 표시하고, 축 거리 조정 인터페이스는 미리보기된(previewed) 축 거리가 포함한다. 사용자는 드래그 동작 또는 값 입력 동작을 수행하여 축 거리 길이를 조정할 수 있거나, 동작 상태 및 개인 시야 각을 선택하여 서로 다른 개인 시야 각에서 서로 다른 움직임 상태에 대응하는 축 거리 길이를 조정할 수 있다.
단계 1106. 축 거리 길이에 따라 회전 중심의 위치를 조정하여, 제1 회전 축 거리를 제2 회전 축 거리로 조정한다.
선택적으로, 제2 회전 축 거리는 관찰 포인트와 조정된 회전 중심 사이의 거리이다. 선택적으로, 제2 회전 축 거리는 카메라 모델과 조정된 회전 중심 사이의 거리이다.
단계 1107. 제2 환경 인터페이스를 표시하되, 제2 환경 인터페이스는, 제2 회전 축 거리를 이용하여 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
선택적으로, 시야 각 회전 동작이 제2 환경 인터페이스 상에서 수신되고, 시야 각 회전 동작이 회전 축 거리 복원 조건을 만족하는 경우, 제2 회전 축 거리는 회전 중심의 위치를 조정하여 제1 회전 축 거리로 복원된다. 예를 들어, 단말의 표시 화면 상에 상향 슬라이드 동작이 수신되고, 상향 슬라이드 조작이 미리 설정된 각도 범위 내에 있는 경우, 제2 회전 축 거리는 회전 중심의 위치를 조정하여 제1 회전 축 거리로 복원된다. .
결론적으로, 본 실시 예에서 제공되는 가상 환경에서 가상 아이템을 관찰하는 방법에 있어서, 시야 각 회전 동작의 동작 파라미터는 아이템 관찰 조건과 매칭되어, 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인지 여부를 결정한다. 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인 경우, 회전 중심의 위치를 조정하여 관찰 포인트와 회전 중심 사이의 회전 축 거리를 조정하여 관측 포인트의 회전 유연성을 조정한다. 가상 아이템의 관찰과 매칭되는 회전 유연성은 시야 각 회전 동작을 모니터링함으로써 실시간으로 전환되며, 일반 축 거리와 가상 아이템을 관찰하는 축 거리를 구분하여, 더 넓은 시야를 사용하여 보다 유연한 방식으로 가상 아이템을 관찰할 수 있다.
본 실시 예에서 제공되는 방법에서, 피팅은 상이한 개인 시야 각들에서 제2 회전 축 거리들을 사용하여 수행되며, 가상 환경의 몰입 정도(degrees of immersion)가 다르기 때문에 발생하는 축 거리의 불일치(mismatch) 문제를 방지하지만, 제2 회전 축 거리들은 1 인칭 시야 각 및 3 인칭 시야 각에서 동일하다.
예를 들어, 도 12는 본 출원의 예시적인 다른 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 방법에 대한 전체적인 흐름도이다. 예를 들어, 상기 방법은 단말에 적용된다. 도 12에 도시된 바와 같이, 상기 방법은 다음을 포함한다.
단계 1201. 수평 방향에서 슬라이드 동작의 사이 각(included angle) p가 a보다 크지 않은지 결정한다.
선택적으로, 결정 동작은, 슬라이드 동작이 아이템 관찰 조건을 만족하는지 여부를 결정하는 것이다.
단계 1202. p>a인 경우, 퀵 렌즈 픽킹 스킴(quick lens picking scheme)의 사용을 생략하며, 시야 각 회전 방향은 p이고, 회전축이 고정된다.
선택적으로, p>a, 즉 슬라이드 동작이 아이템 관찰 조건을 만족하지 않는 경우, 시야 각 회전은 가상 환경에서 가상 아이템이 관찰되어야 함을 나타내지 않는다.
단계 1203. p≤a인 경우, 퀵 렌즈 픽킹 스킴을 사용하며, 시야 각 회전 방향은 p이고, 가상 객체의 상태를 결정한다.
선택적으로, 가상 객체의 상태를 결정하는 것은 가상 객체의 움직임 상태를 결정하는 것을 포함한다. 움직임 상태는 서 있는 상태, 운전 상태, 수영 상태 중 어느 하나를 포함한다.
단계 1204. 가상 객체가 서 있는 상태인 경우, 1 인칭 시야 각에서의 회전 축 값을 (x1, y1)으로, 3 인칭 시야 각에서의 회전 축 값을 (x2, y2)로 결정한다.
단계 1205. 가상 객체가 운전 상태인 경우, 1 인칭 시야 각에서의 회전 축 값을 (x3, y3)으로, 3 인칭 시야 각에서의 회전 축 값을 (x4, y4)로 결정한다.
단계 1206. 가상 객체가 수영 상태인 경우, 1 인칭 시야 각에서의 회전 축 값을 (x5, y5)로, 3 인칭 시야 각에서의 회전 축 값을 (x6, y6)으로 결정한다.
단계 1207. 회전 값을 검출하고, 대응하는 시야 각 범위에 의해 대응하는 회전 축 상에서 회전한다.
선택적으로, 조정된 회전 축 값을 갖는 회전 축을 사용하여, 시야 각 회전 동작에 따라 시야 각이 회전한다.
결론적으로, 본 실시 예에서 제공되는 가상 환경에서 가상 아이템을 관찰하는 방법에 있어서, 시야 각 회전 동작의 동작 파라미터는 아이템 관찰 조건과 매칭되어, 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인지 여부를 결정한다. 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인 경우, 회전 중심의 위치를 조정하여 관찰 포인트와 회전 중심 사이의 회전 축 거리를 조정하여 관측 포인트의 회전 유연성을 조정한다. 가상 아이템의 관찰과 매칭되는 회전 유연성은 시야 각 회전 동작을 모니터링함으로써 실시간으로 전환되며, 일반 축 거리와 가상 아이템을 관찰하는 축 거리를 구분하여, 더 넓은 시야를 사용하여 보다 유연한 방식으로 가상 아이템을 관찰할 수 있다.
본 출원의 실시 예들에서 단계들은 반드시 단계 번호로 표시된 순서에 따라 수행되는 것은 아님을 이해해야 한다. 본 출원에서 명시적으로 명시하지 않는 한, 단계들의 실행은 엄격하게 제한되지 않으며, 단계들은 다른 순서로 수행될 수 있다. 또한, 각 실시 예의 단계들 중 적어도 일부는 복수의 하위 단계들 또는 복수의 스테이지들을 포함할 수 있다. 하위 단계들 또는 스테이지들은 반드시 동시에 수행되는 것은 아니며, 다른 순간에 수행될 수 있다. 하위 단계들 또는 스테이지들은 반드시 순차적으로 수행되는 것은 아니며, 차례로 또는 다른 단계 또는 다른 단계에 대한 하위 단계들 또는 스테이지들과 교대로 수행될 수 있다.
도 13은 본 출원의 예시적인 일 실시 예에 따른 가상 환경에서 가상 아이템을 관찰하는 장치에 대한 구조적 블록도이다. 장치는 단말에서 구현될 수 있다. 도 13에 도시된 바와 같이, 장치는 표시 모듈(1310), 수신 모듈(1320) 및 조정 모듈(1330)을 포함한다.
표시 모듈(1310)은 제1 환경 인터페이스를 표시하도록 구성되며, 제1 환경 인터페이스는, 제1 회전 축 거리를 이용하여 회전 관찰을 수행할 때 가상 환경의 화상을 포함하고, 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리이다.
수신 모듈(1320)은 시야 각 회전 동작을 수신하도록 구성되며, 시야 각 회전 동작은, 회전 중심을 중심으로 관찰 포인트를 회전시키도록 구성된다.
조정 모듈(1330)은 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 구성된다.
표시 모듈(1310)은 제2 환경 인터페이스를 표시하도록 추가로 구성되며, 제2 환경 인터페이스는, 제2 회전 축 거리를 이용하여 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 가상 환경의 화상을 포함한다.
선택적 일 실시 예에서, 도 14에 도시된 바와 같이, 조정 모듈(1330)은 다음을 포함한다.
가상 객체의 움직임 상태를 결정하도록 구성된 결정 유닛(1331);
결정 유닛(1331)은 가상 객체의 움직임 상태에 대응하는 축 거리 길이를 결정하도록 추가로 구성되고, 축 거리 길이는 제2 회전 축 거리에 대한 축 거리 길이이고;
제1 회전 축 거리를 제2 회전 축 거리로 조정하기 위해, 축 거리 길이에 따라 회전 중심의 위치를 조정하도록 구성된 조정 유닛(1332).
선택적 일 실시 예에서, 결정 유닛(1331)은 타깃 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로서 사용하고, 가상 객체의 움직임 상태 및 타깃 상태에 대응하는 축 거리 계수를 결정하도록 추가로 구성된다.
결정 유닛(1331)은 축 거리 계수와 기준 축 거리 길이의 곱을 가상 객체의 움직임 상태에 대응하는 축 거리 길이로 추가로 결정한다.
선택적 일 실시 예에서, 움직임 상태는 서 있는 상태, 운전 상태 및 수영 상태 중 어느 하나이고, 서 있는 상태가 타깃 상태이고;
결정 유닛(1331)은, 가상 객체가 운전 상태에 있을 때, 운전 상태에 대응하는 제1 축 거리 계수를 결정하고, 제1 축 거리 계수와 기준 축 거리 길이의 곱을 운전 상태에 대응하는 축 거리 길이로서 결정하도록 추가로 구성되거나;
또는
결정 유닛(1331)은, 가상 객체가 수영 상태에 있을 때, 수영 상태에 대응하는 제2 축 거리 계수를 결정하고, 제2 축 거리 계수와 기준 축 거리 길이의 곱을 수영 상태에 대응하는 축 거리 길이로서 결정하도록 추가로 구성된다.
선택적 일 실시 예에서, 결정 유닛(1331)은 가상 환경이 관찰되는 개인 시야 각을 결정하고; 가상 객체의 움직임 상태 및 개인 시야 각에 대응하는 축 거리 계수를 결정하도록 추가로 구성된다.
선택적 일 실시 예에서, 동작 파라미터는 동작 각을 포함한다.
조정 모듈(1330)은, 동작 각이 타깃 각 범위 내에 있는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 추가로 구성된다.
선택적 일 실시 예에서, 동작 파라미터는 가상 환경에서 가상 객체의 미리 설정된 거리 범위 내의 가상 아이템 존재 상태를 더 포함한다.
조정 모듈(1330)은, 조작 각도가 타깃 각 범위 내에 있고 가상 환경에서 가상 객체의 미리 설정된 거리 범위 내에 가상 아이템이 존재하는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 추가로 구성된다.
선택적 일 실시 예에서, 가상 환경은 관찰 포인트에서 카메라 모델을 사용하여 관찰되고, 동작 파라미터는 카메라 모델의 회전 종료 위치를 더 포함한다.
조정 모듈(1330)은, 동작 각이 타깃 각 범위 내에 있고 회전 종료 위치가 미리 설정된 위치 범위 내에 있는 경우, 회전 중심의 위치를 조정하여 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 추가로 구성된다.
결론적으로, 본 실시 예에서 제공되는 가상 환경에서 가상 아이템을 관찰하는 장치에 있어서, 시야 각 회전 동작의 동작 파라미터는 아이템 관찰 조건과 매칭되어, 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인지 여부를 결정한다. 시야 각 회전 동작 후 관찰 시야 각이 가상 아이템을 관찰하는 시야 각인 경우, 회전 중심의 위치를 조정하여 관찰 포인트와 회전 중심 사이의 회전 축 거리를 조정하여 관측 포인트의 회전 유연성을 조정한다. 가상 아이템의 관찰과 매칭되는 회전 유연성은 시야 각 회전 동작을 모니터링함으로써 실시간으로 전환되며, 일반 축 거리와 가상 아이템을 관찰하는 축 거리를 구분하여, 더 넓은 시야를 사용하여 보다 유연한 방식으로 가상 아이템을 관찰할 수 있다.
도 15는 본 출원의 예시적인 일 실시 예에 따른 단말(1500)의 구조적 블록도이다. 단말(1500)은 스마트 폰, 태블릿 컴퓨터, MP3 플레이어, MP4 플레이어, 노트북 컴퓨터 또는 데스크톱 컴퓨터일 수 있다. 단말(1500)은 사용자 장비, 휴대용 단말, 랩톱 단말 또는 데스크톱 단말 또는 다른 이름으로도 지칭될 수 있다.
일반적으로, 단말(1500)은 프로세서(1501) 및 메모리(1502)를 포함한다.
프로세서(1501)는 하나 이상의 프로세싱 코어를 포함할 수 있으며, "복수의"는 적어도 둘을 의미하고, 예를 들어, 4 코어 프로세서 또는 8 코어 프로세서일 수 있다. 프로세서(1501)는 DSP(digital signal processor), FPGA(field-programmable gate array), PLA(programmable logic array) 중 적어도 하나의 하드웨어 형태로 구현될 수 있다. 프로세서(1501)는 대안적으로 메인 프로세서 및 코프로세서(coprocessor)를 포함할 수 있다. 메인 프로세서는 액티브 상태(active state)에서 데이터를 처리하도록 구성되며, 중앙 처리 장치(central processing unit, CPU)라고도 한다. 코프로세서는 대기 상태(standby state)에서 데이터를 처리하도록 구성된 저 전력 프로세서이다. 일부 실시 예들에서, 그래픽 처리 장치(graphics processing unit, GPU)가 프로세서(1501)에 통합될 수 있다. GPU는 표시 화면에 표시될 콘텐츠를 렌더링하고 그리는 것을 담당한다. 일부 실시 예들에서, 프로세서(1501)는 인공 지능(artificial intelligence, AI) 프로세서를 더 포함할 수 있다. AI 프로세서는 기계 학습과 관련된 컴퓨팅 작업을 처리하도록 구성된다.
메모리(1502)는 하나 이상의 컴퓨터로 판독 가능한 저장 매체를 포함할 수 있다. 컴퓨터로 판독 가능한 저장 매체는 비 일시적(non-transient)일 수 있다. 메모리(1502)는 고속 랜덤 액세스 메모리(RAM) 및 비 휘발성 메모리, 예를 들어, 하나 이상의 자기 디스크 저장 디바이스 및 플래시 저장 디바이스를 더 포함할 수 있다. 일부 실시 예들에서, 메모리(1502)의 비 일시적인 컴퓨터로 판독 가능한 저장 매체는 적어도 하나의 인스트럭션을 저장하도록 구성되고, 적어도 하나의 인스트럭션은, 본 출원의 방법 실시 예들에서 제공되는 가상 환경에서 가상 아이템을 관찰하는 방법을 구현하기 위해 프로세서(1501)에 의해 실행되도록 구성된다.
일부 실시 예들에서, 단말(1500)은 선택적으로 주변기기 인터페이스(1503) 및 적어도 하나의 주변기기를 더 포함할 수 있다. 프로세서(1501), 메모리(1502) 및 주변기기 인터페이스(1503)는 버스 또는 신호 케이블(signal cable)을 통해 연결될 수 있다. 각 주변기기는 버스, 신호 케이블 또는 회로 기판을 통해 주변기기 인터페이스(1503)에 연결될 수 있다. 구체적으로, 주변기기는 무선 주파수(RF) 회로(1504), 표시 화면(1505), 카메라 컴포넌트(1506), 오디오 회로(1507), 포지셔닝 컴포넌트(1508) 및 전원(1509) 중 적어도 하나를 포함한다.
주변기기 인터페이스(1503)는 입출력(I/O)과 관련된 적어도 하나의 주변기기를 프로세서(1501) 및 메모리(1502)에 연결하도록 구성될 수 있다. 일부 실시 예들에서, 프로세서(1501), 메모리(1502) 및 주변기기 인터페이스(1503)는 동일한 칩 또는 회로 기판으로 통합된다. 일부 다른 실시 예들에서, 프로세서(1501), 메모리(1502) 및 주변기기 인터페이스(1503) 중 어느 하나 또는 모두는 독립 칩 또는 회로 기판 상에 구현될 수 있다. 이것은 본 실시 예에서 제한되지 않는다.
RF 회로(1504)는, 전자기 신호 라고도 하는 RF 신호를 수신 및 전송하도록 구성된다. RF 회로(1504)는 전자기 신호를 이용하여 통신 네트워크 및 다른 통신 디바이스와 통신한다. RF 회로(1504)는 전송을 위해 전기 신호를 전자기 신호로 변환하거나, 수신된 전자기 신호를 전기 신호로 변환한다. 선택적으로, RF 회로(1504)는, 안테나 시스템, RF 트랜시버, 하나 이상의 증폭기, 튜너, 발진기, 디지털 신호 프로세서, 코덱 칩셋, 가입자 식별 모듈 카드 등을 포함한다. RF 회로(1504)는 적어도 하나의 무선 통신 프로토콜을 사용하여 다른 단말과 통신할 수 있다. 무선 통신 프로토콜은, 월드 와이드 웹, 대도시 지역 네트워크(metropolitan area network), 인트라넷, 이동 통신 네트워크의 세대(2G, 3G, 4G 및 5G), 무선 근거리 통신망 및/또는 Wi-Fi(wireless fidelity) 네트워크를 포함하지만, 이에 제한되는 것은 아니다. 일부 실시 예들에서, RF 회로(1504)는 NFC(near field communication)와 관련된 회로를 더 포함할 수 있다. 이는 본 출원에서 제한되지 않는다.
표시 화면(1505)은 사용자 인터페이스(user interface, UI)를 표시하도록 구성된다. UI는 그래프, 텍스트, 아이콘, 비디오 및 이들의 조합을 포함할 수 있다. 표시 화면(1505)이 터치 표시 화면인 경우, 표시 화면(1505)은 표시 화면(1505)의 표면 상 또는 위에서 터치 신호를 수집하는 기능을 더 갖는다. 터치 신호는, 처리를 위한 제어 신호로서 프로세서(1501)에 입력될 수 있다. 이 경우, 표시 화면(1505)은 가상 버튼 및/또는 가상 키보드를 제공하도록 추가로 구성될 수 있으며, 이는 소프트 버튼 및/또는 소프트 키보드로도 지칭될 수 있다. 일부 실시 예들에서, 단말(1500)의 전면 패널에 하나의 표시 화면(1505)이 배치될 수 있다. 일부 다른 실시 예들에서, 단말(1500)의 서로 다른 표면에 각각 배치되거나 접히는 디자인의 적어도 두 개의 표시 화면(1505)이 존재할 수 있다. 또 다른 실시 예들에서, 표시 화면(1505)은 단말(1500)의 곡면 또는 접힌 면에 배치된 플렉서블 표시 화면일 수 있다. 표시 화면(1505)은 직사각형이 아닌 불규칙한 그래프, 즉 특수한 형상의 화면을 갖도록 추가로 설정될 수 있다. 표시 화면(1505)은 LCD(Liquid Crystal Display), OLED(Organic Light-Emitting Diode) 등과 같은 재료를 사용하여 제작될 수 있다.
카메라 컴포넌트(1506)는 이미지 또는 비디오를 획득하도록 구성된다. 선택적으로, 카메라 컴포넌트(1506)는 전면 카메라 및 후면 카메라를 포함한다. 일반적으로, 전면 카메라는 단말의 전면 패널 상에 배치되고, 후면 카메라는 단말 후면 상에 배치된다. 일부 실시 예들에서, 후면 카메라가 2개 이상 존재할 수 있고, 이는 각각 메인 카메라, 피사계 심도(depth-of-field) 카메라, 광각 카메라, 망원 카메라 중 하나이며, 이는 메인 카메라와 피사계 심도 카메라의 융합을 통해 배경 흐림 효과(background blur), 파노라마 촬영 및, 메인 카메라와 광각 카메라의 융합 또는 기타 융합 촬영 기능을 통한 가상 현실(virtual reality, VR) 촬영을 하기 위한 것이다. 일부 실시 예들에서, 카메라 컴포넌트(1506)는 플래시라이트를 더 포함할 수 있다. 플래시는 단색 온도 플래시(monochrome temperature flash)이거나 이중 색온도 플래시(double color temperature flash)일 수 있다. 이중 색온도 플래시는 따뜻한 빛 플래시(warm light flash)와 차가운 빛 플래시(cold light flash)의 조합을 의미하며, 다른 색온도에서 빛을 보정하기 위해 사용될 수 있다.
오디오 회로(1507)는 마이크로폰 및 스피커를 포함할 수 있다. 마이크로폰은 사용자 및 환경의 음파를 수집하고, 음파를 전기 신호로 변환하여 처리를 위해 상기 전기 신호를 프로세서(1501)에 입력하거나, 음성 통신을 구현하기 위해 상기 전기 신호를 RF 회로(1504)에 입력하도록 구성된다. 스테레오 수집 또는 노이즈 감소를 위해, 단말(1500)의 서로 다른 부분에 각각 복수의 마이크로폰들이 배치될 수 있다. 마이크로폰은 또한 어레이 마이크로폰(array microphone) 또는 무 지향성 수집형 마이크로폰(omni-directional collection type microphone)일 수 있다. 스피커는 프로세서(1501) 또는 RF 회로(1504)로부터의 전기 신호를 음파로 변환하도록 구성된다. 스피커는 종래의 필름 스피커일 수도 있고, 압전 세라믹 스피커일 수도 있다. 스피커가 압전 세라믹 스피커인 경우, 스피커는 전기 신호를 사람이 들을 수 있는 음파로 변환할 수 있을 뿐 아니라, 거리 측정 및 기타 목적을 위해 전기 신호를 사람이 들을 수 없는 음파로 변환할 수도 있다. 일부 실시 예들에서, 오디오 회로(1507)는 또한 이어폰 잭을 포함할 수 있다.
포지셔닝 컴포넌트(1508)는, 내비게이션 또는 위치 기반 서비스(location based service, LBS)를 구현하기 위해, 단말(1500)의 현재 지리적 위치를 결정하도록 구성된다. 포지셔닝 컴포넌트(1508)는 미국의 GPS(Global Positioning System), 중국의 BeiDou 시스템 또는 유럽연합(European Union)의 GALILEO 시스템에 기반한 포지셔닝 컴포넌트일 수 있다.
전원(1509)은 단말(1500)의 컴포넌트들에 전원을 공급하도록 구성된다. 전원(1509)은 교류, 직류, 일차 배터리 또는 충전식 배터리일 수 있다. 전원(1509)이 충전식 배터리를 포함하는 경우, 충전식 배터리는 유선 충전식 배터리 또는 무선 충전식 배터리일 수 있다. 유선 충전식 배터리는 유선 회로를 통해 충전되는 배터리이고, 무선 충전식 배터리는 무선 코일을 통해 충전되는 배터리이다. 충전식 배터리는 고속 충전 기술을 지원하도록 추가로 구성될 수 있다.
일부 실시 예들에서, 단말(1500)은 하나 이상의 센서(1510)를 더 포함한다. 하나 이상의 센서(1510)는, 가속도 센서(1511), 자이로스코프 센서(1512), 압력 센서(1513), 지문 센서(1514), 광학 센서(1515) 및 근접 센서(1516)를 포함하지만 이에 제한되지 않는다.
가속도 센서(1511)는 단말(1500)로 설정한 좌표계의 3 개의 좌표축에 대한 가속도의 크기를 검출할 수 있다. 예를 들어, 가속도 센서(1511)는 3 개의 좌표축에서 중력 가속도 성분을 검출하도록 구성될 수 있다. 프로세서(1501)는, 가속도 센서(1511)에 의해 수집되는 중력 가속도 신호에 따라, 터치 표시 화면(1505)을 제어하여, UI를 가로보기(landscape view) 또는 세로보기(portrait view)로 표시할 수 있다. 가속도 센서(1511)는 게임 또는 사용자의 움직임 데이터를 수집하도록 추가로 구성될 수 있다.
자이로스코프 센서(1512)는 단말(1500)의 바디 방향 및 회전 각도를 검출할 수 있다. 자이로스코프 센서(1512)는 가속도 센서(1511)와 연동하여, 단말(1500) 상에서 사용자의 3D 액션을 수집할 수 있다. 프로세서(1501)는 자이로스코프 센서(1512)에 의해 수집되는 데이터에 따라, 모션 센싱(예를 들어, 사용자의 틸트(tilt) 조작에 따른 UI 변화), 촬영 시 이미지 안정화, 게임 제어, 관성 내비게이션 등의 기능을 구현할 수 있다.
압력 센서(1513)는 단말(1500)의 측면 프레임 및/또는 터치 표시 화면(1505)의 하부 층에 배치될 수 있다. 압력 센서(1513)가 단말(1500)의 측면 프레임에 배치되는 경우, 단말(1500)에 대한 사용자의 홀딩 신호가 검출될 수 있다. 프로세서(1501)는 압력 센서(1513)에 의해 수집되는 홀딩 신호에 따라 왼손 및 오른손 인식 또는 빠른 작업을 수행한다. 압력 센서(1513)가 터치 표시 화면(1505)의 하위 층에 배치되는 경우, 프로세서(1501)는 터치 표시 화면(1505) 상에서 사용자의 압력 조작에 따라, UI 상에서 작동 가능한 컨트롤을 제어한다. 작동 가능한 컨트롤은 버튼 컨트롤, 스크롤바 컨트롤, 아이콘 컨트롤 및 메뉴 컨트롤 중 적어도 하나를 포함한다.
지문 센서(1514)는 사용자의 지문을 수집하도록 구성되고, 프로세서(1501)는 지문 센서(1514)에 의해 수집되는 지문에 따라 사용자의 신원을 인식하거나, 지문 센서(1514)는 수집되는 지문에 따라 사용자의 신원을 식별한다. 사용자의 신원이 신뢰할 수 있는 것으로 인식된 경우, 프로세서(1501)는 사용자가 관련된 민감한 작업들을 수행할 권한을 부여한다. 민감한 작업에는 화면 잠금 해제, 암호화된 정보 조회, 소프트웨어 다운로드, 결제, 설정 변경 등이 포함된다. 지문 센서(1514)는 단말(1500)의 전면, 후면 또는 측면 상에 배치될 수 있다. 단말(1500) 상에 물리적 버튼 또는 벤더 로고가 배치되는 경우, 지문 센서(1514)는 물리적 버튼 또는 벤더 로고와 통합될 수 있다.
광학 센서(1515)는 주변 광 강도(ambient light intensity)를 수집하도록 구성된다. 일 실시 예에서, 프로세서(1501)는 광학 센서(1515)에 의해 수집되는 주변 광 강도에 따라 터치 표시 화면(1505)의 표시 밝기를 제어할 수 있다. 구체적으로, 주변 광의 강도가 상대적으로 높으면, 터치 표시 화면(1505)의 표시 밝기가 높아진다. 주변 광의 강도가 상대적으로 낮으면, 터치 표시 화면(1505)의 표시 밝기가 낮아진다. 다른 실시 예에서, 프로세서(1501)는 추가로, 광학 센서(1515)에 의해 수집되는 주변 광 강도에 따라 카메라 컴포넌트(1506)의 카메라 파라미터를 동적으로 조절할 수 있다.
거리 센서라고도 하는 근접 센서(1516)는 일반적으로 단말(1500)의 전면 패널 상에 배치된다. 근접 센서(1516)는 사용자와 단말(1500)의 전면 사이의 거리를 수집하도록 구성된다. 일 실시 예에서, 근접 센서(1516)가 사용자와 단말(1500)의 전면 사이의 거리가 점차 줄어드는 것을 검출하면, 터치 표시 화면(1501)은 프로세서(1505)에 의해 제어되어, 화면 켜짐 상태에서 화면 꺼짐 상태로 전환한다. 근접 센서(1516)가 사용자와 단말(1500)의 전면 사이의 거리가 점차 커지는 것을 검출하면, 터치 표시 화면(1501)은 프로세서(1505)에 의해 제어되어, 화면 꺼짐 상태에서 화면 켜짐 상태로 전환한다.
본 발명이 속하는 기술 분야의 통상의 기술자는 도 15에 도시된 구조가 단말(1500)에 대한 제한을 구성하지 않으며, 단말은 도면에 도시된 것보다 더 많거나 더 적은 구성요소들을 포함할 수 있고, 또는 일부 구성요소들이 결합될 수 있거나, 또는 다른 구성요소 배열(arrangement)이 사용될 수 있음을 이해할 수 있다.
본 출원의 일 실시 예는 컴퓨터 디바이스를 더 제공한다. 컴퓨터 디바이스는 메모리 및 프로세서를 포함하고, 메모리는 적어도 하나의 인스트럭션, 적어도 하나의 프로그램, 코드 세트 또는 인스트럭션 세트를 저장하며, 적어도 하나의 인스트럭션, 적어도 하나의 프로그램, 코드 세트 또는 인스트럭션 세트는 로딩(load)되고 프로세서에 의해 실행되어, 도 5, 도 9 및 도 11 중 어느 하나의 가상 환경에서 가상 아이템을 관찰하는 전술한 방법을 구현한다.
본 출원의 일 실시 예는 컴퓨터로 판독 가능한 저장 매체를 더 제공하고, 판독 가능한 저장 매체는 적어도 하나의 인스트럭션, 적어도 하나의 프로그램, 코드 세트 또는 인스트럭션 세트를 저장하며, 적어도 하나의 인스트럭션, 적어도 하나의 프로그램, 코드 세트 또는 인스트럭션 세트는 로딩되고 프로세서에 의해 실행되어, 도 5, 도 9 및 도 11 중 어느 하나의 가상 환경에서 가상 아이템을 관찰하는 방법을 구현한다.
본 출원은 컴퓨터 프로그램 제품을 추가로 제공하며, 컴퓨터 프로그램 제품은, 컴퓨터 상에서 실행될 때, 컴퓨터로 하여금 전술한 방법 실시 예들에 따른 가상 환경에서 가상 아이템을 관찰하는 방법을 수행하도록 한다.
본 발명이 속하는 기술 분야의 통상의 기술자는 실시 예들의 방법의 단계들의 전부 또는 일부가, 관련 하드웨어를 지시하는 프로그램에 의해 구현될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다. 컴퓨터로 판독 가능한 저장 매체는 전술한 실시 예에서 메모리에 포함되는 컴퓨터로 판독 가능한 저장 매체일 수 있거나, 독립적으로 존재하며 단말에 조립되지 않은 컴퓨터로 판독 가능한 저장 매체일 수 있다. 컴퓨터로 판독 가능한 저장 매체는, 적어도 하나의 인스트럭션, 적어도 하나의 프로그램, 코드 세트 또는 명령 세트를 저장하고, 적어도 하나의 인스트럭션, 적어도 하나의 프로그램, 코드 세트 또는 명령 세트는 로딩되고 프로세서에 의해 실행되어, 도 5, 도 9 및 도 11 중 어느 하나에 도시된 가상 환경에서 가상 아이템을 관찰하는 방법을 구현한다.
선택적으로, 컴퓨터로 판독 가능한 저장 매체는, ROM(read-only memory), PROM(programmable ROM), EPROM(electrically programmable ROM), EEPROM(electrically erasable programmable ROM) 또는 플래시 메모리를 포함할 수 있다. 휘발성 메모리는 RAM 또는 외부 고속 캐시(external high-speed cache)를 포함할 수 있다. 제한적이지 않은 설명을 위해, RAM은 SRAM(static RAM), DRAM(dynamic RAM), SDRAM(synchronous DRAM), DDRSDRAM(double data rate SDRAM), ESDRAM(enhanced SDRAM), SLDRAM(synchlink (Synchlink) DRAM), RDRAM(rambus (Rambus) direct RAM), DRDRAM(direct rambus dynamic RAM) 및 RDRAM(rambus dynamic RAM)과 같은 복수의 형태로 획득될 수 있다.본 발명이 속하는 기술 분야의 통상의 기술자는 전술한 실시 예들의 단계들의 전부 또는 일부가, 하드웨어에 의해 구현될 수 있거나, 관련 하드웨어를 지시하는 프로그램에 의해 구현될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다. 저장 매체는 읽기 전용 메모리, 자기 디스크, 광 디스크 등일 수 있다.
전술한 설명은 본 출원의 예시적인 실시 예들일 뿐이며, 본 출원을 제한하려는 의도는 아니다. 본 출원의 사상 및 원리 내에서 이루어지는 모든 수정, 균등한 대체, 또는 개선 등은 본 출원의 보호 범위에 속한다.

Claims (25)

  1. 컴퓨터 디바이스에 의해 수행되는, 가상 환경에서 가상 아이템을 관찰하는 방법에 있어서,
    제1 환경 인터페이스를 표시하는 단계 - 여기서, 상기 제1 환경 인터페이스는, 제1 회전 축 거리(rotation axis distance)를 이용하여 회전 관찰(rotation observation)을 수행할 때 가상 환경의 화상을 포함하고, 상기 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리임 -;
    시야 각 회전 동작(viewing angle rotation operation)을 수신하는 단계 - 여기서, 상기 시야 각 회전 동작은, 상기 회전 중심을 중심으로 상기 관찰 포인트를 회전시키도록 구성됨 -;
    상기 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하는 단계; 및
    제2 환경 인터페이스를 표시하는 단계 - 여기서, 상기 제2 환경 인터페이스는, 상기 제2 회전 축 거리를 이용하여 상기 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 상기 가상 환경의 화상을 포함함 - 를 포함하며,
    상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하는 단계는,
    상기 가상 객체의 움직임 상태(motion status)를 결정하는 단계;
    상기 가상 객체의 상기 움직임 상태에 대응하는 축 거리 길이(axis distance length)를 결정하는 단계 - 여기서, 상기 축 거리 길이는 상기 제2 회전 축 거리의 축 거리 길이임 -; 및
    상기 축 거리 길이에 따라 상기 회전 중심의 상기 위치를 조정하여, 상기 제1 회전 축 거리를 상기 제2 회전 축 거리로 조정하는 단계를 포함하고,
    상기 가상 객체의 상기 움직임 상태에 대응하는 축 거리 길이를 결정하는 단계는,
    타깃 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로 사용하고, 상기 가상 객체의 상기 움직임 상태 및 상기 타깃 상태에 대응하는 축 거리 계수를 결정하는 단계; 및
    상기 축 거리 계수와 상기 기준 축 거리 길이의 곱을, 상기 가상 객체의 상기 움직임 상태에 대응하는 상기 축 거리 길이로 결정하는 단계를 포함하며,
    상기 가상 객체의 상기 움직임 상태 및 상기 타깃 상태에 대응하는 축 거리 계수를 결정하는 단계는,
    상기 가상 환경이 관찰되는 개인 시야 각을 결정하는 단계; 및
    상기 가상 객체의 상기 움직임 상태 및 개인 시야 각에 대응하는 상기 축 거리 계수를 결정하는 단계를 포함하는
    가상 환경에서 가상 아이템을 관찰하는 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 동작 상태는 운전 상태 및 수영 상태 중 어느 하나이고, 상기 타깃 상태는 서 있는 상태이고;
    상기 가상 객체의 상기 움직임 상태 및 상기 타깃 상태에 대응하는 축 거리 계수를 결정하는 단계와, 상기 축 거리 계수와 상기 기준 축 거리 길이의 곱을, 상기 가상 객체의 상기 움직임 상태에 대응하는 상기 축 거리 길이로 결정하는 단계는,
    상기 가상 객체가 상기 운전 상태인 경우, 상기 운전 상태에 대응하는 제1 축 거리 계수를 결정하고, 상기 제1 축 거리 계수와 상기 기준 축 거리 길이의 곱을 상기 운전 상태에 대응하는 축 거리 길이로 결정하는 단계; 또는 상기 가상 객체가 상기 수영 상태인 경우, 상기 수영 상태에 대응하는 제2 축 거리 계수를 결정하고, 상기 제2 축 거리 계수와 상기 기준 축 거리 길이의 곱을 상기 수영 상태에 대응하는 축 거리 길이로 결정하는 단계를 포함하는, 가상 환경에서 가상 아이템을 관찰하는 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 동작 파라미터는 동작 각(operation angle)을 포함하고;
    상기 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하는 단계는,
    상기 동작 각이 타깃 각(target angle) 범위 내에 있는 경우, 상기 회전 중심의 상기 위치를 조정하여 상기 제1 회전 축 거리를 상기 제2 회전 축 거리로 조정하는 단계를 포함하는, 가상 환경에서 가상 아이템을 관찰하는 방법.
  7. 제6항에 있어서,
    상기 동작 파라미터는, 상기 가상 환경에서 상기 가상 객체의 미리 설정된 거리 범위 내의 가상 아이템 존재 상태를 더 포함하고;
    상기 동작 각이 타깃 각 범위 내에 있는 경우, 상기 회전 중심의 상기 위치를 조정하여 상기 제1 회전 축 거리를 상기 제2 회전 축 거리로 조정하는 단계는,
    상기 동작 각이 상기 타깃 각 범위 내에 있고 상기 가상 환경에서 상기 가상 객체의 상기 미리 설정된 거리 범위 내에 가상 아이템이 존재하는 경우, 상기 회전 중심의 상기 위치를 조정하여 상기 제1 회전 축 거리를 상기 제2 회전 축 거리로 조정하는 단계를 포함하는, 가상 환경에서 가상 아이템을 관찰하는 방법.
  8. 제6항에 있어서,
    상기 가상 환경은 상기 관찰 포인트에서 카메라 모델을 사용하여 관찰되고, 상기 동작 파라미터는 상기 카메라 모델의 회전 종료 위치를 더 포함하고;
    상기 동작 각이 타깃 각 범위 내에 있는 경우, 상기 회전 중심의 상기 위치를 조정하여 상기 제1 회전 축 거리를 상기 제2 회전 축 거리로 조정하는 단계는,
    상기 동작 각이 상기 타깃 각 범위 내에 있고 상기 회전 종료 위치가 미리 설정된 위치 범위 내에 있는 경우, 상기 회전 중심의 상기 위치를 조정하여 상기 제1 회전 축 거리를 상기 제2 회전 축 거리를 조정하는 단계를 포함하는, 가상 환경에서 가상 아이템을 관찰하는 방법.
  9. 가상 환경에서 가상 아이템을 관찰하는 장치로서,
    제1 환경 인터페이스를 표시하도록 구성된 표시 모듈 - 여기서, 상기 제1 환경 인터페이스는, 제1 회전 축 거리를 이용하여 회전 관찰을 수행할 때 가상 환경의 화상을 포함하고, 상기 제1 회전 축 거리는 가상 객체의 관찰 포인트와 회전 중심 사이의 거리임 -;
    시야 각 회전 동작을 수신하도록 구성된 수신 모듈 - 여기서, 상기 시야 각 회전 동작은, 상기 회전 중심을 중심으로 상기 관찰 포인트를 회전시키도록 구성됨 -; 및
    상기 시야 각 회전 동작의 동작 파라미터가 아이템 관찰 조건을 만족하는 경우, 상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 구성된 조정 모듈을 포함하고,
    상기 표시 모듈은 제2 환경 인터페이스를 표시하도록 추가로 구성되며 - 여기서, 상기 제2 환경 인터페이스는, 상기 제2 회전 축 거리를 이용하여 상기 가상 환경에서 가상 아이템에 대한 회전 관찰을 수행할 때 상기 가상 환경의 화상을 포함함 -,
    상기 회전 중심의 위치를 조정하여 상기 제1 회전 축 거리를 제2 회전 축 거리로 조정하도록 구성된 것은,
    상기 가상 객체의 움직임 상태(motion status)를 결정하고,
    상기 가상 객체의 상기 움직임 상태에 대응하는 축 거리 길이(axis distance length)를 결정하고 - 여기서, 상기 축 거리 길이는 상기 제2 회전 축 거리의 축 거리 길이임 -,
    상기 축 거리 길이에 따라 상기 회전 중심의 상기 위치를 조정하여, 상기 제1 회전 축 거리를 상기 제2 회전 축 거리로 조정하는 것을 포함하고,
    상기 가상 객체의 상기 움직임 상태에 대응하는 축 거리 길이를 결정하는 것은,
    타깃 상태에 대응하는 축 거리 길이를 기준 축 거리 길이로 사용하고, 상기 가상 객체의 상기 움직임 상태 및 상기 타깃 상태에 대응하는 축 거리 계수를 결정하고,
    상기 축 거리 계수와 상기 기준 축 거리 길이의 곱을, 상기 가상 객체의 상기 움직임 상태에 대응하는 상기 축 거리 길이로 결정하는 것을 포함하며,
    상기 가상 객체의 상기 움직임 상태 및 상기 타깃 상태에 대응하는 축 거리 계수를 결정하는 것은,
    상기 가상 환경이 관찰되는 개인 시야 각을 결정하고,
    상기 가상 객체의 상기 움직임 상태 및 개인 시야 각에 대응하는 상기 축 거리 계수를 결정하는 것을 포함하는
    가상 환경에서 가상 아이템을 관찰하는 장치.
  10. 메모리 및 프로세서를 포함하는 컴퓨터 디바이스로서,
    상기 메모리는 컴퓨터로 판독 가능한 명령어를 저장하고, 상기 컴퓨터로 판독 가능한 명령어는, 상기 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제1항, 제4항, 제6항 내지 제8항 중 어느 한 항의 방법을 수행하도록 하는,
    컴퓨터 디바이스.
  11. 컴퓨터로 판독 가능한 명령어를 저장하는 하나 이상의 비 휘발성 저장 매체로서, 상기 컴퓨터로 판독 가능한 명령어는, 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 제1항, 제4항, 제6항 내지 제8항 중 어느 한 항의 방법을 수행하도록 하는,
    저장 매체.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
KR1020217020054A 2019-04-11 2020-03-17 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체 KR102602074B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910290579.2 2019-04-11
CN201910290579.2A CN110045827B (zh) 2019-04-11 2019-04-11 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
PCT/CN2020/079651 WO2020207204A1 (zh) 2019-04-11 2020-03-17 虚拟环境中虚拟物品的观察方法、装置及可读存储介质

Publications (2)

Publication Number Publication Date
KR20210095931A KR20210095931A (ko) 2021-08-03
KR102602074B1 true KR102602074B1 (ko) 2023-11-13

Family

ID=67276864

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217020054A KR102602074B1 (ko) 2019-04-11 2020-03-17 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체

Country Status (10)

Country Link
US (1) US11766613B2 (ko)
EP (1) EP3954444A4 (ko)
JP (1) JP7145331B2 (ko)
KR (1) KR102602074B1 (ko)
CN (1) CN110045827B (ko)
AU (1) AU2020256776B2 (ko)
BR (1) BR112021018341A2 (ko)
CA (1) CA3133001A1 (ko)
SG (1) SG11202104919UA (ko)
WO (1) WO2020207204A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110045827B (zh) 2019-04-11 2021-08-17 腾讯科技(深圳)有限公司 虚拟环境中虚拟物品的观察方法、装置及可读存储介质
CN110517346B (zh) * 2019-08-30 2021-06-18 腾讯科技(深圳)有限公司 虚拟环境界面的展示方法、装置、计算机设备及存储介质
US20220212107A1 (en) * 2020-03-17 2022-07-07 Tencent Technology (Shenzhen) Company Limited Method and Apparatus for Displaying Interactive Item, Terminal, and Storage Medium
CN111784844B (zh) * 2020-06-09 2024-01-05 北京五一视界数字孪生科技股份有限公司 观察虚拟对象的方法、装置、存储介质及电子设备
CN113304471B (zh) * 2020-08-26 2023-01-10 北京完美赤金科技有限公司 虚拟对象的展示方法、装置、设备
CN112774203B (zh) * 2021-01-22 2023-04-28 北京字跳网络技术有限公司 一种虚拟对象的位姿控制方法、装置以及计算机存储介质
CN113926187A (zh) * 2021-10-20 2022-01-14 腾讯科技(深圳)有限公司 虚拟场景中的对象控制方法、装置及终端设备
CN115454255B (zh) * 2022-10-09 2024-02-13 如你所视(北京)科技有限公司 物品展示的切换方法和装置、电子设备、存储介质
CN116363337A (zh) * 2023-04-04 2023-06-30 如你所视(北京)科技有限公司 模型游览方法、装置和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235596A (ja) * 2013-06-03 2014-12-15 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法
JP2015026172A (ja) * 2013-07-25 2015-02-05 株式会社スクウェア・エニックス 画像処理プログラムおよび画像処理装置
JP2019008346A (ja) * 2017-06-20 2019-01-17 凸版印刷株式会社 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306955A (ja) * 1992-07-24 1995-11-21 Walt Disney Co:The 三次元イリュージョンを生み出す方法およびシステム
JP2000308755A (ja) * 1999-04-27 2000-11-07 Konami Co Ltd 画像表示方法、記録媒体及びビデオゲーム装置
JP2001149643A (ja) 1999-09-16 2001-06-05 Sony Computer Entertainment Inc 3次元ゲームにおけるオブジェクト表示方法、情報記録媒体およびエンタテインメント装置
JP4144017B2 (ja) 1999-12-23 2008-09-03 株式会社セガ ビデオゲーム装置、画像表示装置及び方法、動画表示装置及び方法並びに記録媒体
JP3726239B1 (ja) * 2004-07-13 2005-12-14 有 上條 画像処理プログラム及び装置
US8882590B2 (en) 2006-04-28 2014-11-11 Nintendo Co., Ltd. Touch-controlled game character motion providing dynamically-positioned virtual control pad
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP5154775B2 (ja) * 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP5148652B2 (ja) * 2010-03-31 2013-02-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP5161256B2 (ja) 2010-03-31 2013-03-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び、画像生成装置
JP5622447B2 (ja) * 2010-06-11 2014-11-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US9824500B2 (en) 2016-03-16 2017-11-21 Microsoft Technology Licensing, Llc Virtual object pathing
CN106302679B (zh) 2016-08-08 2018-10-02 腾讯科技(深圳)有限公司 一种虚拟对象移动同步方法、客户端及服务器
US11151804B2 (en) 2016-09-14 2021-10-19 Sony Corporation Information processing device, information processing method, and program
CN106569614A (zh) * 2016-11-11 2017-04-19 上海远鉴信息科技有限公司 虚拟现实中场景切换控制方法及系统
RU2670351C1 (ru) 2017-07-31 2018-10-22 Алексей Владимирович Лысенко Система и способ управления виртуальным объектом
CN108499105B (zh) * 2018-04-16 2022-02-25 腾讯科技(深圳)有限公司 在虚拟环境中进行视角调整的方法、装置及存储介质
CN108635857B (zh) 2018-05-18 2022-04-22 腾讯科技(深圳)有限公司 界面显示方法、装置、电子装置及计算机可读存储介质
CN108815851B (zh) * 2018-06-05 2020-06-30 腾讯科技(深圳)有限公司 在虚拟环境中射击时的界面显示方法、设备及存储介质
CN108717733B (zh) * 2018-06-07 2019-07-02 腾讯科技(深圳)有限公司 虚拟环境的视角切换方法、设备及存储介质
CN110045827B (zh) * 2019-04-11 2021-08-17 腾讯科技(深圳)有限公司 虚拟环境中虚拟物品的观察方法、装置及可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235596A (ja) * 2013-06-03 2014-12-15 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および情報処理方法
JP2015026172A (ja) * 2013-07-25 2015-02-05 株式会社スクウェア・エニックス 画像処理プログラムおよび画像処理装置
JP2019008346A (ja) * 2017-06-20 2019-01-17 凸版印刷株式会社 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
BR112021018341A2 (pt) 2021-11-23
WO2020207204A1 (zh) 2020-10-15
SG11202104919UA (en) 2021-06-29
US11766613B2 (en) 2023-09-26
CN110045827B (zh) 2021-08-17
AU2020256776B2 (en) 2023-02-09
AU2020256776A1 (en) 2021-10-07
US20210268380A1 (en) 2021-09-02
KR20210095931A (ko) 2021-08-03
CN110045827A (zh) 2019-07-23
EP3954444A1 (en) 2022-02-16
CA3133001A1 (en) 2020-10-15
JP2022509634A (ja) 2022-01-21
JP7145331B2 (ja) 2022-09-30
EP3954444A4 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
KR102602074B1 (ko) 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체
US11151773B2 (en) Method and apparatus for adjusting viewing angle in virtual environment, and readable storage medium
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
US11224810B2 (en) Method and terminal for displaying distance information in virtual scene
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
CN109712224B (zh) 虚拟场景的渲染方法、装置及智能设备
WO2020151594A1 (zh) 视角转动的方法、装置、设备及存储介质
US11675488B2 (en) Method and apparatus for constructing building in virtual environment, device, and storage medium
US11790607B2 (en) Method and apparatus for displaying heat map, computer device, and readable storage medium
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant