KR20210135594A - 가상 환경에서 망원경 관찰의 적용 방법 및 관련 장치 - Google Patents

가상 환경에서 망원경 관찰의 적용 방법 및 관련 장치 Download PDF

Info

Publication number
KR20210135594A
KR20210135594A KR1020217032917A KR20217032917A KR20210135594A KR 20210135594 A KR20210135594 A KR 20210135594A KR 1020217032917 A KR1020217032917 A KR 1020217032917A KR 20217032917 A KR20217032917 A KR 20217032917A KR 20210135594 A KR20210135594 A KR 20210135594A
Authority
KR
South Korea
Prior art keywords
sighting telescope
touch
telescope
virtual
accessory
Prior art date
Application number
KR1020217032917A
Other languages
English (en)
Inventor
지훙 류
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210135594A publication Critical patent/KR20210135594A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 환경에서 조준 망원경의 적용 방법 및 장치, 디바이스 및 저장 매체는 가상 환경 분야에 관한 것이다. 상기 방법은: 제1 환경 인터페이스를 표시하는 단계(501) - 상기 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 상기 가상 물체는 가상 아이템을 보유하고, 상기 가상 아이템은 조준 망원경 액세서리를 구비하고, 상기 제1 환경 인터페이스는 조준 망원경 제어를 더 포함함 - ; 상기 조준 망원경 제어에 대한 터치 조작을 수신하는 단계 및 터치 신호를 생성하는 단계(502); 상기 터치 신호에 따라 제2 환경 인터페이스를 표시하는 단계(503) - 상기 제2 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 관찰된 상기 가상 환경의 조준 망원경 픽처를 포함함 - ; 및 수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 인칭 시점 픽처를 표시하는 것을 재개하는 단계(504)를 포함한다. 조준 망원경 제어를 제공하고, 인칭 시점 픽처 및 조준 망원경 픽처 사이를 전환하기 위해, 조준 망원경 제어 상의 터치 조작이 계속되는지를 결정함으로써, 조준 망원경 액세서리를 한 번만 터치하면 되며, 그런 다음 인칭 시점 픽처 및 조준 망원경 픽처 사이의 전환이 수행될 수 있으며, 이에 의해 가상 환경 관찰의 효율성과 정확도가 향상될 수 있다.

Description

가상 환경에서 망원경 관찰의 적용 방법 및 관련 장치
본 출원은 2019년 8월 22일 중국 국가지식재산관리국에 제출되고 발명의 명칭이 "가상 환경에서 망원경 관찰의 적용 방법 및 장치, 디바이스, 및 저장 매체"인 중국 특허 출원 번호 201910780269.9에 대한 우선권을 주장하며, 상기 문헌은 그 전문이 참조로 여기에 포함된다.
본 출원의 실시예는 가상 환경 분야, 특히 가상 환경에서의 관찰 망원경의 적용에 관한 것이다.
가상 환경을 포함하는 애플리케이션에서, 가상 환경 내의 가상 물체는 일반적으로 가상 환경 내에서 이동하도록 제어될 필요가 있다. 사용자는 3차원 가상 환경에서 가상 물체를 달리는 자세, 걷는 자세, 서 있는 자세, 눕는 자세, 기는 자세 등으로 제어할 수 있다. 가상 환경이 관찰될 때, 가상 환경은 가상 물체의 1인칭 시점 또는 3인칭 시점에서 관찰될 수 있거나(즉, 가상 환경이 인칭 시점에서 관찰된다), 또는 관찰 망원경 액세서리를 이용하여 관찰될 수 있다.
관련 기술에서, 조준 망원경 제어는 인칭 시점 관찰 방식과 조준 망원경 액세서리 관찰 방식 사이를 전환하는 데 사용될 수 있다. 즉, 가상 환경을 인칭 시점으로 관찰하는 경우, 조준 망원경 제어를 탭하여 관찰 방식을 조준 망원경 액세서리 관찰 방식으로 전환할 수 있다. 조준 망원경 관찰 방식으로 가상 환경을 관찰하는 경우, 조준 망원경 제어를 탭하여 관찰 방식을 인칭 시점 방식으로 전환할 수 있다.
본 출원의 실시예는 가상 환경 관찰의 낮은 효율성 및 낮은 정확도의 문제를 해결하기 위해 가상 환경에서 조준 망원경을 적용하기 위한 방법 및 관련 장치를 제공한다. 기술 솔루션은 다음과 같다:
한 관점에서, 가상 환경에서 조준 망원경을 적용하는 방법이 제공되며, 상기 방법은:
제1 환경 인터페이스를 표시하는 단계 - 상기 제1 환경 인터페이스는 가상 물체의 인칭 시점(person perspective)에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 상기 가상 물체는 가상 아이템을 보유하고, 상기 가상 아이템은 조준 망원경 액세서리를 구비하고, 상기 제1 환경 인터페이스는 조준 망원경 제어를 더 포함함 - ;
상기 조준 망원경 제어에 대한 터치 조작을 수신하는 단계 및 터치 신호를 생성하는 단계;
상기 터치 신호에 따라 제2 환경 인터페이스를 표시하는 단계 - 상기 제2 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 관찰된 상기 가상 환경의 조준 망원경 픽처를 포함함 - ; 및
수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 인칭 시점 픽처를 표시하는 것을 재개하는 단계
를 포함한다.
다른 관점에서, 가상 환경에서 조준 망원경을 적용하는 장치가 제공되며, 상기 장치는:
제1 환경 인터페이스를 표시하도록 구성되어 있는 디스플레이 모듈 - 상기 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 상기 가상 물체는 가상 아이템을 보유하고, 상기 가상 아이템은 조준 망원경 액세서리를 구비하고, 상기 제1 환경 인터페이스는 조준 망원경 제어를 더 포함함 - ; 및
상기 조준 망원경 제어에 대한 터치 조작을 수신하는 단계 및 터치 신호를 생성하도록 구성되어 있는 수신 모듈
을 포함하며,
상기 디스플레이 모듈은 상기 터치 신호에 따라 제2 환경 인터페이스를 표시하도록 추가로 구성되어 있으며, 상기 제2 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 관찰된 상기 가상 환경의 조준 망원경 픽처를 포함하며,
상기 수신 모듈은 수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 인칭 시점 픽처를 표시하는 것을 재개하도록 추가로 구성되어 있다.
다른 관점에서, 컴퓨터 디바이스가 제공되며, 컴퓨터 디바이스는 프로세서 및 메모리를 포함하고, 상기 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 상기 적어도 하나의 명령어, 상기 적어도 하나의 프로그램, 상기 코드 세트는 상기 프로세서에 의해 로드되고 실행되어 본 출원의 전술한 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 구현한다.
다른 관점에서, 저장 매체가 제공되며, 저장 매체는 컴퓨터 프로그램을 저장하도록 구성되며, 상기 컴퓨터 프로그램은 본 출원의 전술한 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 수행하도록 구성되어 있다.
다른 관점에서, 컴퓨터 프로그램 제품이 제공되며, 컴퓨터 프로그램 제품은 컴퓨터 상에서 실행될 때 상기 컴퓨터로 하여금 본 출원의 전술한 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 수행하게 한다.
조준 망원경 제어가 배치되고, 조준 망원경 제어에 대한 터치 조작의 연속적인지에 따라 터치 신호 및 터치 종료 신호가 결정된다. 이러한 방식으로, 조준 망원경 액세서리를 한 번만 터치하면 조준 망원경 액세서리 없이 관찰된 인칭 시점 픽처와 조준 망원경 액세서리로 관찰한 조준 망원경 픽처 사이를 전환할 수 있으므로 조준 망원경 액세서리를 인에이블링하는 효율성이 향상되며, 이에 의해 가상 환경 관찰의 효율성과 정확성이 향상된다.
본 출원의 실시예에서 기술적인 솔루션을 보다 명확하게 설명하기 위해, 이하에서는 실시예를 설명하는 데 필요한 첨부 도면을 간략하게 소개한다. 명백하게, 다음 설명에서 첨부 도면은 본 출원의 일부 실시예만을 도시하며, 당업자는 창조적 노력 없이도 첨부 도면으로부터 다른 도면을 여전히 도출할 수 있다.
도 1은 종래 기술에 따른 가상 환경에서 조준 망원경 액세서리를 적용한 개략적인 인터페이스도이다.
도 2는 본 출원의 예시적인 실시예에 따른 가상 환경에서 조준 망원경 액세서리의 애플리케이션의 개략적인 인터페이스 다이어그램이다.
도 3은 본 출원의 일 실시예에 따른 단말의 구조 블록도이다.
도 4는 본 출원의 예시적인 실시예에 따른 구현 환경의 개략도이다.
도 5는 본 출원의 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법의 흐름도이다.
도 6은 도 5에 도시된 실시예에 따른 조준 망원경 액세서리의 개략적인 디스플레이 다이어그램이다.
도 7은 도 5에 도시된 실시예에 따른 터치 조작과 조준 망원경 제어 간의 대응 관계를 판단하는 개략도이다.
도 8은 본 출원의 다른 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하는 방법의 흐름도이다.
도 9는 도 8에 도시된 실시예에 따른 하이브리드 제어 방식에 대응하는 개략적인 인터페이스도이다.
도 10은 도 8에 도시된 실시예에 따른 하이브리드 제어 방식에 대응하는 타임 라인의 개략도이다.
도 11은 본 출원의 일 실시예에 따른 탭핑 제어 방식에 대응하는 흐름도이다.
도 12는 본 출원의 일 실시예에 따른 터치 및 홀드 제어 방식에 대응하는 흐름도이다.
도 13은 본 출원의 일 실시예에 따른 하이브리드 제어 방식에 대응하는 흐름도이다.
도 14는 본 출원의 다른 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하는 방법의 흐름도이다.
도 15는 본 출원의 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 장치의 구조적 블록도이다.
도 16은 본 출원의 다른 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 장치의 구조적 블록도이다.
도 17은 본 출원의 일 실시예에 따른 단말의 구조 블록도이다.
본 출원의 목적, 기술적 솔루션 및 이점을 보다 명확하게 하기 위해, 다음은 첨부된 도면을 참조하여 본 출원의 구현을 상세히 설명한다.
먼저, 본 출원의 실시예와 관련된 용어를 간략히 소개한다.
가상 환경: 단말에서 애플리케이션이 실행될 때 표시(또는 제공)되는 가상 환경이다. 가상 환경은 현실 세계의 시뮬레이션 환경일 수도 있고, 세미-시뮬레이션된 반 허구의 3D 환경일 수도 있고, 완전한 허구의 3D 환경일 수도 있다. 가상 환경은 2차원 가상 환경, 2.5차원 가상 환경, 3차원 가상 환경 중 어느 하나일 수 있다. 이하의 실시예에서는 가상 환경이 3차원 가상 환경인 경우를 예로 들어 설명하지만, 이에 한정되는 것은 아니다. 선택적으로 가상 환경은 두 개 이상의 가상 역할 간의 가상 환경 전투에 사용된다. 선택적으로 가상 환경은 가상 총을 사용하여 두 개 이상의 가상 역할 사이에서 수행되는 전투에 사용된다. 선택적으로, 가상 환경은 목표 영역의 범위에서 가상 총을 사용하여 적어도 두 개의 가상 역할 간의 전투에 사용되며, 목표 영역의 범위는 가상 환경에서 시간이 지남에 따라 지속적으로 감소될 수 있다.
가상 물체: 가상 환경에서 이동 가능한 물체이다. 이동 가능한 물체는 가상의 캐릭터, 가상의 동물, 만화 캐릭터 등이 될 수 있으며, 3D 가상 환경에서 표시되는 캐릭터, 동물, 식물, 기름통, 벽, 돌 등이 될 수 있다. 선택적으로 가상 물체는 골격 애니메이션 기술을 기반으로 생성된 3D 모델이다. 각각의 가상 물체는 3차원 가상 환경에서 모양과 크기를 가지며, 3차원 가상 환경에서 일정 공간을 차지한다.
가상 총(Virtual gun): 가상 환경에서 총알을 발사하여 공격하는 가상의 무기이다. 가상 물체는 가상 환경에서 가상 총을 집고, 집기(picking-up)를 통해 획득한 가상 총을 이용하여 공격할 수 있다. 선택적으로, 각각의 가상 총에는 적어도 하나의 총 액세서리를 장착하기 위한 적어도 하나의 슬롯이 제공될 수 있다. 예를 들어, M416 자동소총에는 일반적으로 총구 슬롯, 그립 슬롯, 탄창 슬롯, 스톡 슬롯 및 조준 망원경 슬롯이 제공되며, 여기서 조준 망원경 슬롯에는 적색 점 조준 망원경, 홀로그램 조준 망원경, 2X 조준 망원경, 4X 조준 망원경 및 8X 조준 망원경 중 어느 하나가 장착될 수 있다. 플레이어가 M416 자동소총을 들고 조준 망원경을 조준하면, 총에 장착된 조준 망원경에 따라 가상의 환경을 특정 정도로 확대하여 관찰할 수 있다.
선택적으로, 본 출원의 실시예에서, 가상 총으로 구현되는 가상 아이템은 설명을 위한 예로서 사용된다. 가상 아이템에는 조준 망원경 액세서리가 장착되어 있다. 즉, 가상 총의 조준 망원경 슬롯에는 조준 망원경 액세서리가 장착되어 있다. 선택적으로 조준 망원경 액세서리는 원래 가상 총에 장착된 기계식 조준 망원경이거나 가상 환경에서 가상 물체에 의해 포착된 조준 망원경일 수 있다.
본 출원에서 제공하는 방법은 가상현실(virtual reality, VR) 애플리케이션, 3D 지도 애플리케이션, 군사 시뮬레이션 프로그램, 1인칭 슈팅 게임(first-person shooting game, FPS), 멀티플레이어 온라인 배틀 아레나 게임(multiplayer online battle arena game, MOBA) 등에 적용될 수 있다. 이하의 실시예에서는 게임 중의 애플리케이션을 설명의 일례로서 사용한다.
가상 환경에 기반한 게임은 일반적으로 하나 이상의 게임 세계의 맵을 포함한다. 게임의 가상 환경은 현실 세계의 장면을 시뮬레이션한다. 사용자는 게임에서 가상 물체를 제어하여 가상 환경에서 걷기, 달리기, 점프, 사격, 전투, 운전, 가상 무기로의 전환, 가상 무기를 사용하여 상호 작용성이 높은 다른 가상 물체를 공격하기와 같은 동작을 수행할 수 있다. 또한, 다수의 사용자가 온라인으로 팀을 구성하여 아레나 게임을 수행할 수 있다. 사용자가 가상 물체를 제어하여 가상 무기를 사용하여 목표 가상 물체를 공격할 때, 사용자는 목표 가상 물체의 위치 또는 동작 습관에 따라 가상 물체를 공격하기에 적합한 가상 무기를 선택한다.
종래 기술에서, 조준 망원경 제어는 일반적으로 가상 환경 관찰 방식들 사이를 전환하기 위한 환경 인터페이스에 제공된다. 도 1에 도시된 바와 같이, 가상 물체의 1인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처(100)가 제1 환경 인터페이스에 표시된다. 가상 물체는 가상 아이템(예를 들어, 가상 총)을 보유한다. 가상 아이템에는 조준 망원경 액세서리가 장착되어 있다. 조준 망원경 제어(110)는 인칭 시점 픽처(100)에 중첩되어 표시된다. 사용자가 조준 망원경 제어(110)를 탭한 후, 조준 망원경 픽처(120)가 표시된다. 조준 망원경 픽처(120)는 조준 망원경 액세서리를 이용하여 관찰한 가상 환경의 픽처이다. 조준 망원경 제어(110)는 조준 망원경 픽처(120)에 중첩되어 표시된다. 조준 망원경 제어(110)는 도 1에 도시된 십자형으로 표시된다. 조준 망원경 액세서리가 인에이블링된 후. 사용자가 조준 망원경 제어(110)를 다시 탭하면 조준 망원경 액세서리가 디스에이블되고 1인칭 시점에서 인칭 시점 픽처(100) 표시가 재개된다.
본 출원의 실시예는 가상 환경에서 조준 망원경을 적용하기 위한 방법을 제공한다. 도 2는 본 출원의 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법의 개략적인 인터페이스 다이어그램이다. 도 2에 도시된 바와 같이:
가상 물체의 1인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처(200)는 제1 환경 인터페이스에 표시된다. 가상 물체는 가상 아이템(예를 들어, 가상 총)을 보유한다. 가상 아이템에는 조준 망원경 액세서리가 장착되어 있다. 조준 망원경 제어(210)는 인칭 시점 픽처(200)에 중첩되어 표시된다. 사용자가 조준 망원경 제어(210)를 터치한 후, 조준 망원경 픽처(220)가 표시된다. 조준 망원경 픽처(220)는 조준 망원경 액세서리를 이용하여 관찰한 가상 환경의 픽처이다. 사용자가 조준 망원경 제어(210)를 길게 터치하면 단말은 조준 망원경 픽처(220)를 계속 표시한다. 사용자가 조준 망원경 제어(210)에서 터치를 놓으면 단말은 조준 망원경 액세서리를 디스에이블링하고 인칭 시점 픽처(200) 표시를 재개한다. 인칭 시점 픽처(200)의 픽처 콘텐츠는 변경 후의 내용일 수 있다. 예를 들어, 가상 물체의 이동, 가상 환경에서 물건의 이동 등으로 인해 픽처 콘텐츠가 변경된다. 대안으로 인칭 시점 픽처(200)의 픽처 콘텐츠는 변경되지 않은 콘텐츠일 수 있다.
본 출원의 단말은 데스크탑 컴퓨터, 휴대용 랩탑 컴퓨터, 휴대폰, 태블릿 컴퓨터, 이북 리더(eBook reader), 동영상 전문가 그룹 오디오 레이어 III(Moving Picture Experts Group Audio Layer III, MP3) 플레이어, 동영상 전문가 그룹 오디오 레이어 IV(Moving Picture Experts Group Audio Layer IV, MP4) 플레이어 등일 수 있다. 3차원 가상 환경을 지원하는 애플리케이션과 같이 가상 환경을 지원하는 애플리케이션이 단말에 설치되어 실행된다. 상기 애플리케이션은 VR 애플리케이션, 3D 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, TPS 게임, FPS 게임, MOBA 게임 중 어느 하나일 수 있다. 선택적으로, 애플리케이션은 독립형 3D 게임 애플리케이션과 같은 독립형 애플리케이션일 수 있거나 온라인 애플리케이션일 수 있다.
도 3은 본 출원의 일 실시예에 따른 전자 장치의 구조 블록도이다. 전자 장치(300)는 운영체제(320) 및 애플리케이션(322)을 포함한다.
운영체제(320)는 컴퓨터 하드웨어에 대한 보안 액세스를 수행하기 위해 애플리케이션(322)에 제공되는 기본 소프트웨어이다.
애플리케이션(322)은 가상 환경을 지원하는 애플리케이션이다. 선택적으로, 애플리케이션(322)은 3D 가상 환경을 지원하는 애플리케이션이다. 애플리케이션(322)은 VR 애플리케이션, 3D 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, TPS 게임, FPS 게임, MOBA 게임, 멀티플레이어 슈팅 서바이벌 게임 중 어느 하나일 수 있다. 애플리케이션(322)은 독립형 4D 게임 애플리케이션과 같은 독립형 애플리케이션일 수 있다.
도 4는 본 출원의 예시적인 실시예에 따른 컴퓨터 시스템의 구조적 블록도이다. 컴퓨터 시스템(400)은 제1 장치(420), 서버(440) 및 제2 장치(460)를 포함한다.
가상 환경을 지원하는 애플리케이션은 제1 디바이스(420)에 설치되어 실행된다. 애플리케이션은 VR 애플리케이션, 3D 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, TPS 게임, FPS 게임, MOBA 게임 및 멀티 플레이어 슈팅 서바이벌 게임 중 어느 하나일 수 있다. 제1 디바이스(420)는 제1 사용자가 사용하는 디바이스이다. 제1 사용자는 제1 디바이스(420)를 이용하여 가상 환경에서 제1 가상 물체를 제어하여 액션을 수행할 수 있다. 동작에는 신체 자세 조정, 기어다니기, 걷기, 달리기, 자전거 타기, 점프하기, 운전하기, 꺾기, 쏘기, 공격하기, 던지기 중 적어도 하나가 포함되지만 이에 국한되지는 않는다. 예를 들어, 제1 가상 물체는 시뮬레이션 캐릭터 역할 또는 만화 캐릭터 역할과 같은 제1 가상 캐릭터이다.
제1 디바이스(420)는 무선 네트워크 또는 유선 네트워크를 이용하여 서버(440)에 연결된다.
서버(440)는 단일 서버, 복수의 서버, 클라우드 컴퓨팅 플랫폼, 가상화 센터 중 적어도 하나를 포함한다. 서버(440)는 3D 가상 환경을 지원하는 애플리케이션을 위한 백엔드 서비스를 제공하도록 구성된다. 선택적으로, 서버(440)는 1차 컴퓨팅 작업을 수행하고, 제1 장치(420) 및 제2 장치(460)는 2차 컴퓨팅 작업을 수행한다. 대안적으로, 서버(440)는 2차 컴퓨팅 작업을 맡고, 제1 장치(420) 및 제2 장치(460)는 1차 컴퓨팅 작업을 맡으며; 대안으로, 서버(440), 제1 장치(420) 및 제2 장치(460) 사이에서 분산 컴퓨팅 아키텍처를 사용하여 협업 컴퓨팅이 수행된다.
제2 디바이스(460)에는 가상 환경을 지원하는 애플리케이션이 설치되어 실행된다. 상기 애플리케이션은 VR 애플리케이션, 3D 지도 애플리케이션, 군사 시뮬레이션 애플리케이션, FPS 게임, MOBA 게임, 및 멀티플레이어 슈팅 서바이벌 게임 중 어느 하나일 수 있다. 제2 디바이스(460)는 제2 사용자가 사용하는 디바이스이다. 제2 사용자는 제2 디바이스(460)를 이용하여 가상 환경에서 제2 가상 물체를 제어하여 액션을 수행할 수 있다. 동작에는 신체 자세 조정, 기어다니기, 걷기, 달리기, 자전거 타기, 점프하기, 운전하기, 꺾기, 쏘기, 공격하기, 던지기 중 적어도 하나가 포함되지만 이에 국한되지는 않는다. 예를 들어, 제2 가상 물체는 시뮬레이션된 캐릭터 역할 또는 만화 캐릭터 역할과 같은 제2 가상 캐릭터이다.
선택적으로, 제1 가상 캐릭터 및 제2 가상 캐릭터는 동일한 가상 환경에 위치한다. 선택적으로, 제1 가상 캐릭터와 제2 가상 캐릭터는 같은 팀 또는 같은 조직에 속하거나 친구 관계를 가지거나 임시 통신 권한을 가질 수 있다. 선택적으로, 제1 가상 캐릭터와 제2 가상 캐릭터는 대안적으로 서로 다른 팀, 다른 조직, 또는 서로 적대적인 두 그룹에 속할 수 있다.
선택적으로, 제1 디바이스(420) 및 제2 디바이스(460)에 탑재된 애플리케이션이 동일하거나, 두 디바이스에 탑재된 애플리케이션이 상이한 제어 시스템 플랫폼의 동일한 유형의 애플리케이션이다. 제1 디바이스(420)는 일반적으로 복수의 디바이스 중 하나를 지칭할 수 있다. 제2 디바이스(460)는 일반적으로 복수의 디바이스 중 하나를 지칭할 수 있다. 제1 디바이스(420) 및 제2 디바이스(460)는 전술한 단말일 수 있다. 본 실시예에서는 제1 디바이스(420) 및 제2 디바이스(460)만을 예로 들어 설명한다. 제1 디바이스(420)의 유형과 제2 디바이스(460)의 유형은 동일하거나 상이할 수 있다. 장치 유형은 게임 콘솔, 데스크탑 컴퓨터, 스마트폰, 태블릿 컴퓨터, 이북 리더(eBook reader), MP3 플레이어, MP4 플레이어 및 휴대용 노트북 컴퓨터 중 적어도 하나를 포함한다. 이하의 실시예에서는 장치가 데스크탑 컴퓨터인 경우를 예로 들어 설명한다.
당업자는 더 많거나 더 적은 장치가 있을 수 있음을 알 수 있다. 예를 들어, 하나의 장치만 있을 수도 있고 수십 또는 수백 개 이상의 장치가 있을 수도 있다. 장치의 수량 및 장치 유형은 본 출원의 실시예에서 제한되지 않는다.
용어 및 구현 환경에 대한 전술한 설명을 참조하여, 본 출원의 실시예에 따른 가상 환경에서 조준 망원경을 적용하는 방법이 설명된다. 단말에 적용한 예를 들어 설명한다. 도 5에 도시된 바와 같이, 방법은 다음 단계를 포함한다:
단계 501. 제1 환경 인터페이스를 표시하고, 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 가상 물체는 가상 아이템을 보유하고, 가상 아이템은 조준 망원경 액세서리를 구비하며, 제1 환경 인터페이스는 조준 망원경 제어를 더 포함한다.
선택적으로, 인칭 시점 픽처는 가상 물체의 1인칭 시점에서 표시되는 픽처일 수 있거나 가상 물체의 3인칭 시점에서 표시되는 픽처일 수 있다. 1인칭 시점은 가상 환경에서 가상 물체가 관찰할 수 있는 픽처에 대응하는 시점이며, 1인칭 시점에 대응하는 픽처는 가상 물체를 포함하지 않고, 예를 들어 가상 물체의 팔 및 가상 총만을 관찰할 수 있다. 3인칭 시점은 카메라 모델이 가상 환경에서 가상 물체를 관찰하기 위해 사용하는 시점으로, 3인칭 시점에 대응하는 픽처는 가상 물체를 포함하며, 일반적으로 카메라 모델은 가상의 객체 뒤에 위치하며, 예를 들어, 가상 물체의 3D 모델과 가상 물체가 들고 있는 가상 아이템(예를 들어, 가상 총)을 관찰할 수 있다.
선택적으로, 인칭 시점 픽처가 가상 물체의 1인칭 시점 또는 3인칭 시점에서 표시될 때, 인칭 시점 픽처는 아이템 상태 표시줄을 더 포함하고, 아이템 상태 표시줄에는 가상 아이템에 장착된 조준 망원경 액세서리가 표시된다. 1인칭 시점이 예로 사용된다. 도 6에 도시된 바와 같이, 도 6은 가상 물체의 1인칭 시점에서 표시된 인칭 시점 픽처(61)의 개략적인 인터페이스도이다. 인칭 시점 픽처(61)는 아이템 상태 표시줄(62)을 포함하고, 아이템 상태 표시줄(62)에는 가상 아이템에 장착된 관찰 망원경 액세서리 "레드 닷", 즉 레드 닷 조준 망원경이 표시된다.
선택적으로, 인칭 시점 픽처가 가상 물체의 3인칭 시점에서 표시될 때, 인칭 시점 픽처는 가상 아이템을 더 포함하고, 가상 아이템 상에는 장착된 조준 망원경 액세서리가 표시된다.
단계 502. 조준 망원경 제어에 대한 터치 조작을 수신하고 터치 신호를 생성한다.
선택적으로, 이 방법은 터치스크린이 있는 단말에 적용된다. 터치 스크린의 조준 망원경 제어에서 수행된 터치 조작이 수신되고 터치 신호가 생성된다. 터치 신호는 터치 조작이 시작될 때 발생하는 신호로, 터치 조작이 시작되었음을 알리기 위해 사용된다.
선택적으로, 터치스크린 상의 터치 조작이 수신되고; 터치스크린 상의 터치 조작에 대응하는 제1 좌표가 결정되고; 터치스크린 상의 조준 망원경 제어의 중심점에 대응하는 제2 좌표가 결정되고; 그리고 제1 좌표와 제2 좌표 사이의 거리가 요구된 거리보다 낮은 경우, 그 터치 조작은 조준 망원경 제어에 대해 수행된 터치 조작인 것으로 결정된다.
선택적으로, 터치스크린은 목표 좌표계에 대응한다. 목표 좌표계에서 터치 조작에 대응하는 제1 좌표가 결정되고, 조준 망원경 제어의 중심점에 대응하는 제2 좌표가 결정된다. 예를 들어, A 지점을 터치 조작이 위치한 지점으로 사용하고 B 지점을 조준 망원경 제어의 중심점으로 사용하는 예를 들어 설명한다. 지점 A의 좌표가 (x1, y1)이고 지점 B의 좌표가 (x2, y2)일 때 지점 A와 지점 B 사이의 거리를 계산하는 방식은 다음 식 1을 참조한다.
식 1:
Figure pct00001
.
예를 들어, 도 7을 참조하면, 지점 A의 좌표가 (-20, 20)이고 지점 B의 좌표가 (20, -10)일 때 A와 B 사이의 거리는 50이다. 요구된 거리가 100일 때, A와 B 사이의 거리가 요구된 거리보다 작다는 것으로 결정되며, 즉 그 터치 조작은 조준 망원경 제어에서 수행되는 터치 조작인 것으로 결정된다.
단계 503. 터치 신호에 따라 제2 환경 인터페이스를 표시하며, 제2 환경 인터페이스는 조준 망원경 액세서리를 사용하여 관찰한 가상 환경의 조준 망원경 픽처를 포함한다.
선택적으로, 가상 아이템에 장착된 조준 망원경 액세서리는 기계적 조준 망원경, 기본 조준 망원경, 저배율 조준 망원경 및 고배율 조준 망원경 중 적어도 하나일 수 있다. 기계식 망원경은 가상 아이템에 장착된 오리지널 조준 망원경, 즉 가상 아이템의 조준 망원경 슬롯에 다른 조준 망원경이 장착되어 있지 않은 경우 기계식 조준경을 이용하여 가상 환경을 관찰할 수 있다. 기본 조준 망원경은 가상 환경, 즉 1X 배율로 가상 환경을 관찰할 때 배율 효과가 없는 조준 망원경 액세서리이다. 선택적으로 기본 조준 망원경은 적색 점 조준 망원경과 홀로그램 조준 망원경 중 적어도 하나를 포함한다. 저배율 조준 망원경은 2X 조준 망원경 또는 3X 조준 망원경과 같은 가상 환경을 관찰할 때 배율이 낮은 조준 망원경 액세서리이다. 고배율 조준 망원경은 4X 조준 망원경, 6X 조준 망원경, 8X 조준 망원경 또는 15X 조준 망원경과 같은 가상 환경을 관찰할 때 고배율의 조준 망원경 액세서리이다.
단계 504. 수신 중인 터치 조작의 터치 종료 신호에 기초하여 인칭 시점 픽처를 표시하는 것을 재개한다.
선택적으로, 사용자는 조준 망원경 제어에 대한 터치 조작으로 터치스크린의 조준 망원경 제어를 터치한다. 사용자가 조준 망원경 제어에서 터치를 해제하면 단말은 터치 종료 신호를 생성한다.
이상에 기초하여, 본 출원의 실시예에 따른 가상 환경에서의 조준 망원경의 적용 방법은 조준 망원경 제어를 배치하고, 조준 망원경 제어에 대한 터치 조작이 연속적인지에 따라, 조준 망원경 액세서리 없이 관찰한 인칭 시점 픽처와 조준 망원경 액세서리로 관찰한 조준 망원경 픽처 간에 전환이 수행된다. 조준 망원경 제어를 한 번만 터치하면 인칭 시점 픽처와 조준 망원경 픽처 사이를 전환할 수 있으므로 조준 망원경 액세서리를 인에이블링하는 효율성이 향상되고 가상 환경을 관찰하는 효율성과 정확성이 향상된다.
선택적인 실시예에서, 터치 조작의 터치 지속 시간이 요구된 지속 시간에 도달하는지에 따라 상이한 조준 망원경 제어 방식이 있다. 도 8은 본 출원의 다른 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하는 방법의 흐름도이다. 이 방법이 단말에 적용되는 예를 들어 설명한다. 도 8에 도시된 바와 같이, 방법은 다음 단계를 포함한다:
단계 801. 제1 환경 인터페이스를 표시하고, 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 가상 물체는 가상 아이템을 보유하고, 가상 아이템은 조준 망원경 액세서리를 구비하며, 제1 환경 인터페이스는 조준 망원경 제어를 더 포함한다.
선택적으로, 인칭 시점 픽처는 가상 물체의 1인칭 시점에서 표시되는 픽처일 수 있거나 가상 물체의 3인칭 시점에서 표시되는 픽처일 수 있다.
단계 802. 조준 망원경 제어에 대한 터치 조작을 수신하고 터치 신호를 생성한다.
선택적으로, 이 방법은 터치스크린이 있는 단말에 적용된다. 터치스크린의 조준 망원경 제어에서 수행된 터치 조작이 수신된다.
선택적으로, 조준 망원경 제어에 대한 터치 조작이 수신되기 전에, 조준 망원경 제어 방식이 기능 설정 인터페이스에서 설정될 수 있다. 조준 망원경 제어 방식은 탭핑 제어 방식(tapping control manner), 터치-앤-홀드 제어 방식(touching-and-holding control manner) 및 하이브리드 제어 방식(hybrid control manner) 중 어느 하나를 포함한다. 선택적으로, 탭핑 제어 방식은 조준 망원경 제어를 탭하여 조준 망원경 액세서리를 인에이블링하고 조준 망원경 제어를 탭하여 조준 망원경 액세서리를 디스에이블링하는 방식이다. 터치-앤-홀드 제어 방식은 터치-앤-홀드 작업이 종료될 때 조준 망원경 액세서리를 인에이블링하고 조준 망원경 액세서리를 디스에이블링하기 위해 조준 망원경 제어를 길게 터치하는 방식이다. 하이브리드 제어 방식은 요구된 지속 시간을 임계 지속 시간으로 해서 탭핑 제어 방식과 터치 유지 제어 방식 중 하나를 선택하는 제어 방식이다.
선택적으로, 제1 환경 인터페이스는 기능 설정 제어를 더 포함한다. 기능 설정 제어는 기능 설정 인터페이스를 인에이블링하도록 구성되고, 기능 설정 제어에 대한 트리거 조작이 수신되고, 트리거 조작에 따라 기능 설정 인터페이스가 표시된다. 기능 설정 인터페이스에는 조준 망원경 설정 옵션이 포함된다. 조준 망원경 설정 옵션에는 탭핑 제어 옵션, 터치-앤-홀드 제어 옵션 및 하이브리드 제어 옵션이 포함된다. 탭핑 제어 옵션은 탭핑 제어 방식에 대응하고, 길게 누르기 제어 옵션은 길게 누르기 제어 옵션에 대응하고, 하이브리드 제어 옵션은 하이브리드 제어 방식에 대응한다. 선택적으로 하이브리드 제어 옵션에 대한 인에이블링 작업이 수신되며 하이브리드 제어 옵션은 필수 지속 시간을 임계 지속 시간으로 사용하여 조준 망원경 액세서리의 디스에이블링 방식을 결정하도록 지시하는 데 사용된다.
단계 803. 터치 신호에 따라 제2 환경 인터페이스를 표시하며, 제2 환경 인터페이스는 조준 망원경 액세서리를 사용하여 관찰한 가상 환경의 조준 망원경 픽처를 포함한다.
선택적으로, 가상 아이템에 장착된 조준 망원경 액세서리는 기계적 조준 망원경, 기본 조준 망원경, 저배율 조준 망원경 및 고배율 조준 망원경 중 적어도 하나일 수 있다.
단계 804. 수신 중인 터치 조작의 터치 종료 신호에 기초하여 터치 조작의 터치 지속 시간을 결정한다.
단계 805. 요구된 지속 시간에 도달한 터치 지속 시간에 기초하여 터치 종료 신호에 따라 조준 망원경 액세서리를 디스에이블링하고, 인칭 시점 픽처를 표시하는 것을 재개한다.
선택적으로, 터치 조작의 터치 지속 시간이 요구된 지속 시간에 도달했지만 터치 종료 신호가 수신되지 않은 경우, 터치-앤-홀드 제어 방식은 조준 망원경 액세서리의 제어 방식으로 결정되며, 즉 조준 망원경 제어에 대한 터치 조작이 종료될 때, 조준 망원경 제어가 디스에이블링된다.
선택적으로, 요구되는 지속 시간은 미리 설정된 지속 시간이다. 예를 들어 요구된 지속 시간은 1초이다. 터치 조작의 터치 지속 시간이 1초에 도달했지만 터치 종료 신호가 수신되지 않은 경우, 터치 종료 신호는 조준 망원경 액세서리를 디스에이블링하도록 제어하기 위한 신호로 결정된다.
단계 806. 요구된 지속 시간에 도달하지 않은 터치 지속 시간에 기초하여, 조준 망원경 액세서리가 디스에이블되도록 제어하기 위한 신호로서 조준 망원경 제어의 탭 신호를 결정한다.
선택적으로, 터치 조작의 터치 지속 시간이 요구된 지속 시간에 도달하지 않고 터치 종료 신호가 수신되는 경우, 터치 조작은 탭 동작으로 간주될 수 있다.
단계 807. 수신 중인 조준 망원경 제어의 탭 신호에 기초하여 조준 망원경 액세서리를 디스에이블링하고 인칭 시점 픽처를 표시하는 것을 재개한다.
예를 들어, 도 9를 참조하면, 가상 물체의 1인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처(900)가 제1 환경 인터페이스에 표시된다. 조준 망원경 제어(910)는 인칭 시점 픽처(900)에 중첩되어 표시된다. 첫 번째 분기에서 사용자는 조준 망원경 제어(910)에 대한 터치 조작을 수행하고, 터치 조작에 따라 조준 망원경 픽처(920)가 표시되고, 터치 터치 조작의 지속 시간이 요구된 지속 시간에 도달한다. 터치 조작이 종료되면 인칭 시점 픽처(900)의 표시가 재개된다. 두 번째 분기에서는 사용자가 조준 망원경 제어(910)에 대한 터치 조작을 수행하고, 터치 조작에 따라 조준 망원경 픽처(920)가 표시되고, 터치 지속 시간이 요구된 지속 시간에 도달하기 전에 터치 조작이 종료된다. 조준 망원경 제어(910)에 대한 추가 탭 조작이 수신되면, 인칭 시점 픽처(900)의 표시가 재개된다. 인칭 시점 픽처(900)의 픽처 콘텐츠는 변경된 내용일 수도 있고, 변경되지 않은 내용일 수도 있다.
예를 들어, 도 10을 참조하면, 타임라인에서 시점(time point) S는 사용자가 조준 망원경 제어를 터치하는 순간이고, 시점 A는 첫 번째 사용자가 터치를 종료하는 순간이고, 시점 B는 두 번째 사용자가 터치를 종료하는 순간 사용자가 터치를 종료하는 시점이고, 시점 O는 요구된 지속 시간에 대응하는 임계 순간이다. 첫 번째 사용자는 조준 망원경 액세서리를 인에이블링한 후 조준 망원경 액세서리를 디스에이블링하려면 조준 망원경 제어를 다시 탭해야 하며, 두 번째 사용자는 B 시점에서 터치가 끝나면 조준 망원경 액세서리를 디스에이블링해야 한다.
이상에 기초하여, 본 출원의 실시예에 따른 가상 환경에서의 조준 망원경의 적용 방법은 조준 망원경 제어를 배치하고, 터치 신호 및 터치 종료 신호는 조준 망원경 제어에 대한 터치 조작이 계속되는지에 따라 결정된다. 이러한 방식으로, 조준 망원경 액세서리를 한 번만 터치하면 조준 망원경 액세서리 없이 관찰된 인칭 시점 픽처와 조준 망원경 액세서리로 관찰한 조준 망원경 픽처 사이를 전환할 수 있으므로 조준 망원경 액세서리를 인에이블링하는 효율성이 향상되며, 이에 의해 가상 환경 관찰의 효율성과 정확성을 향상시킨다.
본 실시예에서 제공하는 방법에 따르면, 필요한 지속 시간이 설정되고, 요구된 지속 시간이 탭핑 제어 방식과 터치-앤-홀드 제어 방식 사이의 임계 지속 시간으로 사용되어, 사용자가 원터치 조작을 통한 조준 망원경 액세서리의 제어 방식을 결정할 수 있으며, 이에 의해 제어 효율성이 향상된다.
예를 들어, 탭핑 제어 방식, 터치 및 유지 제어 방식 및 하이브리드 제어 방식이 도면을 참조하여 각각 설명된다:
첫째, 탭핑 제어 방식의 구현 프로세스에 대해서는 도 11을 참조한다. 이 프로세스에는 다음 단계가 포함된다:
단계 1101. 조준 망원경 액세서리가 디스에이블링 상태에 있다. 선택적으로, 단말에 표시되는 환경 인터페이스는 가상 물체의 1인칭 시점 또는 3인칭 시점에서 관찰된 가상 환경의 픽처를 포함한다. 단계 1102. 사용자가 조준 망원경 제어를 터치하는지를 결정한다. 단계 1103. 사용자는 조준 망원경 제어를 터치할 때 조준 망원경 액세서리를 인에이블링한다. 선택적으로, 조준 망원경 액세서리가 인에이블링된 후 조준 망원경 액세서리를 사용하여 가상 환경을 관찰한다. 단계 1104. 사용자는 조준 망원경 제어에 대한 터치를 종료한다. 단계 1105. 조준 망원경은 인에이블링 상태이다. 단계 1106. 사용자가 조준 망원경 제어를 다시 탭하는지를 결정한다. 단계 1107. 사용자가 조준 망원경 제어를 다시 탭하면 조준 망원경 액세서리를 디스에이블링한다.
둘째, 터치-앤-홀드 제어 방식의 구현 프로세스에 대해서는 도 12를 참조한다. 이 프로세스에는 다음 단계가 포함된다:
단계 1201. 조준 망원경 액세서리가 디스에이블링 상태에 있다. 선택적으로, 단말에 표시되는 환경 인터페이스는 가상 물체의 1인칭 시점 또는 3인칭 시점에서 관찰된 가상 환경의 픽처를 포함한다. 단계 1202. 사용자가 조준 망원경 제어를 터치하였는지를 결정한다. 단계 1203. 사용자가 조준 망원경 제어를 터치할 때 조준 망원경 액세서리를 인에이블링한다. 선택적으로, 조준 망원경 액세서리가 인에이블링된 후 조준 망원경 액세서리를 사용하여 가상 환경을 관찰한다. 단계 1204. 사용자가 조준 망원경 제어에 대한 터치 조작을 종료하는지를 결정한다. 단계 1205. 사용자가 조준 망원경 제어에서 터치 조작을 종료하면 조준 망원경 액세서리를 디스에이블링한다. 단계 1206. 사용자가 조준 망원경 제어에서 터치 조작을 종료하기 전에 조준 망원경 액세서리를 인에이블링된 상태로 유지한다.
셋째, 하이브리드 제어 방식의 구현 프로세스에 대해서는 도 13을 참조한다. 이 프로세스에는 다음 단계가 포함된다:
단계 1301. 하이브리드 제어 방식을 선택한다. 단계 1302. 사용자가 조준 망원경 제어를 터치하는지를 결정한다. 단계 1303. 사용자가 조준 망원경 제어를 터치할 때 조준 망원경 액세서리를 인에이블링한다. 단계 1304. 터치 조작의 터치 지속 시간을 계산한다. 단계 1305. 사용자가 조준 망원경 제어에 대한 터치를 종료하는지를 결정한다. 단계 1306. 사용자가 조준 망원경 제어에 대한 터치를 종료할 때 터치-홀딩 제어 방식을 트리거할지를 결정한다. 단계 1307. 터치-앤-홀드 제어 방식이 트리거되면 조준 망원경 액세서리를 디스에이블링한다. 단계 1308. 터치-앤-홀드 제어 방식이 실행되지 않을 때 조준 망원경 액세서리를 인에이블링된 상태로 유지한다. 단계 1309. 조준 망원경 제어에 대한 추가 탭 조작이 수신되었는지를 결정한다. 선택적으로, 조준 망원경 제어에 대한 추가 탭 조작이 수신되면 조준 망원경 액세서리가 디스에이블링된다.
선택적인 실시예에서, 조준 망원경 액세서리가 인에이블링된 후, 조준 망원경을 사용하여 가상 환경을 관찰할 때, 드래그 동작을 통해 시점 방향을 조정할 수 있다. 도 14는 본 출원의 다른 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하는 방법의 흐름도이다. 단말에 적용한 예를 들어 설명한다. 도 14에 도시된 바와 같이, 방법은 다음 단계를 포함한다:
단계 1401. 제1 환경 인터페이스를 표시하고, 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 가상 물체는 가상 아이템을 보유하고, 가상 아이템은 조준 망원경 액세서리를 구비하며, 제1 환경 인터페이스는 조준 망원경 제어를 더 포함한다.
선택적으로, 인칭 시점 픽처는 가상 물체의 1인칭 시점에서 표시되는 픽처일 수 있거나 가상 물체의 3인칭 시점에서 표시되는 픽처일 수 있다.
단계 1402. 조준 망원경 제어에 대한 터치 조작을 수신하고 터치 신호를 생성한다.
선택적으로, 이 방법은 터치스크린이 있는 단말에 적용된다. 터치스크린의 조준 망원경 제어에서 수행된 터치 조작이 수신된다.
선택적으로, 조준 망원경 제어에 대한 터치 조작이 수신되기 전에 조준 망원경 제어 방식이 기능 설정 인터페이스에서 설정될 수 있다. 조준 망원경 제어 방식은 탭핑 제어 방식, 터치-앤-홀드 제어 방식 및 하이브리드 제어 방식 중 어느 하나를 포함한다. 선택적으로, 탭핑 제어 방식은 조준 망원경 제어를 탭하여 조준 망원경 액세서리를 인에이블링하고 조준 망원경 제어를 탭하여 조준 망원경 액세서리를 디스에이블링하는 방식이다. 터치-앤-홀드 제어 방식은 터치-앤-홀드 작업이 종료될 때 조준 망원경 액세서리를 인에이블링하고 조준 망원경 액세서리를 디스에이블링하기 위해 조준 망원경 제어를 길게 터치하는 방식이다. 하이브리드 제어 방식은 요구된 지속 시간을 임계 지속 시간으로 하여 탭핑 제어 방식과 터치 유지 제어 방식 중 하나를 선택하는 제어 방식이다.
선택적으로, 제1 환경 인터페이스는 기능 설정 제어를 더 포함한다. 기능 설정 제어는 기능 설정 인터페이스를 인에이블링하도록 구성되며, 기능 설정 제어에 대한 트리거 조작이 수신되고, 트리거 조작에 따라 기능 설정 인터페이스가 표시된다. 기능 설정 인터페이스에는 조준 망원경 설정 옵션이 포함된다. 조준 망원경 설정 옵션에는 탭핑 제어 옵션, 터치-앤-홀드 제어 옵션 및 하이브리드 제어 옵션이 포함된다. 탭핑 제어 옵션은 탭핑 제어 방식에 대응하고, 길게 누르기 제어 옵션은 길게 누르기 제어 옵션에 대응하고, 하이브리드 제어 옵션은 하이브리드 제어 방식에 대응한다. 선택적으로, 하이브리드 제어 옵션에 대한 인에이블링 작업이 수신되며, 하이브리드 제어 옵션은 필수 지속 시간을 임계 지속 시간으로 사용하여 조준 망원경 액세서리의 디스에이블링 방식을 결정하도록 지시하는 데 사용된다.
단계 1403. 터치 신호에 따라 제2 환경 인터페이스를 표시하며, 제2 환경 인터페이스는 조준 망원경 액세서리를 사용하여 관찰한 가상 환경의 조준 망원경 픽처를 포함한다.
선택적으로, 가상 아이템에 장착된 조준 망원경 액세서리는 기계적 조준 망원경, 기본 조준 망원경, 저배율 조준 망원경 및 고배율 조준 망원경 중 적어도 하나일 수 있다.
선택적으로, 조준 망원경 픽처는 조준 망원경 액세서리를 사용하여 제1 시점 방향에서 관찰된 가상 환경의 픽처이다.
단계 1404. 터치 조작에 따라 결정된 드래그 조작을 수신한다.
선택적으로, 터치 조작이 수신된 후, 터치 조작이 종료되기 전에 터치 조작과 연결된 드래그 조작이 수신된다.
단계 1405. 드래그 조작에 따라 제1 시점 방향을 조정하여 제2 시점 방향을 획득한다.
선택적으로, 제1 시점 방향은 카메라 모델이 조준 망원경 액세서리의 형태로 가상 환경을 관찰하기 위한 시점 방향이다. 드래그 동작의 드래그 방향 및 드래그 거리에 따라 가상 환경에서 카메라 모델이 그에 대응해서 회전하며, 회전 후의 시점 방향을 제2 시점 방향으로 사용한다. 선택적으로, 제2 시점 방향은 카메라 모델이 조준 망원경 액세서리의 형태로 가상 환경을 관찰하는 시점 방향이기도 한다.
선택적으로, 조준 망원경 액세서리를 사용하여 가상 환경이 관찰되지 않는 경우, 시점 방향이 조정되는 속도는 제1 조정 속도이다. 드래그 조작에 따라 제1 시점 방향을 제2 조정 속도로 조정하여 제2 시점 방향을 얻는다. 제2 조정 속도가 제1 조정 속도보다 낮다.
단계 1406. 제3 환경 인터페이스를 표시하며, 제3 환경 인터페이스는 조준 망원경 액세서리를 사용하여 제2 시점 방향에서 관찰된 가상 환경의 픽처를 포함한다.
단계 1407. 조준 망원경 액세서리를 디스에이블링하고 수신 중인 터치 조작의 터치 종료 신호에 기초하여 인칭 시점 픽처를 표시하는 것을 재개한다.
선택적으로, 사용자는 조준 망원경 제어에 대한 터치 조작으로 터치스크린의 조준 망원경 제어를 터치한다. 사용자가 조준 망원경 제어에서 터치를 해제하면 단말은 터치 종료 신호를 생성한다.
이상에 기초하여, 본 출원의 실시예에 따른 가상 환경에서의 조준 망원경의 적용 방법은 조준 망원경 제어를 배치하고, 조준 망원경 제어에 대한 터치 조작이 연속적인지에 따라, 조준 망원경 액세서리 없이 관찰한 인칭 시점 픽처와 조준 망원경 액세서리로 관찰한 조준 망원경 픽처 간에 전환이 수행된다. 조준 망원경 제어를 한 번만 터치하면 인칭 시점 픽처와 조준 망원경 픽처 사이를 전환할 수 있으므로 조준 망원경 액세서리를 인에이블링하는 효율성이 향상되고 가상 환경을 관찰하는 효율성과 정확성이 향상된다.
본 실시예에서 제공되는 방법에 따르면, 조준 망원경 액세서리가 인에이블링되고 조준 망원경 액세서리를 이용하여 가상 환경을 관찰할 때, 관찰된 가상 환경의 시점 방향은 터치 조작에 연결된 드래그 조작을 수신하여 조정된다. 이러한 방식으로 조준 망원경 액세서리 인에이블링, 시점 조정 및 조준 망원경 액세서리 디스에이블링에 대한 조작이 단일 터치 이벤트로 구현되어 조준 망원경 액세서리의 적용 효율성이 향상된다.
도 15는 본 출원의 예시적인 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 장치의 구조적 블록도이다. 단말에 장치를 배치한 예를 들어 설명한다. 도 15에 도시된 바와 같이, 장치는 디스플레이 모듈(1510) 및 수신 모듈(1520)을 포함한다.
디스플레이 모듈(1510)은 제1 환경 인터페이스를 디스플레이하도록 구성되며, 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 가상 물체는 가상 아이템을 보유하고, 가상 아이템 조준 망원경 액세서리가 장착되고, 제1 환경 인터페이스는 조준 망원경 제어 장치를 더 포함한다.
수신 모듈(1520)은 조준 망원경 제어에 대한 터치 조작을 수신하고 터치 신호를 생성하도록 구성된다.
디스플레이 모듈(1510)은 터치 신호에 따라 제2 환경 인터페이스를 디스플레이하도록 더 구성되며, 제2 환경 인터페이스는 조준 망원경 액세서리를 사용하여 관찰된 가상 환경의 조준 망원경 픽처를 포함한다.
수신 모듈(1520)은 수신 중인 터치 조작의 터치 종료 신호에 기초하여 인칭 시점 픽처의 표시를 재개하도록 더 구성된다.
선택적인 실시예에서, 수신 모듈(1520)은 수신 중인 터치 조작의 터치 종료 신호에 기초하여 터치 조작의 터치 지속 시간을 결정하고; 터치 지속 시간이 요구된 지속 시간에 도달한 것을 기반으로 터치 종료 신호에 따라 조준 망원경 액세서리를 디스에이블링하고 인칭 시점 픽처를 표시하는 것을 재개하도록 더 구성된다.
선택적인 실시예에서, 도 16에 도시된 바와 같이, 장치는:
요구된 지속 시간에 도달하지 않은 터치 지속 시간에 기초하여, 조준 망원경 제어의 탭 신호를 조준 망원경 액세서리가 디스에이블되도록 제어하기 위한 신호로 결정하도록 구성되어 있는 결정 모듈(1530)
을 더 포함한다.
수신 모듈(1520)은 수신되는 조준 망원경 제어에 대한 탭 신호에 기초하여 조준 망원경 액세서리를 디스에이블링하도록 추가로 구성된다.
디스플레이 모듈(1510)은 또한 인칭 시점 픽처의 디스플레이를 재개하도록 구성된다.
선택적인 실시예에서, 수신 모듈(1520)은 기능 설정 제어에 대한 트리거 동작을 수신하도록 더 구성되고;
디스플레이 모듈(1510)은 트리거 조작에 따라 기능 설정 인터페이스를 표시하도록 더 구성되며, 기능 설정 인터페이스는 조준 망원경 설정 옵션을 포함하고 조준 망원경 설정 옵션은 하이브리드 제어 옵션을 포함하고; 그리고
수신 모듈(1520)은 하이브리드 제어 옵션에 대한 인에이블링 작업을 수신하도록 추가로 구성되며, 하이브리드 제어 옵션은 필수 지속 시간을 임계 지속 시간으로 사용하여 조준 망원경 액세서리의 디스에이블링 방식을 결정하도록 지시하는 데 사용된다.
선택적인 실시예에서, 조준 망원경 픽처는 조준 망원경 액세서리를 사용하여 제1 시점 방향에서 관찰된 가상 환경의 픽처이고;
수신 모듈(1520)은 터치 조작에 따라 결정된 드래그 조작을 수신하도록 더 구성되며; 그리고
장치는:
드래그 조작에 따라 제1 시점 방향을 조정하여 제2 시점 방향을 획득하도록 구성된 조정 모듈(1540)
을 더 포함한다.
디스플레이 모듈(1510)은 또한 조준 망원경 액세서리를 사용하여 제2 시점 방향에서 관찰된 가상 환경의 픽처를 포함하는 제3 환경 인터페이스를 표시하도록 구성된다.
선택적인 실시예에서, 조준 망원경 액세서리를 사용하여 가상 환경이 관찰되지 않는 경우, 시점 방향이 조정되는 속도는 제1 조정 속도이다.
조정 모듈(1540)은 드래그 조작에 따라 제2 조정 속도로 제1 원근 방향을 조정하도록 더 구성되며, 제2 조정 속도는 제1 조정 속도보다 낮다.
선택적인 실시예에서, 수신 모듈(1520)은 터치스크린 상에서의 터치 조작을 수신하도록 추가로 구성되고; 그리고
장치는:
터치스크린 상의 터치 조작에 대응하는 제1 좌표를 결정하고; 터치스크린 상의 조준 망원경 제어의 중심점에 대응하는 제2 좌표를 결정하고; 그리고 제1 좌표와 제2 좌표 사이의 거리가 요구되는 거리보다 작은 것에 기초하여, 터치 조작이 조준 망원경 제어에 대해 수행된 터치 조작인 것으로 결정하도록 구성된 결정 모듈(1530)
을 더 포함한다.
이상에 기초하여, 본 출원의 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 장치는 조준 망원경 제어를 배치하고, 터치 신호 및 터치 종료 신호는 조준 망원경 제어의 터치 조작이 계속되는지에 따라 결정된다. 이러한 방식으로, 조준 망원경 액세서리를 한 번만 터치하면 조준 망원경 액세서리 없이 관찰된 인칭 시점 픽처와 조준 망원경 액세서리로 관찰한 조준 망원경 픽처 사이를 전환할 수 있으므로 조준 망원경 액세서리를 인에이블링하는 효율성이 향상되고, 이에 의해 가상 환경 관찰의 효율성과 정확성을 향상시킨다.
전술한 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 장치는 전술한 기능 모듈의 분할의 예로서만 도시되어 있다. 실제 응용에서는 요구 사항에 따라 다른 기능 모듈에 기능을 할당하고 완료할 수 있다. 즉, 장치의 내부 구조를 다른 기능 모듈로 분할하여 위에서 설명한 기능의 전부 또는 일부를 구현한다. 또한, 전술한 실시예에 따른 가상 환경에서 관찰 망원경을 적용하는 장치는 가상 환경에서 관찰 망원경을 적용하는 방법의 실시예와 동일한 개념에 속한다. 특정 구현 프로세스에 대해서는 방법 실시예를 참조한다. 자세한 내용은 여기에서 다시 설명되지 않는다.
도 17은 본 출원의 일 실시예에 따른 단말(1700)의 구조 블록도이다. 단말(1700)은 스마트폰, 태블릿 컴퓨터, MP3 플레이어, MP4 플레이어, 노트북 컴퓨터 또는 데스크탑 컴퓨터일 수 있다. 단말(1700)은 또한 사용자 장비, 휴대용 단말, 랩톱 단말 또는 데스크탑 단말로 지칭될 수 있다.
일반적으로 단말(1700)은 프로세서(1701) 및 메모리(1702)를 포함한다.
프로세서(1701)는 하나 이상의 프로세싱 코어, 예를 들어, 4-코어 프로세서 또는 8-코어 프로세서를 포함할 수 있다. 프로세서(1701)는 디지털 신호 프로세서(Digital Signal Processor, DSP), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 프로그래머블 로직 어레이(Programmable Logic Array, PLA) 중 적어도 하나의 하드웨어 형태로 구현될 수 있다. 프로세서(1701)는 또한 메인 프로세서 및 보조 프로세서를 포함할 수 있다. 메인 프로세서는 깨어 있는 상태에서 데이터를 처리하는 프로세서로, CPU(Central Processing Unit)라고도 한다. 코프로세서는 대기 상태에서 데이터를 처리하도록 구성된 저전력 프로세서이다. 일부 실시예에서, 프로세서(1701)는 그래픽 처리 장치(GPU)와 통합될 수 있다. GPU는 디스플레이 스크린에 표시될 콘텐츠를 렌더링하고 그리는 역할을 하도록 구성된다. 일부 실시예에서, 프로세서(1701)는 인공 지능(AI) 프로세서를 더 포함할 수 있다. AI 프로세서는 기계 학습과 관련된 컴퓨팅 작업을 처리하도록 구성된다.
메모리(1702)는 비일시적일 수 있는 하나 이상의 컴퓨터 판독가능 저장 매체를 포함할 수 있다. 메모리(1702)는 고속 RAM(Random Access Memory) 및 비휘발성 메모리, 예를 들어, 하나 이상의 디스크 저장 장치 또는 플래시 저장 장치를 더 포함할 수 있다. 일부 실시예에서, 메모리(1702)의 비일시적 컴퓨터 판독 가능 저장 매체는 적어도 하나의 명령어를 저장하도록 구성되고, 적어도 하나의 명령어는 본 출원의 방법 실시예에 따른 가상 환경에서의 조준 망원경의 적용 방법을 구현하기 위해 프로세서(1701)에 의해 실행되도록 구성된다.
일부 실시예에서, 단말(1700)은 선택적으로 주변기기 인터페이스(1703) 및 적어도 하나의 주변기기를 포함할 수 있다. 프로세서(1701), 메모리(1702), 및 주변기기 인터페이스(1703)는 버스 또는 신호 케이블을 통해 연결될 수 있다. 각각의 주변 장치는 버스, 신호 케이블 또는 회로 기판을 통해 주변 장치 인터페이스(1703)에 연결될 수 있다. 구체적으로, 주변 장치는 무선 주파수(RF) 회로(1704), 터치스크린(1705), 카메라 구성요소(1706), 오디오 회로(1707), 포지셔닝 구성요소(1708), 및 전원(1709) 중 적어도 하나를 포함한다.
주변기기 인터페이스(1703)는 입출력(I/O)과 관련된 적어도 하나의 주변기기를 프로세서(1701) 및 메모리(1702)에 연결하도록 구성될 수 있다. 일부 실시예에서, 프로세서(1701), 메모리(1702), 및 주변기기 인터페이스(1703)는 동일한 칩 또는 동일한 회로 기판에 통합된다. 일부 다른 실시예에서, 프로세서(1701), 메모리(1702), 및 주변기기 인터페이스(1703) 중 어느 하나 또는 둘은 독립적인 칩 또는 회로 기판 상에 구현될 수 있다. 이것은 이 실시예에서 제한되지 않는다.
무선 주파수 회로(1704)는 전자기 신호라고도 하는 무선 주파수(RF) 신호를 수신 및 송신하도록 구성된다. RF 회로(1704)는 전자기 신호를 이용하여 통신 네트워크 및 다른 통신 장치와 통신한다. RF 회로(1704)는 송신을 위해 전기 신호를 전자기 신호로 변환하거나 수신된 전자기 신호를 전기 신호로 변환한다. 선택적으로, 무선 주파수 회로(1704)는 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 발진기, 디지털 신호 프로세서, 코덱 칩셋, 가입자 식별 모듈 카드 등을 포함한다. RF 회로(1704)는 적어도 하나의 무선 통신 프로토콜을 이용하여 다른 단말과 통신할 수 있다. 무선 통신 프로토콜은 월드 와이드 웹, 대도시 지역 네트워크, 인트라넷, 이동 통신 네트워크 세대(2G, 3G, 4G 및 5G), 무선 근거리 통신망 및/또는 무선 충실도(Wi-Fi) 네트워크를 포함하되 이에 제한되지 않는다. 일부 실시예에서, RF 회로(1704)는 니어 필드 통신(near field communication, NFC)와 관련된 회로를 더 포함할 수 있으며, 이는 본 출원에 제한되지 않는다.
디스플레이 스크린(1705)은 사용자 인터페이스(UI)를 표시하도록 구성된다. UI는 그래프, 텍스트, 아이콘, 비디오 및 이들의 임의의 조합을 포함할 수 있다. 디스플레이 스크린(1705)이 터치스크린일 때, 디스플레이 스크린(1705)은 또한 디스플레이 스크린(1705)의 표면 상에서 또는 그 위의 터치 신호를 캡처할 수 있다. 터치 신호는 처리를 위해 프로세서(1701)에 입력되는 제어 신호로서 사용될 수 있다. 이 경우, 디스플레이 스크린(1705)은 또한 소프트 버튼 및/또는 소프트 키보드라고도 하는 가상 버튼 및/또는 가상 키보드를 제공하도록 구성될 수 있다. 일부 실시예에서, 단말(1700)의 전면 패널에 배치된 하나의 디스플레이 스크린(1705)이 있을 수 있다. 일부 다른 실시예에서, 단말(1700)의 서로 다른 표면에 각각 배치되거나 폴더블 형태로 설계된 적어도 2개의 디스플레이 스크린(1705)이 있을 수 있다. 또 다른 실시예에서, 디스플레이 스크린(1705)은 단말(1700)의 곡면 또는 접힌 면에 배치된 플렉서블 디스플레이 스크린일 수 있다. 또한, 디스플레이 스크린(1705)은 비장방형의 불규칙한 패턴, 즉, 특별한 모양의 스크린으로 추가로 설정될 수 있다. 디스플레이 스크린(1705)은 액정 디스플레이(Liquid Crystal Display, LCD), 유기발광다이오드(Organic Light Emitting Diode, OLED) 등과 같은 물질을 사용하여 마련될 수 있다.
카메라(1706)는 이미지 또는 비디오를 획득하도록 구성된다. 선택적으로, 카메라(1706)는 전면 카메라 및 후면 카메라를 포함한다. 일반적으로 전면 카메라는 단말의 전면 패널에 배치되고 후면 카메라는 단말 후면에 배치된다. 일부 실시예에서는 메인 카메라, 피사계 심도 카메라, 광각 카메라, 망원 카메라 중 어느 하나인 후면 카메라가 2개 이상 존재하여 메인 카메라와 피사계 심도 카메라의 융합을 통한 보케(Bokeh) 기능, 메인 카메라와 광각 카메라의 융합을 통한 파노라마 픽처 촬영 및 VR 촬영 기능, 또는 다른 융합 촬영 기능을 구현한다. 일부 실시예에서, 카메라(1706)는 플래시를 더 포함할 수 있다. 플래시는 단색 온도 플래시일 수도 있고, 이중 색온도 플래시일 수도 있다. 이중 색온도 플래시는 온광 플래시와 냉광 플래시의 조합을 말하며 서로 다른 색온도에서 광보정에 사용될 수 있다.
오디오 회로(1707)는 마이크 및 스피커를 포함할 수 있다. 마이크로폰은 사용자 및 주변의 음파를 획득하고, 음파를 전기적 신호로 변환하고 처리를 위해 프로세서(1701)에 입력하거나, 음성 통신을 구현하기 위해 RF 회로(1704)에 신호를 입력하도록 구성된다. 스테레오 획득 또는 노이즈 감소를 위해 복수의 마이크가 단말(1700)의 서로 다른 부분에 각각 배치될 수 있다. 마이크는 또한 어레이 마이크 또는 무지향성 획득형 마이크일 수 있다. 스피커는 프로세서(1701) 또는 RF 회로(1704)로부터의 전기 신호를 음파로 변환하도록 구성된다. 스피커는 종래의 박막 스피커 또는 압전 세라믹 스피커일 수 있다. 스피커가 압전 세라믹 스피커인 경우, 전기 신호는 사람이 들을 수 있는 음파로 변환될 수 있을 뿐만 아니라, 거리 측정 등을 위해 사람이 들을 수 없는 음파로 변환될 수 있다. 일부 실시예에서, 오디오 회로(1707)는 이어폰 잭을 더 포함할 수 있다.
포지셔닝 구성요소(1708)는 내비게이션 또는 위치 기반 서비스(LBS)를 구현하기 위해 단말(1700)의 현재 지리적 위치를 결정하도록 구성된다. 포지셔닝 구성요소(1708)는 미국의 GPS(Global Positioning System), 중국의 BDS(Beidou Navigation Satellite System) 또는 러시아의 갈릴레오(Galileo) 시스템에 기반한 포지셔닝 구성요소일 수 있다.
전원(1709)은 단자(1700)의 구성 요소에 전원을 공급하도록 구성된다. 전원(1709)은 교류, 직류, 1차 배터리, 또는 재충전 가능한 배터리일 수 있다. 전원(1709)이 충전식 배터리를 포함하는 경우, 충전식 배터리는 유선 충전식 배터리 또는 무선 충전식 배터리일 수 있다. 유선 이차 전지는 유선 회로를 통해 충전되는 전지이고, 무선 이차 전지는 무선 코일을 통해 충전되는 전지이다. 재충전 가능한 배터리는 급속 충전 기술을 지원하도록 더 구성될 수 있다.
일부 실시예에서, 단말(1700)은 하나 이상의 센서(1710)를 더 포함한다. 하나 이상의 센서(1710)는 가속도 센서(1711), 자이로스코프 센서(1712), 압력 센서(1713), 지문 센서(1714), 광학 센서(1715) 및 근접 센서(1716)를 포함하지만 이에 제한되지 않는다.
가속도 센서(1711)는 단말(1700)과 설정된 좌표계의 세 좌표축에서 가속도의 크기를 감지할 수 있다. 예를 들어, 가속도 센서(1711)는 세 좌표축에서 중력 가속도 성분을 감지하도록 구성될 수 있다. 프로세서(1701)는 가속도 센서(1711)에 의해 수집된 중력 가속도 신호에 따라 터치 스크린(1705)이 수평 뷰 또는 종단 뷰를 사용하여 UI에 표시되도록 제어할 수 있다. 가속도 센서(1711)는 게임 또는 사용자의 모션 데이터를 획득하도록 더 구성될 수 있다.
자이로스코프 센서(1712)는 단말(1700)의 신체 방향 및 회전 각도를 감지할 수 있다. 자이로스코프 센서(1712)는 가속도 센서(1711)와 협력하여 단말(1700) 상에서 사용자의 3D 액션을 획득할 수 있다. 프로세서(1701)는 자이로스코프 센서(1712)에 의해 획득된 데이터에 따라 다음 기능: 모션 감지(예를 들어, 사용자의 틸트 조작에 따라 UI 변경), 촬영 시 이미지 안정화, 게임 제어 및 관성 탐색을 구현할 수 있다.
압력 센서(1713)는 단말(1700)의 측면 프레임 및/또는 터치 스크린(1705)의 하부에 배치될 수 있다. 압력 센서(1713)가 단말(1700)의 측면 프레임에 배치되면, 단말(1700) 상의 사용자가 검출될 수 있다. 프로세서(1701)는 압력 센서(1713)에서 수집된 파지 신호에 따라 왼손/오른손 인식 또는 빠른 조작을 수행한다. UI에서 조작 가능한 컨트롤인 터치스크린(1705)에서 사용자의 조작. 조작 가능한 컨트롤은 버튼 컨트롤, 스크롤 바 컨트롤, 아이콘 컨트롤, 메뉴 컨트롤 중 적어도 하나를 포함한다.
지문 센서(1714)는 사용자의 지문을 획득하도록 구성되고, 프로세서(1701)는 지문 센서(1714)에 의해 획득된 지문에 따라 사용자의 신원을 식별하거나, 지문 센서(1714)는 획득된 지문에 따라 사용자의 신원을 식별한다. 사용자의 신원이 신뢰할 수 있는 신원임을 식별할 때, 프로세서(1701)는 관련된 민감한 동작을 수행하도록 사용자에게 권한을 부여한다. 민감한 작업에는 스크린 잠금 해제, 암호화된 정보 보기, 소프트웨어 다운로드, 결제, 설정 변경 등이 포함된다. 지문 센서(1714)는 단말(1700)의 전면, 후면 또는 측면에 배치될 수 있다. 단말(1700)에 물리적인 버튼이나 벤더 로고가 배치되는 경우, 지문 센서(1714)는 물리적인 버튼 또는 공급업체 로고과 통합될 수 있다.
광학 센서(1715)는 주변 광 강도를 획득하도록 구성된다. 일 실시예에서, 프로세서(1701)는 광 센서(1715)에 의해 획득된 주변 광 세기에 따라 터치 스크린(1705)의 디스플레이 밝기를 제어할 수 있다. 구체적으로, 주변 광 세기가 상대적으로 높을 때, 터치 스크린(1705)의 디스플레이 휘도는 증가한다. 주변 광의 세기가 상대적으로 낮을 때, 터치 스크린(1705)의 디스플레이 휘도는 감소된다. 다른 실시예에서, 프로세서(1701)는 광학 센서(1715)에 의해 획득된 주변 광 강도에 따라 카메라(1706)의 카메라 파라미터를 더 동적으로 조정할 수 있다.
거리 센서라고도 하는 근접 센서(1716)는 통상적으로 단말(1700)의 전면 패널에 배치된다. 근접 센서(1716)는 사용자와 단말(1700)의 전면 사이의 거리를 획득하도록 구성된다. 일 실시예에서, 근접 센서(1716)가 사용자와 단말(1700)의 전면 사이의 거리가 점차적으로 작아지는 것을 감지하는 경우, 터치 스크린(1705)은 프로세서(1701)에 의해 제어되어 스크린 온 상태에서 스크린 오프 상태로 전환된다. 근접 센서(1716)가 사용자와 단말(1700)의 전면 사이의 거리가 점차 멀어지는 것을 감지한 경우, 터치스크린(1705)은 프로세서(1701)에 의해 제어되어 스크린 오프 상태에서 스크린 온 상태로 전환된다.
당업자는 도 17에 도시된 구조가 단말(1700)에 대해 제한을 두지 않으며, 단말은 도면에 도시된 것보다 많거나 적은 구성요소를 포함하거나, 일부 구성요소를 결합하거나, 다른 구성요소 배치를 사용할 수 있다는 것을 이해할 수 있다.
본 출원의 실시예는 메모리 및 프로세서를 포함하는 컴퓨터 장치를 더 제공하며, 상기 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트는 프로세서에 의해 로드되어 본 출원의 전술한 실시예에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 구현한다.
본 출원의 실시예는 컴퓨터 프로그램을 저장하도록 구성된 저장 매체를 더 제공하며, 컴퓨터 프로그램은 본 출원의 전술한 실시예들에 따른 가상 환경에서 조준 망원경의 적용 방법을 수행하도록 구성된다.
본 출원은 컴퓨터에서 실행될 때 컴퓨터 프로그램 제품, 컴퓨터 프로그램 제품을 추가로 제공하여, 컴퓨터로 하여금 전술한 방법 실시예에 따른 가상 환경에서 조준 망원경의 적용 방법을 수행하게 한다.
당업자는 실시예의 방법의 단계의 전부 또는 일부가 관련 하드웨어에 지시하는 프로그램에 의해 구현될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터로 읽을 수 있는 저장 매체에 저장될 수 있다. 컴퓨터 판독 가능형 저장 매체는 전술한 실시예에서 메모리에 포함된 컴퓨터 판독 가능형 저장 매체일 수 있고, 단말에 배치되지 않고 독립적으로 존재하는 컴퓨터 판독 가능형 저장 매체일 수 있다. 컴퓨터 판독 가능형 저장 매체는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령 세트를 저장하고, 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트 또는 명령 세트는 프로세서에 의해 로드되고 실행되어 본 출원의 실시예에 따라 가상 환경에서 조준 망원경을 적용하는 방법을 구현한다.
선택적으로, 컴퓨터 판독 가능한 저장 매체는 읽기 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 솔리드 스테이트 드라이브(SSD), 광 디스크 등을 포함할 수 있다. RAM은 ReRAM(Resistance Random Access Memory) 및 DRAM(Dynamic Random Access Memory)을 포함할 수 있다. 본 출원의 전술한 실시예의 시퀀스 번호는 단지 설명을 위한 것이며, 실시예의 우선순위를 나타내기 위한 것이 아니다.
당업자는 실시예의 단계의 전부 또는 일부가 하드웨어 또는 관련 하드웨어에 지시하는 프로그램에 의해 구현될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터로 읽을 수 있는 저장매체에 저장될 수 있다. 저장 매체는 ROM, 자기 디스크 또는 광 디스크 등일 수 있다.
전술한 설명은 단지 본 출원의 예시적인 실시예이며, 본 출원을 제한하도록 의도되지 않는다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 교체, 개선 등은 본 출원의 보호 조준경에 속한다.

Claims (16)

  1. 가상 환경에서 조준 망원경을 적용하는 방법으로서,
    상기 방법은 단말에 의해 수행되고:
    제1 환경 인터페이스를 표시하는 단계 - 상기 제1 환경 인터페이스는 가상 물체의 인칭 시점(person perspective)에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 상기 가상 물체는 가상 아이템을 보유하고, 상기 가상 아이템은 조준 망원경 액세서리를 구비하고, 상기 제1 환경 인터페이스는 조준 망원경 제어를 더 포함함 - ;
    상기 조준 망원경 제어에 대한 터치 조작을 수신하는 단계 및 터치 신호를 생성하는 단계;
    상기 터치 신호에 따라 제2 환경 인터페이스를 표시하는 단계 - 상기 제2 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 관찰된 상기 가상 환경의 조준 망원경 픽처를 포함함 - ; 및
    수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 인칭 시점 픽처를 표시하는 것을 재개하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 인칭 시점 픽처를 표시하는 것을 재개하는 단계는:
    상기 수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 터치 조작의 터치 지속 시간을 결정하는 단계; 및
    요구된 지속 시간에 도달한 터치 지속 시간에 기초하여 상기 터치 종료 신호에 따라 상기 조준 망원경 액세서리를 디스에이블링하고, 상기 인칭 시점 픽처를 표시하는 것을 재개하는 단계
    를 포함하는, 방법.
  3. 제2항에 있어서,
    상기 요구된 지속 시간에 도달하지 않은 터치 지속 시간에 기초하여, 상기 조준 망원경 액세서리가 디스에이블되도록 제어하기 위한 신호로서 상기 조준 망원경 제어 상의 탭 신호를 결정하는 단계; 및
    수신 중인 조준 망원경 제어의 탭 신호에 따라 상기 조준 망원경 액세서리를 디스에이블링하고 상기 인칭 시점 픽처를 표시하는 것을 재개하는 단계
    를 더 포함하는 방법.
  4. 제3항에 있어서,
    상기 조준 망원경 제어에 대한 터치 조작을 수신하기 전에, 상기 방법은:
    기능 설정 제어에 대한 트리거 조작을 수신하는 단계;
    상기 트리거 조작에 따라 기능 설정 인터페이스를 표시하는 단계 - 상기 기능 설정 인터페이스는 조준 망원경 설정 옵션을 포함하고, 상기 조준 망원경 설정 옵션은 하이브리드 제어 옵션을 포함함 - ; 및
    상기 하이브리드 제어 옵션에 대한 인에이블링 조작을 수신하는 단계 - 상기 하이브리드 제어 옵션은 상기 요구된 지속 시간을 임계 지속 시간(critical duration)으로서 사용하여 상기 조준 망원경 액세서리의 디스에이블링 방식을 결정하도록 지시하는 데 사용됨 -
    를 더 포함하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 조준 망원경 픽처는 상기 조준 망원경 액세서리를 사용하여 제1 시점 방향에서 관찰된 가상 환경의 픽처이고; 그리고
    상기 터치 조작에 따라 제2 환경 인터페이스를 표시하는 단계 이후에, 상기 방법은:
    상기 터치 조작에 따라 결정된 드래그 조작(drag operation)을 수신하는 단계;
    상기 드래그 조작에 따라 제1 시점 방향을 조정하여 제2 시점 방향을 획득하는 단계; 및
    제3 환경 인터페이스를 표시하는 단계 - 상기 제3 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 상기 제2 시점 방향에서 관찰된 상기 가상 환경의 픽처를 포함함 -
    를 더 포함하는 방법.
  6. 제5항에 있어서,
    상기 조준 망원경 액세서리를 이용하여 상기 가상 환경이 관찰되지 않는 경우, 시점 방향이 조정되는 속도가 제1 조정 속도이고; 그리고
    상기 드래그 조작에 따라 제1 시점 방향을 조정하는 단계는:
    상기 드래그 조작에 따라 제2 조정 속도로 상기 제1 원근 방향을 조정하는 단계 - 상기 제2 조정 속도는 상기 제1 조정 속도보다 낮음 -
    를 포함하는, 방법.
  7. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 조준 망원경 제어에 대한 터치 조작을 수신하는 단계는:
    터치스크린 상의 터치 조작을 수신하는 단계;
    상기 터치스크린 상의 터치 조작에 대응하는 제1 좌표를 결정하는 단계;
    상기 터치스크린 상의 조준 망원경 제어의 중심점에 대응하는 제2 좌표를 결정하는 단계; 및
    상기 제1 좌표와 상기 제2 좌표 사이의 거리가 요구된 거리보다 낮다는 것에 기초하여, 상기 터치 조작이 상기 조준 망원경 제어에 대해 수행된 터치 조작인 것으로 결정하는 단계
    를 포함하는, 방법.
  8. 가상 환경에서 조준 망원경을 적용하는 장치로서,
    제1 환경 인터페이스를 표시하도록 구성되어 있는 디스플레이 모듈 - 상기 제1 환경 인터페이스는 가상 물체의 인칭 시점에서 관찰된 가상 환경의 인칭 시점 픽처를 포함하고, 상기 가상 물체는 가상 아이템을 보유하고, 상기 가상 아이템은 조준 망원경 액세서리를 구비하고, 상기 제1 환경 인터페이스는 조준 망원경 제어를 더 포함함 - ; 및
    상기 조준 망원경 제어에 대한 터치 조작을 수신하고 그리고 터치 신호를 생성하도록 구성되어 있는 수신 모듈
    을 포함하며,
    상기 디스플레이 모듈은 상기 터치 신호에 따라 제2 환경 인터페이스를 표시하도록 추가로 구성되어 있으며, 상기 제2 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 관찰된 상기 가상 환경의 조준 망원경 픽처를 포함하며,
    상기 수신 모듈은 수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 인칭 시점 픽처를 표시하는 것을 재개하도록 추가로 구성되어 있는, 장치.
  9. 제8항에 있어서,
    상기 수신 모듈은 상기 수신 중인 터치 조작의 터치 종료 신호에 기초하여 상기 터치 조작의 터치 지속 시간을 결정하고; 그리고 요구된 지속 시간에 도달한 터치 지속 시간에 기초하여 상기 터치 종료 신호에 따라 상기 조준 망원경 액세서리를 디스에이블링하고, 상기 인칭 시점 픽처를 표시하는 것을 재개하도록 추가로 구성되어 있는, 장치.
  10. 제9항에 있어서,
    상기 요구된 지속 시간에 도달하지 않은 터치 지속 시간에 기초하여, 상기 조준 망원경 액세서리가 디스에이블되도록 제어하기 위한 신호로서 상기 조준 망원경 제어 상의 탭 신호를 결정하도록 구성되어 있는 결정 모듈
    을 더 포함하며,
    상기 수신 모듈은 수신 중인 조준 망원경 제어의 탭 신호에 따라 상기 조준 망원경 액세서리를 디스에이블링하도록 추가로 구성되어 있으며; 그리고
    상기 디스플레이 모듈은 상기 인칭 시점 픽처를 표시하는 것을 재개하도록 추가로 구성되어 있는, 장치.
  11. 제10항에 있어서,
    상기 수신 모듈은 기능 설정 제어에 대한 트리거 조작을 수신하도록 추가로 구성되어 있으며;
    상기 디스플레이 모듈은 상기 트리거 조작에 따라 기능 설정 인터페이스를 표시하도록 추가로 구성되어 있으며, 상기 기능 설정 인터페이스는 조준 망원경 설정 옵션을 포함하고, 상기 조준 망원경 설정 옵션은 하이브리드 제어 옵션을 포함하며; 그리고
    상기 수신 모듈은 상기 하이브리드 제어 옵션에 대한 인에이블링 조작을 수신하도록 추가로 구성되어 있으며, 상기 하이브리드 제어 옵션은 상기 요구된 지속 시간을 임계 지속 시간(critical duration)으로서 사용하여 상기 조준 망원경 액세서리의 디스에이블링 방식을 결정하도록 지시하는 데 사용되는, 장치.
  12. 제8항 내지 제11항 중 어느 한 항에 있어서,
    상기 조준 망원경 픽처는 상기 조준 망원경 액세서리를 사용하여 제1 시점 방향에서 관찰된 가상 환경의 픽처이고; 그리고
    상기 수신 모듈은 상기 터치 조작에 따라 결정된 드래그 조작(drag operation)을 수신하도록 추가로 구성되어 있으며; 그리고
    상기 장치는:
    상기 드래그 조작에 따라 제1 시점 방향을 조정하여 제2 시점 방향을 획득하도록 구성되어 있는 조정 모듈
    을 더 포함하며,
    상기 디스플레이 모듈은 제3 환경 인터페이스를 표시하도록 구성되어 있으며, 상기 제3 환경 인터페이스는 상기 조준 망원경 액세서리를 사용하여 상기 제2 시점 방향에서 관찰된 상기 가상 환경의 픽처를 포함하는, 장치.
  13. 제12항에 있어서,
    상기 조준 망원경 액세서리를 이용하여 상기 가상 환경이 관찰되지 않는 경우, 시점 방향이 조정되는 속도가 제1 조정 속도이고;
    상기 조정 모듈은 상기 드래그 조작에 따라 제2 조정 속도로 상기 제1 원근 방향을 조정하도록 추가로 구성되어 있으며, 상기 제2 조정 속도는 상기 제1 조정 속도보다 낮은, 장치.
  14. 컴퓨터 디바이스로서,
    프로세서 및 메모리를 포함하고, 상기 메모리는 적어도 하나의 명령어, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 상기 적어도 하나의 명령어, 상기 적어도 하나의 프로그램, 상기 코드 세트 또는 상기 명령 세트는 상기 프로세서에 의해 로드되고 실행되어 제1항 내지 제7항 중 어느 한 항에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 구현하는, 컴퓨터 디바이스.
  15. 저장 매체로서,
    컴퓨터 프로그램을 저장하도록 구성되며, 상기 컴퓨터 프로그램은 제1항 내지 제7항 중 어느 한 항에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 수행하도록 구성되어 있는, 저장 매체.
  16. 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은 컴퓨터 상에서 실행될 때 상기 컴퓨터로 하여금 제1항 내지 제7항 중 어느 한 항에 따른 가상 환경에서 조준 망원경을 적용하기 위한 방법을 수행하게 하는, 컴퓨터 프로그램.
KR1020217032917A 2019-08-22 2020-07-20 가상 환경에서 망원경 관찰의 적용 방법 및 관련 장치 KR20210135594A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910780269.9A CN110448908B (zh) 2019-08-22 2019-08-22 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN201910780269.9 2019-08-22
PCT/CN2020/103000 WO2021031765A1 (zh) 2019-08-22 2020-07-20 虚拟环境中瞄准镜的应用方法和相关装置

Publications (1)

Publication Number Publication Date
KR20210135594A true KR20210135594A (ko) 2021-11-15

Family

ID=68488566

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217032917A KR20210135594A (ko) 2019-08-22 2020-07-20 가상 환경에서 망원경 관찰의 적용 방법 및 관련 장치

Country Status (5)

Country Link
JP (1) JP2022524802A (ko)
KR (1) KR20210135594A (ko)
CN (1) CN110448908B (ko)
SG (1) SG11202109672UA (ko)
WO (1) WO2021031765A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110448908B (zh) * 2019-08-22 2020-12-01 腾讯科技(深圳)有限公司 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质
CN112330823B (zh) * 2020-11-05 2023-06-16 腾讯科技(深圳)有限公司 虚拟道具的显示方法、装置、设备及可读存储介质
CN112774188B (zh) * 2021-02-03 2024-07-23 网易(杭州)网络有限公司 游戏中虚拟倍镜的调节方法、装置、电子设备及存储介质
CN112791398B (zh) * 2021-02-03 2024-07-16 网易(杭州)网络有限公司 游戏中虚拟倍镜的控制方法、装置、电子设备及存储介质
CN116943179A (zh) * 2023-03-07 2023-10-27 腾讯科技(深圳)有限公司 游戏画面的显示方法、装置、设备及计算机可读存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5238640B2 (ja) * 2009-08-18 2013-07-17 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
CN103631408B (zh) * 2012-08-21 2019-01-04 腾讯科技(深圳)有限公司 触控指令的处理方法和装置
KR101777630B1 (ko) * 2017-02-01 2017-09-12 에스명심 주식회사 사격 모바일 게임 시스템
CN107678647B (zh) * 2017-09-26 2023-04-28 网易(杭州)网络有限公司 虚拟射击主体控制方法、装置、电子设备及存储介质
CN108339272A (zh) * 2018-02-12 2018-07-31 网易(杭州)网络有限公司 虚拟射击主体控制方法及装置、电子设备、存储介质
CN108939540B (zh) * 2018-07-04 2021-08-24 网易(杭州)网络有限公司 射击游戏辅助瞄准方法、装置、存储介质、处理器及终端
CN109847370A (zh) * 2019-03-26 2019-06-07 网易(杭州)网络有限公司 射击游戏的控制方法、装置、设备和存储介质
CN110141869A (zh) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 操作控制方法、装置、电子设备及存储介质
CN110090442B (zh) * 2019-05-16 2023-03-24 网易(杭州)网络有限公司 游戏的开镜方法及装置、电子设备、存储介质
CN110448908B (zh) * 2019-08-22 2020-12-01 腾讯科技(深圳)有限公司 虚拟环境中瞄准镜的应用方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110448908A (zh) 2019-11-15
WO2021031765A1 (zh) 2021-02-25
JP2022524802A (ja) 2022-05-10
CN110448908B (zh) 2020-12-01
US20220032176A1 (en) 2022-02-03
SG11202109672UA (en) 2021-10-28

Similar Documents

Publication Publication Date Title
US12023583B2 (en) Method and apparatus for selecting accessory in virtual environment, device, and readable storage medium
US11256384B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
CN108434736B (zh) 虚拟环境对战中的装备显示方法、装置、设备及存储介质
CN109350964B (zh) 控制虚拟角色的方法、装置、设备及存储介质
US11980814B2 (en) Method and apparatus for controlling virtual object to mark virtual item and medium
CN108815851B (zh) 在虚拟环境中射击时的界面显示方法、设备及存储介质
US12036474B2 (en) Virtual object control method and apparatus, device, and readable storage medium
WO2019214402A1 (zh) 虚拟环境中的配件切换方法、装置、设备及存储介质
KR20210135594A (ko) 가상 환경에서 망원경 관찰의 적용 방법 및 관련 장치
WO2022134980A1 (zh) 虚拟对象的控制方法、装置、终端及存储介质
US11878240B2 (en) Method, apparatus, device, and storage medium for perspective rotation
CN108786110B (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
US11845007B2 (en) Perspective rotation method and apparatus, device, and storage medium
KR20210095931A (ko) 가상 환경에서 가상 물체를 관찰하는 방법 및 디바이스, 및 판독 가능한 저장 매체
CN112330823B (zh) 虚拟道具的显示方法、装置、设备及可读存储介质
US11786817B2 (en) Method and apparatus for operating virtual prop in virtual environment, device and readable medium
CN108744511B (zh) 虚拟环境中的瞄准镜显示方法、设备及存储介质
US12121798B2 (en) Method and related apparatus for application of scope in virtual environment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal