KR20210138082A - 가상 객체 제어 방법 및 장치, 단말 및 저장 매체 - Google Patents

가상 객체 제어 방법 및 장치, 단말 및 저장 매체 Download PDF

Info

Publication number
KR20210138082A
KR20210138082A KR1020217033554A KR20217033554A KR20210138082A KR 20210138082 A KR20210138082 A KR 20210138082A KR 1020217033554 A KR1020217033554 A KR 1020217033554A KR 20217033554 A KR20217033554 A KR 20217033554A KR 20210138082 A KR20210138082 A KR 20210138082A
Authority
KR
South Korea
Prior art keywords
virtual
virtual object
ads
fire
firing
Prior art date
Application number
KR1020217033554A
Other languages
English (en)
Other versions
KR102635988B1 (ko
Inventor
지훙 류
진하오 양
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210138082A publication Critical patent/KR20210138082A/ko
Application granted granted Critical
Publication of KR102635988B1 publication Critical patent/KR102635988B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상 객체 제어 방법 및 장치, 단말 및 저장 매체. 상기 방법은: 사용자 인터페이스를 표시하는 단계(301) - 상기 사용자 인터페이스는 제1 발사 버튼을 포함하고, 상기 제1 발사 버튼은 ADS 사격 및 발사를 트리거링하는 조작 제어임 - ; 상기 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 총이 ADS 사격 상태로 들어가도록 제어하는 단계(302); 발사 조건이 만족되는지를 검출하는 단계(303); 및 상기 발사 조건이 만족되면, 상기 가상 총이 ADS 사격 상태에 있을 때 가상 총이 사격하도록 제어하는 단계(304)를 포함한다. 상기 방법은 하나의 버튼을 누름으로써 ads 사격 및 발사를 수행하며, 즉 ads 사격 및 발사는 2 단계가 필요 없이 1 단계 조작으로만 완료될 수 있으므로, 조작 효율성이 충분히 향상된다.

Description

가상 객체 제어 방법 및 장치, 단말 및 저장 매체
본 출원은 2019년 8월 1일에 출원되고 발명의 명칭이 "가상 객체 제어 방법 및 장치, 단말 및 저장 매체"인 중국 특허 출원 번호 201910707805.2에 대한 우선권을 주장하며, 이 문헌은 그 전문이 참조로 여기에 포함된다.
본 출원의 실시예는 컴퓨터 및 인터넷 기술 분야에 관한 것으로, 특히 가상 객체 제어 방법 및 장치, 단말 및 저장 매체에 관한 것이다.
현재, 이동 단말의 일부 슈팅 게임(STG)에서, 플레이어는 게임 배틀에서 제공되는 게임 장면에서 가상 객체가 들고 있는 가상 화기를 제어하여 사격하고, 적의 가상 객체를 사살하면 게임 배틀을 승리할 수 있다.
종래 기술에서 제공되는 가상 객체가 사격하도록 제어하는 조작 방식은 비교적 복잡하고 비효율적이다.
본 출원의 실시예는 가상 개체 제어 방법 및 장치, 단말 및 저장 매체를 제공한다. 기술적 솔루션은 다음과 같다:
한 관점에 따라, 본 출원의 실시예는 이동 단말에 적용 가능한 가상 객체 제어 방법을 제공하며, 상기 방법은:
사용자 인터페이스(user interface, UI)를 표시하는 단계 - 상기 UI는, 조작 제어로서 구성되고 조준(aim down sights, ADS) 및 발사를 트리거링하도록 추가로 구성된 제1 발사 버튼을 포함함 - ;
상기 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어하는 단계 - 상기 ADS 상태는 상기 가상 화기에 대한 가상 스코프를 사용하여 가상 환경을 관찰하는 상태임 - ;
발사 조건이 만족되는지를 결정하는 단계; 및
상기 발사 조건이 만족되고 상기 가상 화기가 상기 ADS 상태에 있을 때 상기 가상 화기를 사격하도록 제어하는 단계
를 포함한다.
다른 관점에 따라, 본 출원의 실시예는 가상 객체 제어 장치를 제공하며, 상기 장치는:
사용자 인터페이스(user interface, UI)를 표시하도록 구성되어 있는 인터페이스 디스플레이 모듈 - 상기 UI는 조작 제어로서 구성되고 조준(aim down sights, ADS) 및 발사를 트리거링하도록 추가로 구성된 제1 발사 버튼을 포함함 - ;;
상기 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가게끔 제어하도록 구성되어 있는 ADS 제어 모듈 - 상기 ADS 상태는 상기 가상 화기에 대한 가상 스코프를 사용하여 가상 환경을 관찰하는 상태임 - ;
발사 조건이 만족되는지를 결정하도록 구성되어 있는 조건 검출 모듈; 및
상기 발사 조건이 만족되고 상기 가상 화기가 상기 ADS 상태에 있을 때 상기 가상 화기를 사격하게끔 제어하도록 구성되어 있는 사격 제어 모듈
을 포함한다.
또 다른 관점에 따라, 본 출원의 실시예는 이동 단말을 제공하며, 상기 이동 단말은 프로세서 및 메모리를 포함하며, 상기 메모리는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 상기 적어도 하나의 명령, 상기 적어도 하나의 프로그램, 상기 코드 세트, 또는 상기 명령 세트는 가상 객체 제어 방법을 수행하기 위해 상기 프로세서에 의해 로드되고 실행된다.
또 다른 관점에 따라, 본 출원의 실시예는 컴퓨터 판독 가능형 저장 매체를 제공하며, 상기 저장 매체는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 상기 적어도 하나의 명령, 상기 적어도 하나의 프로그램, 상기 코드 세트, 또는 상기 명령 세트는 가상 객체 제어 방법을 수행하기 위해 프로세서에 의해 로드되고 실행된다.
추가의 관점에 따라, 본 출원의 실시예는 컴퓨터 프로그램 제품을 제공함, 상기 컴퓨터 프로그램 제품은 이동 단말 상에서 실행될 때, 상기 이동 단말로 하여금 가상 객체 제어 방법을 수행하게 한다.
본 출원의 실시예에서 제공되는 기술적 솔루션에서, ADS 및 사격을 트리거링하도록 구성된 제1 발사 버튼이 UI에 설계되어 있고, 제1 발사 버튼에 대응하는 트리거 신호가 수신되면, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어되며 가상 화기가 ADS 상태에 있을 때 동시에 가상 화기가 사격하도록 제어되며, 이에 따라 원-탭 ADS 및 발사 능력을 구현하며, 즉, ADS 및 발사가 두 번의 조작이 아닌 한 번의 조작을 수행함으로써 구현될 수 있으므로 조작 효율성이 완전히 향상된다.
본 출원의 실시예의 기술적 솔루션을 보다 명확하게 설명하기 위해, 이하에서는 실시예를 설명하는 데 필요한 첨부 도면을 간략하게 소개한다. 명백하게, 다음 설명에서 첨부 도면은 본 출원의 일부 실시예만을 도시하며, 당업자는 창의적인 노력 없이도 첨부 도면으로부터 다른 첨부 도면을 여전히 도출할 수 있다.
도 1은 본 출원의 실시예에 따른 구현 환경의 개략도이다.
도 2는 본 출원의 실시예에 따른 이동 단말의 개략적인 구조도이다.
도 3은 본 출원의 일 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 4는 제1 발사 버튼의 예시적인 개략도이다.
도 5는 설정 인터페이스의 예시적인 개략도이다.
도 6은 본 출원의 다른 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 7은 제2 발사 버튼의 예시적인 개략도이다.
도 8은 본 출원의 다른 실시예에 따른 가상 객체 제어 방법의 흐름도이다.
도 9는 본 출원의 일 실시예에 따른 가상 객체 제어 장치의 블록도이다.
도 10은 본 출원의 다른 실시예에 따른 가상 객체 제어 장치의 블록도이다.
도 11은 본 출원의 일 실시예에 따른 이동 단말의 구조 블록도이다.
본 출원의 목적, 기술적 솔루션 및 이점을 보다 명확하게 하기 위해, 이하에서는 첨부된 도면을 참조하여 본 출원의 구현을 상세히 설명한다.
본 출원의 실시예를 설명하기 전에 본 출원과 관련된 관련 용어를 먼저 설명한다.
1. 가상 객체
가상 객체는 애플리케이션에서 사용자 계정에 의해 제어되는 가상 캐릭터이다. 예를 들어, 애플리케이션은 게임 애플리케이션이다. 가상 개체는 게임 애플리케이션의 사용자 계정으로 제어되는 게임 캐릭터이다. 가상 객체는 인간의 형태, 동물의 형태, 만화의 형태 또는 다른 형태일 수 있다. 이것은 본 출원의 실시예들에 제한되지 않는다. 가상 객체는 3차원 형태 또는 2차원 형태로 제시될 수 있으며, 이는 본 출원의 실시예에서 제한되지 않는다.
서로 다른 게임 애플리케이션에서, 사용자 계정에 의해 제어되는 가상 객체에 의해 수행될 수 있는 조작은 상이할 수 있다. 예를 들어, STG 애플리케이션에서 사용자 계정은 사격, 달리기, 점프, 화기 집기, 화기 교체 및 총알 장전과 같은 조작을 수행하도록 가상 개체를 제어할 수 있다.
확실히, 게임 애플리케이션에 더하여, 증강 현실(AR) 애플리케이션, 소셜 애플리케이션 또는 대화형 엔터테인먼트 애플리케이션과 같은 다른 유형의 애플리케이션에서 가상 객체도 사용자에게 제시될 수 있고, 본 출원의 실시예에 한정되지 않는 대응하는 기능이 제공된다. 또한, 상이한 애플리케이션에서 제공되는 가상 객체는 상이한 형태 및 대응하는 기능을 가지며, 이는 실제 요구에 따라 미리 설정될 수 있으며, 이는 본 출원의 실시예에서 제한되지 않는다.
2. 가상 화기
가상 화기는 실제 화기를 쏘는 것을 시뮬레이션할 수 있는 가상 아이템이다. 가상 화기는 실제 화기의 3차원 모델일 수 있으며, 가상 객체는 가상 화기를 휴대하고 목표물을 쏘도록 가상 화기를 제어할 수 있다.
가상 화기는 소총, 기관단총, 기관총, 산탄총 및 권총과 같은 복수의 상이한 화기 카테고리를 포함할 수 있다. 화기 카테고리는 실제 요구 사항을 참조하여 설정할 수 있다. 예를 들어, 소총은 돌격소총, 저격소총과 같이 다시 분류할 수 있고, 기관총은 경기관총과 중기관총과 같이 다시 분류할 수 있다.
3. 가상 스코프
가상 스코프는 가상 화기에 장착되어 가상 환경의 관찰을 지원하도록 구성된 가상 아이템이다. 가상 범위는 실제 범위의 3차원 모델일 수 있다. 가상 스코프를 장착한 후 가상 화기는 ADS 상태에 들어갈 수 있다. ADS 상태는 가상 스코프를 이용하여 가상 환경을 관찰한 상태이다.
가상 스코프는 서로 다른 배율의 광경(예를 들어, 2X 사이트, 4X 사이트, 6X 사이트, 8X 사이트), 레이저 사이트, 레드 닷 사이트, 홀로그램 사이트 등을 포함할 수 있다.
도 1은 본 출원의 실시예에 따른 구현 환경의 개략도이다. 구현 환경은 이동 단말(10) 및 서버(20)를 포함할 수 있다.
이동 단말(10)은 이동 전화, 태블릿 컴퓨터, 게임기, 전자책 리더기, 멀티미디어 재생 장치, 웨어러블 장치 등과 같은 휴대용 전자 장치일 수 있다. 모바일 단말(10)에는 STG 애플리케이션의 클라이언트와 같은 게임 애플리케이션의 클라이언트가 설치될 수 있다.
서버(20)는 모바일 단말(10) 상의 애플리케이션(예를 들어, 게임 애플리케이션)의 클라이언트에게 백엔드 서비스를 제공하도록 구성된다. 예를 들어, 서버(20)는 애플리케이션(예를 들어, 게임 애플리케이션)의 백엔드 서버일 수 있다. 서버(20)는 하나의 서버, 복수의 서버를 포함하는 서버 클러스터 또는 클라우드 컴퓨팅 서비스 센터일 수 있다.
이동 단말(10)과 서버(20)는 네트워크(30)를 통해 통신할 수 있다. 네트워크(30)는 유선 네트워크 또는 무선 네트워크일 수 있다.
본 출원의 방법 실시예의 단계는 이동 단말에 의해 수행될 수 있다. 도 2는 본 출원의 실시예에 따른 이동 단말의 개략적인 구조도이다. 이동 단말(10)은 메인 보드(110), 외부 입출력 디바이스(120), 메모리(130), 외부 인터페이스(140), 터치 시스템(150), 전원(160)을 포함할 수 있다.
메인보드(110)에는 프로세서, 제어기 등의 처리 요소들이 집적되어 있다.
외부 입출력 디바이스(120)는 디스플레이 컴포넌트(예를 들어, 디스플레이 화면), 음향 재생 컴포넌트(예를 들어, 스피커), 음향 수집 컴포넌트(예를 들어, 마이크) 및 각종 버튼을 포함할 수 있다.
메모리(130)는 프로그램 코드 및 데이터를 저장한다.
외부 인터페이스(140)는 이어폰 인터페이스, 충전 인터페이스, 데이터 인터페이스 등을 포함할 수 있다.
터치 시스템(150)은 디스플레이 컴포넌트 또는 외부 입출력 디바이스(120)의 버튼에 통합될 수 있고, 터치 시스템(150)은 디스플레이 컴포넌트 또는 버튼 상에서 사용자에 의해 수행된 터치 조작을 감지하도록 구성된다.
전원(160)은 이동 단말(10)의 다른 컴포넌트에 전원을 공급하도록 구성된다.
본 출원의 이 실시예에서, 메인보드(110)의 프로세서는 메모리에 저장된 프로그램 코드 및 데이터를 실행하거나 호출함으로써 UI(예를 들어, 게임 인터페이스)를 생성하고 생성된 UI(예를 들어, 예를 들어, 게임 인터페이스)를 외부 입출력 장치(120)를 이용하여 제시한다. UI(예를 들어, 게임 인터페이스)를 제시하는 동안, 사용자와 UI(예를 들어, 게임 인터페이스) 사이의 인터랙션 중에 수행되는 터치 조작은 터치 시스템(150)을 통해 감지될 수 있고, 터치 조작에 대한 응답이 이루어진다.
종래 기술에서 STG의 UI에는 ADS 버튼과 발사 버튼이 제공된다. ADS 버튼을 탭한 후, 사용자는 가상 객체가 들고 있는 가상 화기를 제어하여 ADS 상태로 들어갈 수 있다. ADS 상태에서 플레이어는 가상 화기에 대한 가상 스코프를 사용하여 가상 환경을 관찰할 수 있다. 발사 버튼을 탭한 후, 사용자는 가상 객체가 들고 있는 가상 화기를 제어하여 사격할 수 있다.
실제 애플리케이션에서, 플레이어는 표적을 보다 정확하게 조준하고 쏘기 위해 ADS 상태에서 사격할 필요가 있다. 그러나 종래 기술에서는 ADS 버튼을 먼저 탭한 다음 발사 버튼을 탭해야 ADS 상태에서 사격이 구현될 수 있다.
본 출원의 실시예들에서 제공되는 기술 솔루션에서, ADS 및 사격을 트리거링하도록 구성된 제1 발사 버튼은 UI에 설계되고, 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 화기를 들고 있는 가상 객체는 ADS 상태에 들어가도록 제어되며, 가상 화기가 ADS 상태일 때 가상 화기가 동시에 사격되도록 제어함으로써 원-탭 ADS 및 발사 능력이 구현되며, 즉 ADS 및 발사는 두 번의 조작이 아닌 한 번의 조작으로 구현될 수 있어 작업 효율성이 완전히 향상된다.
도 3은 본 출원의 일 실시예에 따른 가상 객체 제어 방법의 흐름도이다. 상기 방법은 모바일 단말 상의 애플리케이션(예를 들어, STG 애플리케이션)의 클라이언트와 같이 전술한 모바일 단말에 적용될 수 있다. 이 방법에는 다음 단계가 포함될 수 있다.
단계 301: UI를 표시하며, UI는 제1 발사 버튼을 포함하고, 제1 발사 버튼은 ADS 및 발사를 트리거링하도록 구성된 조작 제어이다.
STG 애플리케이션이 예로서 사용된다. UI는 게임 배틀의 디스플레이 인터페이스일 수 있다. UI는 게임 배틀의 가상 환경을 사용자에게 제공하도록 구성된다. 예를 들어, UI는 가상 건물, 가상 아이템, 가상 환경 내의 가상 객체와 같은 요소를 포함할 수 있다. 선택적으로 UI에는 사용자가 조작할 수 있는 버튼, 슬라이더 및 아이콘과 같은 일부 조작 제어가 추가로 포함된다.
본 출원의 이 실시예에서, 도 4에 도시된 바와 같이, UI(40)는 제1 발사 버튼(41)을 포함하고, 제1 발사 버튼(41)은 ADS 및 발사를 트리거링하도록 구성된 조작 제어이다. 즉, 두 개의 서로 다른 버튼을 각각 사용하여 구현하는 대신 ADS 기능과 발사 기능을 동일한 버튼에 통합하여 원-탭 ADS 및 발사 능력을 구현하는 것이다.
단계 302: 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태에 진입하도록 제어한다.
ADS 상태는 가상 화기에 대한 가상 스코프를 이용하여 가상 환경을 관찰한 상태이다. 예를 들어, ADS 상태에서 가상 화기에 대한 가상 스코프와 가상 스코프를 통해 보이는 가상 환경이 UI에 표시될 수 있다.
일 실시예에서, 이동 단말은 제1 발사 버튼에 대응하는 트리거 신호가 다음의 방식: 터치 조작 신호가 수신되면, 터치 조작 신호의 터치 위치를 획득하는 단계; 상기 제1 발사 버튼의 터치 위치와 중앙 위치 사이의 거리를 획득하는 단계; 및 상기 거리가 제1 임계값보다 작을 때, 상기 제1 발사 버튼에 대응하는 트리거 신호가 수신된 것으로 결정하는 단계로 수신된다.
제1 발사 버튼이 원형인 경우, 제1 임계값은 제1 발사 버튼과 동일한 반경을 가질 수도 있고, 제1 발사 버튼과 다른 반경을 가질 수도 있다. 예를 들어, 제1 임계값의 반경은 제1 발사 버튼의 반경보다 약간 크거나 작다.
터치 조작 신호의 터치 위치와 제1 발사 버튼의 중앙 위치 사이의 거리가 제1 임계값 미만으로 감지되면, 사용자가 손가락으로 제1 발사 버튼을 탭한 것으로 간주하고, 또한 제1 발사 버튼에 대응하는 트리거 신호가 수신된 것으로 결정된다.
예를 들어, 제1 발사 버튼의 중심 위치와 제1 임계값의 좌표는 구성 파일에 구성되어 있어, 터치 조작 신호를 수신한 후, 터치 조작 신호의 터치 위치를 획득하고, 그런 다음 터치 위치는 구성 파일에 구성된 제1 발사 버튼의 중심 위치와 비교되어 터치 위치와 중심 위치 사이의 거리를 계산하고, 그런 다음 그 거리를 제1 임계값과 비교하여 제1 발사 버튼에 대응하는 트리거 신호가 수신되는지를 결정한다. 구성 파일은 자바스크립트 오브젝트 노테이션(JavaScript Object Notation, JSON) 형식의 구성 파일일 수 있다. 제1 발사 버튼의 중심 위치와 제1 임계값의 좌표는 구성 파일에 구성되어 있어 숙련자가 전체 애플리케이션 코드를 수정하지 않고 구성 파일을 교체하여 제1 발사 버튼을 수정할 수 있으므로 프로젝트 버전 반복이 훨씬 더 편리하다.
또한, 모바일 단말은 가상 객체가 들고 있는 가상 화기가 ADS 발사를 지원하는지를 추가로 검출할 수 있고; 가상 화기가 ADS 발사를 지원하고 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어하는 조작을 수행하거나, 가상 화기가 ADS 발사를 지원하지 않으며 제1 발사 버튼에 대응하는 트리거 신호가 수신되면 가상 화기가 힙 발사하도록 제어한다. 힙 발사(hip Fire)는 ADS 동작을 수행하지 않고 직접 사격 조작을 수행하는 발사 방식이다.
선택적으로, 이동 단말은 다음 단계를 사용하여 가상 객체가 들고 있는 가상 화기가 ADS 발사를 지원하는지를 감지한다.
1: 가상 화기가 속하는 화기 카테고리를 획득하는 단계;
2: 화기 카테고리에 대응하는 설정 옵션을 획득하는 단계, 이 설정 옵션은 ADS 발사 및 힙 발사를 포함하는 발사 방식을 설정하도록 구성되며; 그리고
3: 화기 카테고리에 대응하는 설정 옵션이 ADS 발사인 경우, 가상 화기가 ADS 발사를 지원하는 것으로 결정하는 단계.
본 출원의 이 실시예에서, 가상 화기는 소총, 기관단총, 기관총, 산탄총 및 권총과 같은 복수의 상이한 화기 카테고리를 포함할 수 있다. 사용자는 실제 요구 사항에 따라 각 화기 카테고리에 대응하는 발사 방식을 설정할 수 있다. 예를 들어, 소총의 경우 사용자가 설정한 발사 방식은 ADS 발사이다. 기관단총의 경우 사용자가 설정한 발사 방식은 힙 발사이다.
예를 들어, 도 5에 도시된 바와 같이, 설정 인터페이스(50)의 발사 방식 설정 영역(51)에는 돌격 소총, 기관단총, 산탄총, 저격 소총을 포함하는 서로 다른 복수의 화기 카테고리가 제공된다. 각각의 화기 카테고리에 대해서는, 2 개의 설정 옵션, 즉 ADS 발사와 힙 발사가 그에 상응해서 제공된다. 사용자는 실제 요구사항에 따라 각 화기 카테고리에 대응하는 발사 방식을 유연하게 설정할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 돌격소총에 대응하는 발사 방식은 ADS 발사에 설정되고, 기관단총에 대응하는 발사 방식은 ADS 발사에 설정되고, 산탄총에 대응하는 발사 방식은 힙 발사에 설정된다.
확실히, 사용자는 대안적으로 하나의 키로 모든 화기 카테고리의 발사 방식을 설정할 수 있으며, 예를 들어 모든 화기 카테고리의 발사 방식을 ADS 발사로 설정하거나 모든 화기 카테고리의 발사 방식을 힙 발사로 설정한다.
단계 303: 발사 조건이 만족되는지를 결정한다.
이동 단말은 제1 발사 버튼에 대응하는 트리거 신호를 수신한 후, 현재 상태가 발사 조건을 만족하는지를 더 검출할 필요가 있다. 발사 조건은 가상 객체가 들고 있는 가상 화기가 발사 및 사격을 허용하도록 미리 설정된 조건이다.
선택적으로, 발사 조건은 가상 객체에 대한 제1 발사 조건 세트 및 가상 화기에 대한 제2 발사 조건 세트를 포함할 수 있다. 이동 단말은 가상 객체가 제1 발사 조건을 만족하는지를 감지할 수 있고; 가상 객체가 제1 발사 조건을 만족할 때, 가상 화기가 제2 발사 조건을 만족하는지를 검출하고; 가상 화기가 제2 발사 조건을 만족할 때, 발사 조건이 만족된다고 결정하도록 구성된다. 또한, 가상 객체가 제1 발사 조건을 만족하지 않거나 가상 화기가 제2 발사 조건을 만족하지 않는 경우, 이동 단말은 발사 조건을 만족하지 않는 것으로 결정한다. 물론, 가상 객체가 제1 발사 조건을 만족하는지와 가상 화기가 제2 발사 조건을 만족하는지를 검출하는 전술한 두 단계는 연속적으로 또는 동시에 수행될 수 있다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
선택적으로, 가상 객체가 제1 발사 조건을 만족하는지를 검출하는 단계는: 가상 객체의 상태 정보를 획득하는 단계; 및 가상 객체의 상태 정보에 따라 가상 객체가 제1 발사 조건을 만족하는지를 검출하는 단계를 포함하며, 제1 발사 조건은 다음: 가상 객체가 살아 있을 때, 가상 객체가 차량을 운전하지 않을 때 또는 가상 객체가 물 속에 있지 않을 때 중 적어도 하나를 포함하되 이에 국한되지 않는다. 가상 객체가 제1 발사 조건을 만족하지 않는 경우, 예를 들어 가상 객체가 사망하거나 가상 객체가 차량을 운전하는 경우, 가상 객체는 가상 화기를 사격하도록 제어할 수 없다. 제1 발사 조건은 미리 설정될 수 있으며, 이것은 본 출원의 이 실시예에서 제한되지 않는다.
선택적으로, 가상 화기가 제2 발사 조건을 만족하는지를 검출하는 단계는 가상 화기의 상태 정보를 획득하는 단계; 및 가상 화기의 상태 정보에 따라 가상 화기가 제2 발사 조건을 만족하는지를 감지하는 단계를 포함하며, 제2 발사 조건은 다음: 가상 화기에 총알이 남아 있을 때, 또는 가상 화기가 총알을 재장전하지 않을 때 중 적어도 하나를 포함하지만 이에 국한되지 않는다. 가상 화기가 제2 발사 조건을 만족하지 않는 경우, 예를 들어 가상 화기에 총알이 남아 있지 않거나 가상 화기가 총알을 재장전하는 경우 가상 개체는 가상 화기를 사격하도록 제어할 수 없습니다. 제2 발사 조건은 미리 설정될 수 있으며, 이것은 본 출원의 이 실시예에서 제한되지 않는다.
단계 304: 발사 조건이 만족되고 가상 화기가 ADS 상태에 있을 때 가상 화기를 사격하도록 제어한다.
현재 상태가 발사 조건을 만족하고 가상 화기가 ADS 상태인 경우, 가상 화기가 발사되도록 제어된다. 이와 같은 방식으로 사용자는 한 손가락으로 하나의 버튼(즉, 전술한 제1 발사 버튼)을 탭하여 ADS의 두 가지 동작을 트리거링하고 발사함으로써 "원-탭 ADS 발사" 기능을 구현할 수 있다. 또한, 현재 상태가 발사 조건을 만족하지 않는 경우 절차가 종료될 수 있으며, 이동 단말은 사격 조작을 수행하기 위해 가상 화기를 제어하지 않는다.
종래 기술에는 ADS 버튼과 발사 버튼이 설정되어 있으며, 일부 사용자는 멀티-핑거 조작을 이용하여 퀵 ADS 및 발사를 구현할 수 있다. 예를 들어 사용자가 한 손가락으로 ADS 버튼을 탭하고 다른 손가락으로 발사 버튼을 탭한다. 그러나 ADS 버튼과 발사 버튼은 일반적으로 UI의 같은 쪽에 설정되는데, 예를 들어, 둘 다 UI의 오른쪽에 설정되고, 가상 개체를 이동하도록 제어하는 조이스틱 조작 제어는 UI의 왼쪽에 설정된다. 따라서 사용자는 한 손의 두 손가락으로 ADS 버튼과 발사 버튼을 각각 탭해야 하므로 사용자가 조작하기가 상대적으로 어렵다. ADS 버튼과 발사 버튼이 인터페이스의 양면에 설정되어 있지만 사용자는 멀티-핑거 조작도 수행해야 한다. 예를 들어, 사용자는 왼손의 한 손가락으로 움직임을 제어하고 오른손의 한 손가락으로 ADS 버튼을 탭하고 왼손의 다른 손가락으로 발사 버튼을 탭한다. 본 출원의 본 실시예에서 제공하는 기술 솔루션에 따르면, 사용자는 한 손가락으로 하나의 키를 탭하여 ADS 및 발사의 두 가지 조작을 구현할 수 있으며, 이는 사용자의 조작 어려움을 완전히 줄이고 조작 효율을 향상시킨다. 또한, 멀티-핑거 플레이어(예를 들어, 세 손가락 플레이어 또는 네 손가락 플레이어)가 두 손가락 플레이어에 비해 가지고 있는 이점이 어느 정도 제거되어 두 손가락 플레이어가 충분한 게임 경험을 할 수 있다.
또한, 가상 화기가 연속 발사를 지원하는 경우, 트리거 신호의 지속 시간 동안 가상 화기가 미리 설정된 시간 간격마다 사격 조작을 수행하도록 제어된다. 미리 설정된 시간 간격은 미리 설정되어 있을 수 있다. 예를 들어, 서로 다른 가상 화기에 대응하는 미리 설정된 시간 간격(즉, 발사 간격)은 같거나 다를 수 있다. 가상 화기가 연속 사격을 지원하지 않는 경우, 가상 화기는 트리거 신호의 지속 시간 동안 하나의 사격 조작을 수행하도록 제어된다.
예시적인 실시예에서, 가상 화기가 ADS 상태에 있는 경우, 사용자는 손가락을 이동함으로써 트리거 신호에 대응하는 터치 위치를 더 조정할 수 있다. 이에 대응하여, 이동 단말은 트리거 신호의 지속 시간 동안 트리거 신호에 대응하는 터치 위치를 획득하고, 트리거 신호에 대응하는 터치 위치에 따라 가상 화기의 사격 방향을 조정한다. 선택적으로, 이동 단말은 트리거 신호에 대응하는 터치 위치와 제1 발사 버튼의 중심점 사이의 상대 위치 관계를 결정하고, 상대 위치 관계에 기초하여 가상 화기의 사격 방향을 결정한다. 예를 들어, 상대 위치 관계에서 상, 하, 좌, 우의 4방향은 각각 가상 객체가 위치하는 가상 환경에서의 북, 남, 서, 동의 4방향에 대응한다. 이때, 트리거 신호에 대응하는 터치 위치는 제1 발사 버튼 중심점의 우측 상단 45°에 위치하며, 가상 화기의 사격 방향은 동쪽으로 북위 45°로 결정된다고 가정한다. 트리거 신호에 대응하는 터치 위치는 제1 발사 버튼의 중심점의 좌측 하단 30°에 위치하며, 가상 화기의 사격 방향은 남서 30°로 결정된다고 가정한다. 가상 화기의 사격 방향을 결정한 후, 이동 단말은 먼저 가상 객체가 발사 방향을 향하도록 제어하고, 가상 객체의 전방 시야 범위 내의 가상 환경을 UI에 표시하고, 그런 다음 사격 방향으로 사격하도록 가상 객체를 제어할 수 있다. 즉, 위와 같은 방식으로 ADS, 조준, 사격의 3가지 조작이 하나의 키로 완료되어 조작 효율이 완전히 향상된다.
종래 기술에서 제공하는 솔루션을 채택할 경우 사용자가 ADS, 조준, 사격의 3가지 조작을 멀티-핑거 오퍼레이션을 이용하여 빠르게 완료하고자 하는 경우, 사용자는 왼손의 한 손가락을 이용하여 가상 객체의 이동을 제어하고 오른손의 한 손가락으로 ADS 버튼을 누르고 오른손의 다른 손가락으로 시야각을 회전하여 적의 가상 객체를 조준하고 왼손의 다른 손가락으로 발사 버튼을 탭하며, 이는 사용자 조작에 매우 높은 요구 사항을 부과한다.
본 출원의 이 실시예에서 제공되는 기술 솔루션에 따르면, 조이스틱 기능은 제1 발사 버튼에 대해 구성된다. 사용자는 제1 발사 버튼을 탭한 후 화면에서 손가락을 떼지 않고 손가락을 움직여 가상 화기의 사격 방향을 조정할 수 있다. 따라서 사용자는 한 손가락으로 ADS, 조준, 발사의 3가지 조작을 완료할 수 있어 사용자의 조작 난이도를 완전히 줄일 수 있다.
요약하면, 본 출원의 실시예에서 제공되는 기술 솔루션에서, ADS 및 발사를 트리거링하도록 구성된 제1 발사 버튼은 UI에 설계되고, 제1 발사 버튼에 대응하는 트리거 신호가 수신되면, 가상 객체가 들고 있는 가상 화기는 ADS 상태에 들어가도록 제어되고, 가상 화기가 ADS 상태일 때 가상 화기가 동시에 발사되도록 제어함으로써 원-탭 ADS 및 발사 능력, 즉, ADS 및 발사는 두 번의 조작이 아닌 한 번의 조작으로 구현될 수 있어 작업 효율성을 완전히 향상시킬 수 있다.
또한, 제1 발사 버튼에 대응하는 트리거 신호의 지속 시간 동안, 가상 화기의 사격 방향은 트리거 신호에 대응하는 터치 위치의 변화에 따라 적응적으로 조절되어, 하나의 키로 ADS, 조준, 사격의 3가지 조작을 구현할 수 있어 조작 효율이 더욱 향상된다.
다른 예에서, 도 6을 참조하면, 본 출원의 이 실시예에서 제공되는 가상 객체 제어 방법은 다음과 같은 여러 단계를 포함할 수 있다.
단계 601: 가상 객체가 들고 있는 가상 화기가 ADS 발사를 지원하는지를 결정한다. 가상 화기가 ADS 발사를 지원하는 경우 단계 602가 수행되고; 가상 화기가 ADS 발사를 지원하지 않으면 단계 604가 수행된다.
단계 602: 가상 화기의 설정 옵션이 ADS 발사인지를 결정한다. 가상 화기의 설정 옵션이 ADS 발사인 경우 단계 603이 수행되고; 가상 화기의 설정 옵션이 ADS 발사가 아닌 경우 단계 604가 수행된다.
단계 603: 발사 방식을 ADS 발사로 결정한다.
단계 604: 발사 방식을 힙 발사로 결정한다.
단계 605: 제1 발사 버튼에 대응하는 트리거 신호가 수신되었는지를 결정한다. 트리거 신호가 수신되면 단계 606으로 진행하고, 수신되지 않으면 단계 605로 진행한다.
단계 606: 가상 화기가 ADS 상태에 들어가도록 제어한다.
단계 607: 가상 객체가 제1 발사 조건을 만족하는지를 결정한다. 제1 발사 조건이 만족되면 단계 608이 수행되고; 제1 발사 조건이 만족되지 않으면 절차가 종료된다.
단계 608: 가상 화기가 제2 발사 조건을 만족하는지를 결정한다. 제2 발사 조건이 만족되면 단계 609가 수행되고; 제2 발사 조건이 만족되지 않으면 단계 607이 수행된다.
단계 609: 가상 화기를 제어하여 사격 조작을 수행한다.
단계 610: 이전 사격 조작으로부터의 간격 지속 시간이 미리 설정된 지속 시간에 도달했는지를 결정한다. 간격 지속 시간이 미리 설정된 지속 시간에 도달하면 단계 611이 수행된다. 간격 지속 시간이 미리 설정된 지속 시간에 도달하지 않으면 단계 610이 계속 수행된다.
단계 611. 트리거 신호가 사라지는지를 결정한다. 트리거 신호가 사라지지 않으면 단계 612로 진행하고, 단계 612 이후에 다시 단계 610으로 진행한다. 트리거 신호가 사라지면 단계 613으로 진행한다.
단계 612: 가상 화기를 제어하여 사격 조작을 수행한다.
단계 613: 가상 화기를 제어하여 사격 조작 수행을 중지한다.
예시적인 실시예에서, UI는 제1 발사 버튼에 더하여 제2 발사 버튼을 더 포함한다. 제2 발사 버튼은 힙 발사를 트리거링하도록 구성된 조작 제어이다. 이동 단말은 제2 발사 버튼에 대응하는 트리거 신호가 수신되면, 가상 객체가 들고 있는 가상 화기를 힙 발사하도록 제어한다.
예를 들어, 도 7에 도시된 바와 같이, UI(40)는 제1 발사 버튼(41) 및 제2 발사 버튼(42)을 포함한다. 제2 발사 버튼(42)은 제1 발사 버튼(41)의 옆에, 예를 들어, 제1 발사 버튼(41)의 좌측에 설정될 수 있다. 또한, 제2 발사 버튼(42)의 크기는 제1 발사 버튼(41)의 크기보다 적절하게 작을 수 있다.
이동 단말은 터치 조작 신호가 수신되면, 터치 조작 신호의 터치 위치를 획득할 수 있고; 터치 조작 신호의 터치 위치와 제2 발사 버튼의 중심 위치 사이의 거리를 획득하고; 거리가 제2 임계값보다 작은 경우, 제2 발사 버튼에 대응하는 트리거 신호가 수신된 것으로 결정하도록 구성된다. 제2 발사 버튼이 원형인 경우, 제2 임계값의 반경은 제2 발사 버튼의 반경과 같거나 다를 수 있다. 예를 들어, 제2 임계값의 반경은 제2 발사 버튼의 반경보다 약간 크거나 약간 작다. 터치 조작 신호의 터치 위치와 제2 발사 버튼의 중심 위치 사이의 거리가 제2 임계값보다 작은 것으로 검출되면, 사용자가 손가락으로 제2 발사 버튼을 탭한 것으로 간주하며, 즉, 제2 발사 버튼에 대응하는 트리거 신호가 수신된 것으로 결정된다. 유사하게, 제2 발사 버튼의 중심 위치와 제2 임계값의 좌표는 구성 파일에서 구성될 수 있다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
본 출원의 이 실시예에서, 제1 발사 버튼 및 제2 발사 버튼 모두가 UI에 제공되어, 사용자에 의한 선택을 위한 보다 다양한 발사 방식을 제공한다. 사용자는 제1 발사 버튼을 탭하여 ADS 발사를 구현하고 제2 발사 버튼을 탭하여 힙 발사를 구현할 수 있으므로 사용자의 작동 요구 사항을 더 잘 만족시킨다.
원-탭 ADS 발사는 신속한 ADS 및 전투를 위한 편의를 제공한다. 그러나 근접전에서는 UI에 가상 스코프를 표시해야 하므로 사용자의 시야를 차단하고 조준 및 발사가 어렵다. 따라서 제1 발사 버튼 옆에 제2 발사 버튼을 배치함으로써 전술한 결점을 충분히 보완할 수 있다. 예를 들어, 근접 전투에서 사용자는 ADS로 인한 문제를 피하기 위해 제2 발사 버튼을 탭하여 직접 힙 발사할 수 있다. 그러나 중거리 또는 장거리 전투에서는 사용자가 제1 발사 버튼을 탭하여 ADS 발사를 할 수 있어 사용자가 더 편리하고 자유로운 발사 방식을 선택할 수 있다.
또한, UI에 제1 발사 버튼만 표시할지, 제1 발사 버튼과 제2 발사 버튼을 모두 표시할지는 실제 요구 사항에 따라 사용자가 설정한다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
일 예에서, 도 8을 참조하면, 본 출원의 이 실시예에서 제공되는 가상 객체 제어 방법은 다음과 같은 몇 가지 단계를 포함할 수 있다.
단계 801: 현재 모드가 이중 발사 버튼을 표시하도록 구성되었는지를 결정한다. 현재 모드가 이중 발사 버튼을 표시하도록 구성된 경우 단계 802가 수행되고; 현재 모드가 이중 발사 버튼을 표시하도록 구성되어 있지 않으면 절차가 종료된다.
단계 802: UI에 제1 발사 버튼 및 제2 발사 버튼을 표시한다.
단계 803: 발사 버튼 중 하나에 대응하는 트리거 신호가 수신되는지를 결정한다. 트리거 신호가 수신되면 단계 804가 수행되고; 트리거 신호가 수신되지 않으면 단계 803이 수행된다.
단계 804: 제1 발사 버튼을 탭할지를 결정한다. 단계 805는 제1 발사 버튼이 탭된 경우 수행되고, 단계 805 이후에 다시 단계 807이 수행된다. 제1 발사 버튼이 탭되지 않은 경우 단계 806이 수행된다.
단계 805: 제1 발사 버튼을 트리거링한다.
단계 806: 제2 발사 버튼을 트리거링한다.
단계 807: 가상 객체가 들고 있는 가상 화기가 ADS 상태에 들어가도록 제어한다.
단계 808: 발사 조건이 만족되는지를 결정한다. 발사 조건이 만족되면 단계 809가 수행되고; 발사 조건이 만족되지 않으면 절차가 종료된다.
단계 809: 가상 화기를 제어하여 선택된 발사 방식에 따라 사격 조작을 수행한다.
단계 810: 트리거 신호가 사라진 것으로 검출되면 가상 화기가 사격 조작 수행을 중지하도록 제어한다.
다음은 본 출원의 방법 실시예를 수행하는 데 사용될 수 있는 본 출원의 장치 실시예이다. 본 출원의 장치 실시예에서 개시되지 않은 자세한 내용에 대해서는, 본 출원의 방법 실시예를 참조할 수 있다.
도 9는 본 출원의 일 실시예에 따른 가상 객체 제어 장치의 블록도이다. 장치는 전술한 방법 실시예를 구현하는 기능을 갖는다. 기능은 하드웨어로 구현될 수도 있고, 해당 소프트웨어를 실행하는 하드웨어로 구현될 수도 있다. 장치는 이동 단말일 수 있거나 이동 단말에 배치될 수 있다. 장치(900)는 인터페이스 디스플레이 모듈(901), ADS 제어 모듈(902), 조건 검출 모듈(903), 및 사격 제어 모듈(904)을 포함할 수 있다.
인터페이스 디스플레이 모듈(901)은 UI를 표시하도록 구성되며, UI는 제1 발사 버튼을 포함하고, 제1 발사 버튼은 ADS 및 발사를 트리거링하도록 구성된 조작 제어이다.
ADS 제어 모듈(902)은 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어하도록 구성되며, ADS 상태는 가상 화기에 대한 가상 범위를 사용하여 가상 환경을 관찰하는 상태이다.
상태 검출 모듈(903)은 화재 상태가 만족되는지를 결정하도록 구성된다.
사격 제어 모듈(904)은 발사 조건이 만족되고 가상 화기가 ADS 상태에 있을 때 가상 화기를 사격하게끔 제어하도록 구성된다.
예시적인 실시예에서, 상태 검출 모듈(903)은 가상 객체가 제1 발사 조건을 만족하는지를 결정하고; 가상 객체가 제1 발사 조건을 만족할 때, 가상 화기가 제2 발사 조건을 만족하는지를 검출하고; 가상 화기가 제2 발사 조건을 만족할 때, 발사 조건이 만족된다고 결정하도록 구성된다.
예시적인 실시예에서, 사격 제어 모듈(904)은: 트리거 신호의 지속 기간 동안, 가상 화기가 미리 설정된 시간 간격마다 사격 조작을 수행하게끔 제어하도록 구성된다.
예시적인 실시예에서, 도 10에 도시된 바와 같이, 장치(900)는 제1 위치 획득 모듈(905), 거리 획득 모듈(906), 및 버튼 트리거 모듈(907)을 더 포함한다.
제1 위치 획득 모듈(905)은 터치 조작 신호가 수신될 때, 터치 조작 신호의 터치 위치를 획득하도록 구성된다.
거리 획득 모듈(906)은 터치 조작 신호의 터치 위치와 제1 발사 버튼의 중심 위치 사이의 거리를 획득하도록 구성된다.
버튼 트리거 모듈(907)은 거리가 제1 임계값보다 작을 때, 제1 발사 버튼에 대응하는 트리거 신호가 수신된 것으로 결정하도록 구성된다.
예시적인 실시예에서, 도 10에 도시된 바와 같이, 장치(900)는 제2 위치 획득 모듈(908) 및 방향 조정 모듈(909)을 더 포함한다.
제2 위치 획득 모듈(908)은 트리거 신호의 지속 시간에서 트리거 신호에 대응하는 터치 위치를 획득하도록 구성된다.
방향 조정 모듈(909)은 트리거 신호에 대응하는 터치 위치에 따라 가상 화기의 사격 방향을 조정하도록 구성된다.
예시적인 실시예에서, UI는 제2 발사 버튼을 더 포함하고, 제2 발사 버튼은 힙 발사를 트리거링하도록 구성된 조작 제어이다.
이에 대응하여, 사격 제어 모듈(904)은 제2 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기를 제어하여 힙 발사하도록 추가로 구성된다.
예시적인 실시예에서, 도 10에 도시된 바와 같이, 장치는 발사 검출 모듈(910)을 더 포함한다.
화재 감지 모듈(910)은 가상 객체가 들고 있는 가상 화기가 ADS 화재를 지원하는지를 감지하도록 구성된다.
ADS 제어 모듈(902)은 가상 화기가 ADS 발사를 지원하는 경우 및 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태에 들어가도록 제어하는 동작을 수행하도록 추가로 구성된다.
예시적인 실시예에서, 화재 감지 모듈(910)은:
가상 화기가 속하는 화기 카테고리를 획득하고;
화기 카테고리에 대응하는 설정 옵션을 획득하고, 설정 옵션은 ADS 발사 및 힙 발사를 포함하는 발사 방식을 설정하며; 그리고
화기 카테고리에 대응하는 설정 옵션이 ADS 발사인 경우, 가상 화기가 ADS 발사를 지원하는 것으로 결정하도록 구성된다.
요약하면, 본 출원의 실시예들에서 제공되는 기술 솔루션에서, ADS 및 발사를 트리거링하도록 구성된 제1 발사 버튼은 UI에 설계되고, 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태에 들어가도록 제어하고, 가상 화기가 ADS 상태일 때 가상 화기가 동시에 발사되도록 제어함으로써 원-탭 ADS 및 발사 능력, 즉, ADS 및 발사는 두 번의 조작이 아닌 한 번의 조작으로 구현될 수 있어 작업 효율성을 완전히 향상시킬 수 있다.
전술한 실시예에서 제공된 장치가 장치의 기능을 구현하는 경우, 전술한 기능 모듈의 분할은 설명을 위한 예시일 뿐이다. 실제 애플리케이션에서 요구 사항에 따라 다른 기능 모듈에 기능을 할당하고 완료할 수 있다. 즉, 장치의 내부 구조를 다른 기능 모듈로 분할하여 위에서 설명한 기능의 전부 또는 일부를 구현한다. 또한, 전술한 실시예에서 제공된 장치 및 방법 실시예는 동일한 개념에 속한다. 특정 구현 프로세스에 대해 방법 실시예를 참조할 수 있으며 자세한 내용은 여기에서 다시 설명하지 않는다.
도 11은 본 출원의 일 실시예에 따른 이동 단말(1100)의 구조적 블록도이다. 이동 단말(1100)은 이동 전화, 태블릿 컴퓨터, 게임기, 전자책 리더기, 멀티미디어 재생 장치, 웨어러블 장치 등과 같은 휴대용 전자 장치일 수 있다. 이동 단말은 전술한 실시예에서 제공된 가상 객체 제어 방법을 구현하도록 구성된다. 이동 단말은 도 1에 도시된 구현 환경에서 이동 단말(10)일 수 있다. 구체적으로:
일반적으로, 이동 단말(1100)은 프로세서(1101) 및 메모리(1102)를 포함한다.
프로세서(1101)는 하나 이상의 프로세싱 코어를 포함할 수 있다. 예를 들어, 프로세서는 4코어 프로세서 또는 8코어 프로세서일 수 있다. 프로세서(1101)는 디지털 신호 프로세서(Digital Signal Processor, DSP), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 프로그래머블 로직 어레이(Programmable Logic Array, PLA) 중 적어도 하나의 하드웨어 형태로 구현될 수 있다. 프로세서(1101)는 대안적으로 메인 프로세서 및 코프로세서를 포함할 수 있다. 메인 프로세서는 중앙 처리 장치(CPU)라고도 하는 활성 상태에서 데이터를 처리하도록 구성된다. 보조 프로세서는 대기 상태에서 데이터를 처리하도록 구성된 저전력 프로세서이다. 일부 실시예에서, 프로세서(1101)는 그래픽 처리 장치(GPU)와 통합될 수 있다. GPU는 디스플레이에 표시해야 하는 콘텐츠를 렌더링하고 그리도록 구성된다. 일부 실시예에서, 프로세서(1101)는 인공 지능(AI) 프로세서를 더 포함할 수 있다. AI 프로세서는 기계 학습과 관련된 컴퓨팅 작업을 처리하도록 구성된다.
메모리(1102)는 하나 이상의 컴퓨터 판독가능 저장 매체를 포함할 수 있다. 컴퓨터 판독 가능한 저장 매체는 비일시적일 수 있다. 메모리(1102)는 고속 랜덤 액세스 메모리(RAM) 및 하나 이상의 자기 디스크 저장 장치 또는 플래시 저장 장치와 같은 비휘발성 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(1102) 내의 비일시적 컴퓨터 판독가능 저장 매체는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하도록 구성되고, 적어도 하나의 명령, 적어도 하나 프로그램, 코드 세트 또는 명령 세트는 가상 객체 제어 방법을 구현하기 위해 하나 이상의 프로세서에 의해 실행되도록 구성된다.
일부 실시예에서, 이동 단말(1100)은 선택적으로 주변기기 인터페이스(1103) 및 적어도 하나의 주변기기를 포함할 수 있다. 프로세서(1101), 메모리(1102), 및 주변기기 인터페이스(1103)는 버스 또는 신호 케이블을 통해 연결될 수 있다. 각 주변 장치는 버스, 신호 케이블 또는 회로 기판을 통해 주변 장치 인터페이스(1103)에 연결될 수 있다. 구체적으로, 주변기기는 무선 주파수(RF) 회로(1104), 디스플레이 스크린(1105), 카메라 컴포넌트(1106), 오디오 회로(1107), 포지셔닝 컴포넌트(1108), 또는 전원(1109) 중 적어도 하나를 포함한다.
당업자는 도 11에 도시된 구조가 이동 단말(1100)을 한정하지 않으며, 도면에 도시된 것보다 많거나 적은 컴포넌트를 포함하거나, 일부 컴포넌트가 결합되거나, 다른 컴포넌트 배열이 사용될 수 있다.
예시적인 실시예에서, 컴퓨터 판독 가능형 저장 매체는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 포함하고, 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트 또는 명령 세트는 프로세서에 의해 실행될 때 가상 객체 제어 방법을 구현한다.
선택적으로, 컴퓨터 판독 가능형 저장 매체는 읽기 전용 메모리(ROM), RAM, 솔리드 스테이트 드라이브(SSD), 광 디스크 등을 포함할 수 있다. RAM은 ReRAM(Resistive RAM)과 DRAM(Dynamic RAM)을 포함할 수 있다.
예시적인 실시예에서, 컴퓨터 프로그램 제품이 더 제공되며, 컴퓨터 프로그램 제품은 프로세서에 의해 실행될 때 가상 객체 제어 방법을 구현하는 데 사용된다.
명세서에서 언급된 "복수"는 둘 이상을 의미한다. "및/또는"은 연관된 개체에 대한 연관 관계를 설명하고 세 가지 관계가 존재할 수 있음을 나타낸다. 예를 들어, A 및/또는 B는 A만 존재하고 A와 B가 모두 존재하고 B만 존재하는 세 가지 경우를 나타낼 수 있다. 본 명세서에서 문자 "/"는 일반적으로 관련 객체 간의 "또는" 관계를 나타낸다. 또한, 본 명세서에 기재된 단계 번호는 단지 단계의 가능한 실행 순서를 예시적으로 나타낸 것이다. 일부 다른 실시예에서, 단계는 번호 순서에 따라 수행되지 않을 수 있다. 예를 들어, 숫자가 다른 두 단계를 동시에 수행하거나, 도면에 도시된 순서와 반대되는 순서로 숫자가 다른 두 단계를 수행할 수 있다. 이것은 본 출원의 실시예들에 제한되지 않는다.
전술한 설명은 단지 본 출원의 예시적인 실시예일 뿐, 본 출원을 제한하도록 의도된 것은 아니다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 교체 또는 개선은 이 애플리케이션의 보호 범위에 속한다.

Claims (13)

  1. 이동 단말에 적용 가능한 가상 객체 제어 방법으로서,
    사용자 인터페이스(user interface, UI)를 표시하는 단계 - 상기 UI는, 조작 제어로서 구성되고 조준(aim down sights, ADS) 및 발사를 트리거링하도록 추가로 구성된 제1 발사 버튼을 포함함 - ;
    상기 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어하는 단계 - 상기 ADS 상태는 상기 가상 화기에 대한 가상 스코프를 사용하여 가상 환경을 관찰하는 상태임 - ;
    발사 조건이 만족되는지를 결정하는 단계; 및
    상기 발사 조건이 만족되고 상기 가상 화기가 상기 ADS 상태에 있을 때 상기 가상 화기를 사격하도록 제어하는 단계
    를 포함하는 가상 객체 제어 방법.
  2. 제1항에 있어서,
    상기 발사 조건이 만족되는지를 결정하는 단계는:
    상기 가상 객체가 제1 발사 조건을 만족하는지를 결정하는 단계;
    상기 가상 객체가 상기 제1 발사 조건을 만족할 때, 상기 가상 화기가 제2 발사 조건을 만족하는지를 검출하는 단계; 및
    상기 가상 화기가 상기 제2 발사 조건을 만족할 때, 상기 발사 조건이 만족되는 것으로 결정하는 단계
    를 포함하는 가상 객체 제어 방법.
  3. 제2항에 있어서,
    상기 가상 객체가 제1 발사 조건을 만족하는지를 결정하는 단계는:
    상기 가상 객체의 상태 정보를 획득하는 단계; 및
    상기 가상 객체의 상태 정보에 따라 상기 가상 객체가 상기 제1 발사 조건을 만족하는지를 검출하는 단계
    를 포함하고,
    상기 제1 발사 조건은 다음: 상기 가상 객체가 살아 있을 때, 상기 가상 객체가 차량을 운전하지 않을 때 또는 상기 가상 객체가 물 속에 있지 않을 때 중 적어도 하나를 포함하는, 가상 객체 제어 방법.
  4. 제2항에 있어서,
    상기 가상 화기가 제2 발사 조건을 만족하는지를 결정하는 단계는:
    상기 가상 화기의 상태 정보를 획득하는 단계; 및
    상기 가상 화기의 상태 정보에 따라 상기 가상 화기가 상기 제2 발사 조건을 만족하는지를 검출하는 단계
    를 포함하고,
    상기 제2 발사 조건은 다음: 상기 가상 화기에 총알이 남아 있는 때 또는 상기 가상 화기가 총알을 재장전하는 중이 아닐 때 중 적어도 하나를 포함하는, 가상 객체 제어 방법.
  5. 제1항에 있어서,
    상기 트리거 신호의 지속 시간 동안 상기 가상 화기가 미리 설정된 시간 간격마다 사격 조작을 수행하도록 제어하는 단계
    를 포함하는, 가상 객체 제어 방법.
  6. 제1항에 있어서,
    터치 조작 신호가 수신될 때, 상기 터치 조작 신호의 터치 위치를 획득하는 단계;
    상기 터치 조작 신호의 터치 위치와 상기 제1 발사 버튼의 중심 위치 사이의 거리를 획득하는 단계; 및
    상기 거리가 제1 임계값보다 작을 때, 상기 제1 발사 버튼에 대응하는 상기 트리거 신호가 수신된 것으로 결정하는 단계
    를 더 포함하는 가상 객체 제어 방법.
  7. 제1항에 있어서,
    상기 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어하는 단계 이후에, 상기 가상 객체 제어 방법은:
    상기 트리거 신호의 지속 시간 동안에 상기 트리거 신호에 대응하는 터치 위치를 획득하는 단계; 및
    상기 트리거 신호에 대응하는 터치 위치에 따라 상기 가상 화기의 사격 방향을 조정하는 단계
    를 더 포함하는 가상 객체 제어 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 UI는 제2 발사 버튼을 더 포함하고, 상기 제2 발사 버튼은 힙 발사(hip fire)를 트리거링하도록 구성된 조작 제어를 포함하고; 그리고
    상기 가상 객체 제어 방법은:
    상기 제2 발사 버튼에 대응하는 트리거 신호가 수신될 때, 상기 가상 객체가 들고 있는 가상 화기를 힙 발사로 제어하는 단계
    를 더 포함하는 가상 객체 제어 방법.
  9. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 가상 객체가 들고 있는 가상 화기가 ADS 발사를 지원하는지를 검출하는 단계; 및
    상기 가상 화기가 ADS 발사를 지원하고 상기 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 상기 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가도록 제어하는 동작을 수행하는 단계
    를 더 포함하는 가상 객체 제어 방법.
  10. 제9항에 있어서,
    상기 가상 객체가 들고 있는 가상 화기가 ADS 발사를 지원하는지를 검출하는 단계는:
    상기 가상 화기가 속하는 화기 카테고리를 획득하는 단계;
    상기 화기 카테고리에 대응하는 설정 옵션을 획득하는 단계 - 상기 설정 옵션은 발사 방식을 설정하도록 구성되고, 상기 발사 방식은 상기 ADS 발사 및 힙 발사를 포함함 - ; 및
    상기 화기 카테고리에 대응하는 상기 설정 옵션이 상기 ADS 발사일 때, 상기 가상 화기가 상기 ADS 발사를 지원하는 것으로 결정하는 단계
    를 포함하는, 가상 객체 제어 방법.
  11. 가상 객체 제어 장치로서,
    사용자 인터페이스(user interface, UI)를 표시하도록 구성되어 있는 인터페이스 디스플레이 모듈 - 상기 UI는 조작 제어로서 구성되고 조준(aim down sights, ADS) 및 발사를 트리거링하도록 추가로 구성된 제1 발사 버튼을 포함함 - ;;
    상기 제1 발사 버튼에 대응하는 트리거 신호가 수신될 때, 가상 객체가 들고 있는 가상 화기가 ADS 상태로 들어가게끔 제어하도록 구성되어 있는 ADS 제어 모듈 - 상기 ADS 상태는 상기 가상 화기에 대한 가상 스코프를 사용하여 가상 환경을 관찰하는 상태임 - ;
    발사 조건이 만족되는지를 결정하도록 구성되어 있는 조건 검출 모듈; 및
    상기 발사 조건이 만족되고 상기 가상 화기가 상기 ADS 상태에 있을 때 상기 가상 화기를 사격하게끔 제어하도록 구성되어 있는 사격 제어 모듈
    을 포함하는 가상 객체 제어 장치.
  12. 이동 단말로서,
    프로세서 및 메모리를 포함하며, 상기 메모리는 적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 상기 적어도 하나의 명령은 제1항 내지 제10항 중 어느 한 항에 따른 가상 객체 제어 방법을 수행하는, 이동 단말.
  13. 컴퓨터 판독 가능형 저장 매체로서,
    적어도 하나의 명령, 적어도 하나의 프로그램, 코드 세트, 또는 명령 세트를 저장하며, 상기 적어도 하나의 명령, 상기 적어도 하나의 프로그램, 상기 코드 세트, 또는 상기 명령 세트는 제1항 내지 제10항 중 어느 한 항에 따른 가상 객체 제어 방법을 수행하기 위해 프로세서에 의해 로드되고 실행되는, 컴퓨터 판독 가능형 저장 매체.
KR1020217033554A 2019-08-01 2020-07-08 가상 객체 제어 방법 및 장치, 단말 및 저장 매체 KR102635988B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910707805.2A CN110339562B (zh) 2019-08-01 2019-08-01 虚拟对象的控制方法、装置、终端及存储介质
CN201910707805.2 2019-08-01
PCT/CN2020/100906 WO2021017784A1 (zh) 2019-08-01 2020-07-08 虚拟对象的控制方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
KR20210138082A true KR20210138082A (ko) 2021-11-18
KR102635988B1 KR102635988B1 (ko) 2024-02-08

Family

ID=68183620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217033554A KR102635988B1 (ko) 2019-08-01 2020-07-08 가상 객체 제어 방법 및 장치, 단말 및 저장 매체

Country Status (6)

Country Link
US (1) US20210402287A1 (ko)
JP (1) JP2022522699A (ko)
KR (1) KR102635988B1 (ko)
CN (1) CN110339562B (ko)
SG (1) SG11202110875SA (ko)
WO (1) WO2021017784A1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598777B (zh) * 2018-12-07 2022-12-23 腾讯科技(深圳)有限公司 图像渲染方法、装置、设备及存储介质
CN110339562B (zh) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN110841277B (zh) * 2019-11-07 2021-08-06 腾讯科技(深圳)有限公司 基于触控屏的虚拟操作对象的控制方法和装置、存储介质
CN110772793A (zh) * 2019-11-07 2020-02-11 腾讯科技(深圳)有限公司 虚拟资源的配置方法、装置、电子设备及存储介质
CN110882538B (zh) * 2019-11-28 2021-09-07 腾讯科技(深圳)有限公司 虚拟活体角色的显示方法、装置、存储介质和计算机设备
CN111013136B (zh) * 2019-12-12 2021-09-03 腾讯科技(深圳)有限公司 虚拟场景中的移动控制方法、装置、设备及存储介质
CN111135567B (zh) * 2019-12-17 2022-01-04 腾讯科技(深圳)有限公司 虚拟道具的操作方法和装置、存储介质及电子装置
CN111228798A (zh) * 2020-01-06 2020-06-05 腾讯科技(深圳)有限公司 虚拟道具控制方法、装置、电子设备及存储介质
CN111265856A (zh) * 2020-01-17 2020-06-12 腾讯科技(深圳)有限公司 虚拟操作对象的控制方法、装置、存储介质及电子装置
CN111318015B (zh) * 2020-02-26 2021-10-12 腾讯科技(深圳)有限公司 虚拟物品的控制方法、装置、终端和存储介质
CN111359214B (zh) * 2020-03-05 2021-05-11 腾讯科技(深圳)有限公司 虚拟道具控制方法和装置、存储介质及电子装置
CN111613108A (zh) * 2020-04-10 2020-09-01 北京晶品特装科技有限责任公司 一种手雷模拟器、装置、方法及存储介质
CN111643895B (zh) * 2020-06-22 2023-08-25 腾讯科技(深圳)有限公司 操作响应方法、装置、终端及存储介质
CN112138391A (zh) * 2020-09-24 2020-12-29 网易(杭州)网络有限公司 游戏中的虚拟武器控制方法、装置、电子设备及存储介质
CN112791398A (zh) * 2021-02-03 2021-05-14 网易(杭州)网络有限公司 游戏中虚拟倍镜的控制方法、装置、电子设备及存储介质
CN113499590A (zh) * 2021-08-04 2021-10-15 网易(杭州)网络有限公司 游戏中射击的控制方法、装置、电子设备及可读介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016059554A (ja) * 2014-09-17 2016-04-25 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
JP2019058659A (ja) * 2017-09-26 2019-04-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 仮想射撃本体の制御方法、装置、プログラム、記憶媒体、電子機器
CN110038297A (zh) * 2019-04-12 2019-07-23 网易(杭州)网络有限公司 移动终端的游戏操作方法及装置、存储介质及电子设备

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040266528A1 (en) * 2003-06-27 2004-12-30 Xiaoling Wang Apparatus and a method for more realistic video games on computers or similar devices using visible or invisible light and a light sensing device
US11255638B2 (en) * 2010-08-19 2022-02-22 Evrio, Inc. Display indicating aiming point relative to target size indicator
TW201343227A (zh) * 2012-04-25 2013-11-01 Fu Li Ye Internat Corp 具有觸控面板裝置媒體的互動遊戲控制方法
US9248370B2 (en) * 2012-05-25 2016-02-02 Phillip B. Summons Targeting system and method for video games
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
US9901824B2 (en) * 2014-03-12 2018-02-27 Wargaming.Net Limited User control of objects and status conditions
WO2015199780A2 (en) * 2014-04-01 2015-12-30 Baker Joe D Mobile ballistics processing and targeting display system
US20160381297A1 (en) * 2015-06-26 2016-12-29 Jsc Yukon Advanced Optics Worldwide Providing enhanced situational-awareness using magnified picture-in-picture within a wide field-of-view optical image
CN105760076B (zh) * 2016-02-03 2018-09-04 网易(杭州)网络有限公司 游戏控制方法及装置
US10183222B2 (en) * 2016-04-01 2019-01-22 Glu Mobile Inc. Systems and methods for triggering action character cover in a video game
US9919213B2 (en) * 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
CN107661630A (zh) * 2017-08-28 2018-02-06 网易(杭州)网络有限公司 一种射击游戏的控制方法及装置、存储介质、处理器、终端
US10807001B2 (en) * 2017-09-12 2020-10-20 Netease (Hangzhou) Network Co., Ltd. Information processing method, apparatus and computer readable storage medium
CN107773983B (zh) * 2017-10-18 2021-12-28 网易(杭州)网络有限公司 一种游戏中的射击控制方法及装置
CN107773987B (zh) * 2017-10-24 2020-05-22 网易(杭州)网络有限公司 虚拟射击主体控制方法、装置、电子设备及存储介质
CN107913515B (zh) * 2017-10-25 2019-01-08 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108339272A (zh) * 2018-02-12 2018-07-31 网易(杭州)网络有限公司 虚拟射击主体控制方法及装置、电子设备、存储介质
CN108671540A (zh) * 2018-05-09 2018-10-19 腾讯科技(深圳)有限公司 虚拟环境中的配件切换方法、设备及存储介质
CN109126128A (zh) * 2018-08-21 2019-01-04 苏州蜗牛数字科技股份有限公司 一种vr游戏中武器的管理系统及方法
CN109589601B (zh) * 2018-12-10 2022-04-08 网易(杭州)网络有限公司 虚拟瞄准镜控制方法及装置、电子设备和存储介质
CN109701274B (zh) * 2018-12-26 2019-11-08 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US10946281B2 (en) * 2019-03-29 2021-03-16 Nvidia Corporation Using playstyle patterns to generate virtual representations of game players
CN110141869A (zh) * 2019-04-11 2019-08-20 腾讯科技(深圳)有限公司 操作控制方法、装置、电子设备及存储介质
CN110339562B (zh) * 2019-08-01 2023-09-15 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
US11534681B2 (en) * 2020-10-29 2022-12-27 Google Llc Virtual console gaming controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016059554A (ja) * 2014-09-17 2016-04-25 株式会社Pgユニバース 情報処理装置、情報処理方法及びプログラム
JP2019058659A (ja) * 2017-09-26 2019-04-18 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 仮想射撃本体の制御方法、装置、プログラム、記憶媒体、電子機器
CN110038297A (zh) * 2019-04-12 2019-07-23 网易(杭州)网络有限公司 移动终端的游戏操作方法及装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN110339562B (zh) 2023-09-15
KR102635988B1 (ko) 2024-02-08
WO2021017784A1 (zh) 2021-02-04
CN110339562A (zh) 2019-10-18
JP2022522699A (ja) 2022-04-20
SG11202110875SA (en) 2021-10-28
US20210402287A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
KR102635988B1 (ko) 가상 객체 제어 방법 및 장치, 단말 및 저장 매체
US11577171B2 (en) Method and apparatus for prompting that virtual object is attacked, terminal, and storage medium
WO2020063526A1 (zh) 控制虚拟角色的方法、装置、终端及计算机可读存储介质
JP7350088B2 (ja) 仮想オブジェクトの制御方法、装置、デバイス及びコンピュータプログラム
WO2020029817A1 (zh) 虚拟环境中的配件选择方法、装置、设备及可读存储介质
KR20210132175A (ko) 가상 객체를 제어하기 위한 방법, 및 관련 장치
CN110597449B (zh) 基于虚拟环境的道具使用方法、装置、终端及存储介质
WO2021244306A1 (zh) 虚拟对象的选择方法、装置、设备及存储介质
WO2022227958A1 (zh) 虚拟载具的显示方法、装置、设备以及存储介质
WO2023020125A1 (zh) 虚拟环境画面的显示方法、装置、终端、介质及程序产品
CN111921188A (zh) 虚拟对象的控制方法、装置、终端及存储介质
US20230330537A1 (en) Virtual object control method and apparatus, terminal and storage medium
CN113521759A (zh) 信息处理方法、装置、终端和存储介质
CN111318015B (zh) 虚拟物品的控制方法、装置、终端和存储介质
US20230330528A1 (en) Information determining method and apparatus, device, and storage medium
CN112843718B (zh) 装备切换方法、装置、介质及电子设备
CN112121416B (zh) 虚拟道具的控制方法、装置、终端及存储介质
CN111298438B (zh) 虚拟对象的控制方法、装置、设备和存储介质
CN113398574A (zh) 辅助瞄准调整方法、装置、存储介质及计算机设备
CN111905380A (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN113617030B (zh) 虚拟对象的控制方法、装置、终端及存储介质
US20220054944A1 (en) Virtual object control method and apparatus, terminal, and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant