KR102410802B1 - 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체 - Google Patents

마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체 Download PDF

Info

Publication number
KR102410802B1
KR102410802B1 KR1020207018243A KR20207018243A KR102410802B1 KR 102410802 B1 KR102410802 B1 KR 102410802B1 KR 1020207018243 A KR1020207018243 A KR 1020207018243A KR 20207018243 A KR20207018243 A KR 20207018243A KR 102410802 B1 KR102410802 B1 KR 102410802B1
Authority
KR
South Korea
Prior art keywords
marker point
point position
target
area
scene
Prior art date
Application number
KR1020207018243A
Other languages
English (en)
Other versions
KR20200087260A (ko
Inventor
멍 츄
준밍 왕
쟈치 판
야 장
수팅 장
칭화 샤오
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20200087260A publication Critical patent/KR20200087260A/ko
Application granted granted Critical
Publication of KR102410802B1 publication Critical patent/KR102410802B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/305Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for providing a graphical or textual hint to the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/307Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying an additional window with a view from the top of the game field, e.g. radar screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 개시는 마커 포인트 위치 표시 방법, 전자 장치, 및 저장 매체를 개시하며, 컴퓨터 기술 분야에 속한다. 본 개시에서, 가상 장면의 전역 맵에서의 마커 포인트 위치가 획득되고; 가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역이 결정되며; 프롬프트 신호가 현재의 피제어 대상의 시야각 이미지에 표시되고; 가상 장면에서 목표 장면 영역을 마킹함으로써, 마커 포인트 위치 표시의 정확도가 개선된다.

Description

마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체
본 출원은 2018년 3월 22일에 출원된 중국 특허출원 제201810241937.6호("MARKER POINT LOCATION DISPLAY METHOD AND APPARATUS, TERMINAL, AND COMPUTER-READABLE STORAGE MEDIUM ")에 대해 우선권을 주장하는 바이며, 그 전체 내용이 원용에 의해 본 명세서에 포함된다.
본 개시의 실시예는 컴퓨터 기술 분야에 관한 것으로, 상세하게는 마커 포인트 위치 표시 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체에 관한 것이다.
현재, 일부 게임에서, 단말기 화면 크기의 제한으로 인해 사용자의 현재 위치가 위치하는 영역의 가상 장면이 일반적으로 현재의 표시 인터페이스 상에 전체 화면으로 표시되고, 전역 맵(global map)이 현재의 표시 인터페이스의 우측 상단 모서리에 표시되며, 전역 맵이 게임에 포함되는 영역을 커버한다. 복수의 사용자가 게임을 위해 팀을 구성할 때, 일반적으로, 특정 사용자가 전역 맵에서 목적지를 선택하고, 이 목적지를 마커 포인트 위치로 마킹한다. 복수의 사용자가 가상 장면 내의 마커 포인트 위치에 도달할 수 있도록, 사용자는 마커 포인트 위치를 복수의 사용자 중 본인 이외의 사용자에게 전송한다.
관련 기술에서, 팀 내의 특정 사용자를 예로 들면, 단말기가 마커 포인트 위치를 표시하는 과정은, 사용자가 전역 맵에서 특정 마커 포인트 위치를 선택한 후, 단말기가 마커 포인트 위치와 사용자의 현재 위치를 전역 맵에 표시하는 것이다. 일반적으로, 사용자는 가상 장면 내의 마커 포인트 위치의 방향을 향해 이동할 수 있다. 이동 중에, 단말기는 현재의 위치가 전역 맵 내의 마커 포인트 위치에 점점 가까워지는 과정을 동기적으로 표시할 수 있고, 사용자가 현재의 위치가 마커 포인트 위치와 일치하는 것을 수동으로 관찰할 때, 가상 장면 내의 마커 포인트 위치에 도달한 것이 결정된다.
전술한 방법은 마커 포인트 위치에 도달했는지 여부를 실제로 수동으로 결정하는 것이다. 하지만, 전역 맵의 정확도가 가상 장면의 정확도보다 낮으므로, 전역 맵 내의 지점이 실제로 가상 장면 내의 비교적 큰 표시 영역, 예를 들어 도시 또는 공원이 있는 가상 영역을 나타낸다. 현재의 위치가 가상 영역 내의 마커 포인트 위치의 외부에 위치하면, 사용자는 경우에 따라 전역 맵에서 현재의 위치와 마커 포인트 위치가 서로 일치하는 것을 관찰할 수 있을 것이다. 이 경우, 사용자는 가상 장면 내의 마커 포인트 위치에 도달하지 않으며, 그 결과 마커 포인트 위치 표시의 정확도가 상대적으로 낮다.
본 개시의 실시예는 마커 포인트 위치 표시의 정확도가 상대적으로 낮은 문제를 해결하기 위한 마커 포인트 위치 표시 방법, 전자 장치, 및 컴퓨터 판독가능 저장 매체를 제공한다. 본 기술적 해결책은 다음과 같다.
일 양태에 따르면, 마커 포인트 위치 표시 방법이 제공되며, 상기 마커 포인트 위치 표시 방법은,
가상 장면(virtual scene)의 전역 맵에서 마커 포인트 위치를 획득하는 단계 - 상기 전역 맵은 상기 가상 장면의 썸네일(thumbnail)을 표시하도록 구성되어 있음 -;
상기 가상 장면에서 상기 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하는 단계 - 상기 목표 장면 영역은 상기 마커 포인트 위치에 의해 마킹된 영역임 -; 및
현재의 피제어 대상(controlled object)의 시야각 이미지에 프롬프트 신호를 표시하는 단계 - 상기 프롬프트 신호는 상기 가상 장면 내의 상기 목표 장면 영역의 위치를 프롬프트하는 데 사용되고, 상기 시야각 이미지는 상기 가상 장면 내의 상기 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면임 -를 포함한다.
다른 양태에 따르면, 마커 포인트 위치 표시 장치가 제공되며, 상기 마커 포인트 위치 표시 장치는,
가상 장면의 전역 맵에서 마커 포인트 위치를 획득하도록 구성된 획득 모듈 - 상기 전역 맵은 상기 가상 장면의 썸네일을 표시하도록 구성되어 있음 -;
상기 가상 장면에서 상기 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하도록 구성된 결정 모듈 - 상기 목표 장면 영역은 상기 마커 포인트 위치에 의해 마킹된 영역임 -; 및
현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하도록 구성된 표시 모듈 - 상기 프롬프트 신호는 상기 가상 장면 내의 상기 목표 장면 영역의 위치를 프롬프트하는 데 사용되고, 상기 시야각 이미지는 상기 가상 장면 내의 상기 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면임 -을 포함한다.
또 다른 양태에 따르면, 전자 장치가 제공되며, 상기 전자 장치는 프로세서와 메모리를 포함하며, 상기 메모리는 적어도 하나의 명령을 저장하고, 상기 명령은 전술한 마커 포인트 위치 표시 방법에서 수행되는 연산을 구현하기 위해 상기 프로세서에 의해 로딩되어 실행된다.
또 다른 양태에 따르면, 컴퓨터 판독가능 저장매체가 제공되고, 상기 저장 매체는 적어도 하나의 명령을 저장하며, 상기 명령은 전술한 마커 포인트 위치 표시 방법에서 수행되는 연산을 구현하기 위해 프로세서에 의해 로딩되어 실행된다.
본 개시의 실시예에서, 단말기가 전역 맵에서 마커 포인트 위치를 획득할 때, 현재의 피제어 대상이 프롬프트 신호에 따라 정확하고 빠르게 목표 장면 영역에 도달할 수 있도록, 단말기가 가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역에 기초하여 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하여 가상 장면 내의 목표 장면 영역의 위치를 분명하고 정확하게 마킹함으로써, 마커 포인트 위치를 실제로 표시하는 정확도를 크게 개선한다.
본 발명의 실시예의 기술적 해결책을 더 명확하게 설명하기 위해, 이하에서는 실시예를 설명하는 데 필요한 첨부 도면을 간략하게 설명한다. 명백하게, 이하의 설명에서 첨부 도면은 본 발명의 일부 실시예를 나타낼 뿐이며, 당업자는 창의적인 노력 없이 첨부 도면으로부터 다른 도면을 도출할 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 표시 인터페이스의 개략도이다.
도 2는 본 기재의 일 실시예에 따른 마커 포인트 위치 표시 방법의 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 표시 인터페이스의 개략도이다.
도 4는 본 개시의 일 실시예에 따른 표시 인터페이스의 예시적인 도면이다.
도 5는 본 개시의 일 실시예에 따른 표시 인터페이스의 개략도이다.
도 6은 본 개시의 일 실시예에 따른 표시 인터페이스의 예시적인 도면이다.
도 7은 본 개시의 일 실시예에 따른 표시 인터페이스의 개략도이다.
도 8은 본 개시의 일 실시예에 따른 표시 인터페이스의 예시적인 도면이다.
도 9는 본 개시의 일 실시예에 따른 표시 인터페이스의 개략도이다.
도 10은 본 개시의 일 실시예에 따른 표시 인터페이스의 개략도이다.
도 11은 본 개시의 일 실시예에 따른 표시 인터페이스의 예시적인 도면이다.
도 12는 본 개시의 일 실시예에 따른 마커 포인트 위치 표시 방법의 흐름도이다.
도 13은 본 발명의 일 실시예에 따른 마커 포인트 위치 표시 방법의 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 마커 포인트 위치 표시 장치의 개략적인 구조도이다.
도 15는 본 발명의 예시적인 실시예에 따른 전자 장치(1500)의 구조 블록도이다.
이하, 본 개시의 실시예의 첨부 도면을 참조하여 본 개시의 실시예의 기술적 해결책을 명확하고 완전하게 설명한다. 명백하게, 설명되는 실시예는 실시예의 전부가 아니라 본 개시의 일부 실시예다. 창의적인 의도 없이 본 개시의 실시예에 기초하여 당업자에 의해 획득되는 다른 모든 실시예는 본 개시의 보호 범위에 속할 것이다.
본 개시의 실시예는 주로 전자 게임 장면에 관한 것이다. 전자 게임 장면에서, 사용자가 단말기 상의 조작을 미리 수행할 수 있고, 단말기는 사용자의 조작을 검출한 후 전자 게임의 게임 구성 파일을 다운로드할 수 있다. 게임 구성 파일은 전자 게임의 애플리케이션, 또는 인터페이스 표시 데이터, 또는 가상 장면 데이터(virtual scene data) 등을 포함할 수 있다. 사용자가 단말기 상에서 전자 게임에 로그인할 때, 단말기는 구성 파일에 기초하여 전자 게임 인터페이스를 렌더링하여 표시하기 위해 게임 구성 파일을 호출할 수 있다. 사용자는 단말기에 대한 터치 조작을 수행할 수 있으며, 터치 조작을 검출한 후 터치 조작에 대응하는 게임 데이터를 결정하고 게임 데이터를 렌더링하여 표시할 수 있다. 게임 데이터는 가상 장면 데이터와 가상 장면 내의 가상의 대상의 행동 데이터 등을 포함할 수 있다.
본 개시에 포함된 가상 장면은 가상 공간을 시뮬레이션하는 데 사용될 수 있고, 가상 공간은 3차원 가상 공간 또는 2차원 가상 공간일 수 있다. 가상 공간은 열린 공간일 수 있다. 가상 장면은 실제 환경을 시뮬레이션하는 데 사용될 수 있다. 예를 들어, 가상 장면은 하늘, 땅, 및 바다 등을 포함할 수 있고, 땅은 사막 및 도시와 같은 환경적 요인을 포함할 수 있다. 사용자는 가상 장면에서 이동하도록 가상 객체(virtual object)를 제어할 수 있고, 가상 대상은 가상 장면에서 사용자를 나타내는 데 사용되는 가상 아바타일 수 있으며, 아바타는 임의의 형태, 예를 들어 사람이나 동물일 수 있고, 본 개시의 실시예에서 제한되지 않는다. 예를 들어, 슈팅 게임을 예로 들면, 가상 장면에서, 사용자는 낙하산이 하늘에서 펼쳐진 후에 자유롭게 떨어지거나, 또는 미끄러지거나, 또는 떨어지도록 제어할 수 있거나; 또는 땅에서 달리고, 뛰어 오르고, 기어 오르고, 구부리거나; 또는 바다에서 수영하거나, 떠 있거나, 또는 다이빙하도록 가상 객체를 제어할 수 있다. 물론, 사용자는 추가적으로, 가상 장면에서 이동하기 위해 차량에 탑승하도록 가상 객체를 제어할 수 있다. 전술한 장면이 본 명세서에서 예로 사용될 뿐이며, 본 개시의 실시예에서 구체적으로 제한되지 않는다. 대안적으로, 사용자는 무기를 사용하여 다른 가상의 대상과 싸우도록 가상 객체를 제어할 수 있다. 무기는 차가운 무기일 수 있고, 뜨거운 무기일 수 있다. 본 개시에서는 이에 대해 구체적으로 제한하지 않는다.
일반적으로, 사용자는 전역 맵에서 하나의 목적지를 선택하고, 가상 장면의 목적지에 도달하도록 현재의 피제어 대상(controlled object)을 제어할 수 있다. 사용자는 다른 사용자와 팀을 구성하여 게임할 수 있다. 즉, 현재의 피제어 대상은 팀 내의 다른 대상과 연관 관계를 구축하고, 목적지가 팀 내의 임의의 피제어 대상에 의해 선택될 수 있다. 단말기는 목적지를 선택하는 피제어 대상의 단말기와 데이터 교환을 수행함으로써, 연관된 대상에 의해 선택된 목적지를 획득하고, 이 목적지를 전역 맵에 마킹할 수 있다.
단말기는 현재의 표시 인터페이스 내의 가상 장면을 전체 화면으로 표시하고, 현재의 표시 인터페이스의 사전 설정된 영역에 전역 맵을 독립적으로 표시할 수 있다. 전역 맵은 가상 장면의 썸네일(thumbnail)을 표시하도록 구성되고, 썸네일은 가상 장면에 대응하는 지형(terrain), 지세(landform), 및 지리적 위치와 같은 지리적 특징을 설명하는 데 사용된다. 사전 설정된 영역은 사용자의 동작 습관에 따라 설정될 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 사전 설정된 영역은 현재의 표시 인터페이스의 우측 상단 모서리와 좌측 하단 모서리 등에서 직사각형 영역일 수 있다.
또한, 단말기는 애플리케이션이 설치된 임의의 단말기일 수 있고, 본 개시의 실시예에서 특별히 제한되지 않는다. 예를 들어, 단말기는 애플리케이션이 설치된 임의의 장치, 예를 들어 휴대폰 단말기, 또는 휴대용 안드로이드 장치(portable android device, PAD) 단말기, 또는 컴퓨터 단말기일 수 있다.
도 2는 본 발명의 일 실시예에 따른 마커 포인트 위치 표시 방법의 흐름도이다. 마커 포인트 위치 표시 방법은 전자 장치에 적용되고, 본 발명의 실시예에서는 전자 장치가 단말기인 예만이 설명에 사용되고, 마커 포인트 위치 표시 방법의 실행 본체가 단말기일 수 있다. 도 2를 참조하면, 마커 포인트 위치 표시 방법은 다음의 단계를 포함한다.
단말기가, 전역 맵 상의 선택 조작이 검출된 경우, 선택 조작을 통해 선택된 위치 좌표를 획득하고, 전역 맵에서의 위치 좌표에 대응하는 위치를 마커 포인트 위치로 결정한다.
본 개시의 실시예에서, 마커 포인트 위치는 전역 맵에서 선택된 위치이다. 게임 중에, 사용자가 목적지에 도달하기를 원하면, 사용자는 전역 맵에서 목적지를 선택하고, 이 목적지를 마커 포인트로 표시할 수 있으며, 마커 포인트 위치는 전역 맵에서 목적지의 위치이다. 마커 포인트 위치는 전역 맵에서 위치 좌표로서 표현될 수 있다. 단말기는 전역 맵에서 마커 포인트의 위치 좌표를 획득하고, 전역 맵에서의 위치 좌표에 대응하는 위치를 마커 포인트 위치로 결정할 수 있다.
마커 포인트 위치는 현재의 사용자의 선택 조작에 기초하여 선택될 수 있다. 선택 조작은 사용자의 손가락의 터치 이벤트에 의해 트리거되는 조작일 수 있거나, 또는 마우스나 다른 입력 장치의 클릭 이벤트에 의해 트리거되는 조작일 수 있다. 따라서, 이 단계는, 단말기가 전역 맵에서 터치 이벤트 또는 클릭 이벤트의 발생을 검출할 때 전역 맵에서 선택 조작이 있다고 결정하고, 전역 맵에서 터치 이벤트 또는 클릭 이벤트의 위치 좌표를 획득하며, 이 위치 좌표를 선택 조작을 통해 선택된 위치 좌표로 결정하는 단계일 수 있다.
단말기는 사전 설정된 아이콘을 추가하는 방식으로 마커 포인트 위치를 표시할 수 있고, 단말기는 사전 설정된 아이콘을 마커 포인트 위치에 추가할 수 있거나, 또는 사전 설정된 아이콘을 현재의 표시 인터페이스의 임의의 위치에 추가할 수 있으며, 지시 정보는 마커 포인트 위치의 사전 설정된 아이콘을 나타내는 데 사용됨으로써, 사전 설정된 아이콘이 마커 포인트 위치의 주변 영역을 은폐하지 않게 한다. 사전 설정된 아이콘은 물방울 아이콘, 또는 화살표 등일 수 있다. 도 3에 도시된 바와 같이, 단말기는 현재의 표시 인터페이스의 우측 상단 모서리에 전역 맵을 표시할 수 있고, 사용자가 손가락으로 전역 맵에서 마커 포인트 위치를 선택하면, 그 위치에 물방울 아이콘을 마킹할 수 있다. 도 4는 실제의 단말기 인터페이스 표시를 개략적으로 나타낸 도면이고, 도 4에 도시된 효과 비교의 개략도를 참조하면, 그 구체적인 표시 효과를 더 명확하게 알 수 있을 것이다.
가능한 구현에서, 사용자는 다른 사용자와 팀을 구성하여 게임할 수 있다. 따라서, 복수의 사용자가 게임을 할 때, 복수의 사용자에 의해 각각 제어되는 제어 대상 사이에는 연관 관계가 구축될 수 있다. 마커 포인트 위치는 복수의 피제어 대상 중 임의의 대상에 의해 선택될 수 있고, 마커 포인트 위치를 선택하는 피제어 대상은 관련된 피제어 대상과 마커 포인트 위치를 공유한다. 마커 포인트 위치가 현재의 피제어 대상의 연관된 대상에 의해 선택될 때, 단계 201은, 단말기가 현재의 피제어 대상의 관련된 대상에 의해 선택된 마커 포인트 위치를 수신하는 단계로 대체될 수 있다. 연관된 대상은 마커 포인트 위치의 위치 좌표를 직접 전송할 수 있다. 단말기는 연관된 대상의 단말기에 의해 전송된 위치 좌표를 수신하고, 전역 맵에서의 위치 좌표에 대응하는 위치를 마커 포인트 위치로 결정한다.
연관된 대상의 선택은 또한 사용자와의 연관 관계를 구축하는 연관된 사용자의 선택이다. 물론, 연관된 대상의 선택 절차는 현재의 사용자의 선택 동작을 통해 수행되는 선택 절차와 유사하며, 여기서는 세부 사항에 대해 다시 설명하지 않는다.
가능한 구현에서, 단말기는 사용자에 의해 트리거되는 표시 명령을 수신할 때에만 전역 맵을 표시할 수 있다. 전역 맵 상의 선택 조작이 검출될 때, 단말기가 선택 조작을 통해 선택된 위치 좌표를 획득하는 단계는, 전역 맵을 표시하도록 지시하는 표시 명령을 검출할 때, 단말기가 현재의 표시 인터페이스 내의 미리 설정된 영역에 전역 맵을 표시하고, 전역 맵 상의 선택 조작을 검출할 때, 단말기가 전역 맵 상의 선택 조작을 통해 선택된 위치 좌표를 획득하는 단계일 수 있다.
표시 명령은 단말기의 현재의 표시 인터페이스 내의 표시 버튼, 단말기 상에서 사용자에 의해 수행되는 지정된 발언(speech), 또는 특정 행동, 또는 흔들림이나 회전에 의해 트리거될 수 있다.
또한, 사전 설정된 영역에 전역 맵을 표시할 때, 단말기는 사용자가 전역 맵에서 선택 조작을 수행할 필요가 있는지 여부를 추가로 검출할 수 있고, 사용자가 전역 맵에서 선택 조작을 수행할 필요가 있으면, 사용자가 확대되어 표시된 전역 맵 상에서 선택을 수행할 수 있도록, 단말기는 전역 맵을 추가로 확대(zoom-in)하여 표시한다. 따라서, 전역 맵 상의 선택 동작이 검출될 때, 단말기가 선택 동작을 통해 선택된 위치 좌표를 획득하는 단계는, 단말기의 사전 설정된 영역 상의 트리거 조작을 검출할 때, 단말기가 전역 맵을 표시하기 위해 제1 윈도에서 제2 윈도로 전환하고; 제2 윈도에서 전역 맵 상의 선택 조작을 검출할 때, 단말기가 선택 조작을 통해 선택된 위치 좌표를 획득하는 단계일 수 있다.
제2 윈도의 표시 영역이 제1 윈도의 표시 영역보다 크고, 트리거 조작은 사전 설정된 영역에서 손가락의 터치 이벤트이거나 또는 사전 설정된 영역에서 마우스의 클릭 이벤트이다. 사전 설정된 영역은 요구사항에 따라 설정될 수 있다. 예를 들어, 사전 설정된 영역은 제1 윈도에 의해 점유된 전체 영역이거나, 또는 제1 윈도에 의해 점유된 영역의 중심 영역 또는 가장자리 영역일 수 있다. 제1 윈도는 현재의 표시 인터페이스에서 우측 상단 모서리 영역 또는 좌측 하단 모서리 영역 등일 수 있다. 제2 윈도는 현재의 표시 인터페이스의 좌측 절반 화면 영역 또는 우측 절반 화면 영역일 수 있다.
전역 맵은 단말기 화면의 우측 상단 모서리 또는 우측 하단 모서리와 같은 화면 영역의 일부에 위치할 수 있고, 단말기는 표시 영역이 더 큰 영역으로 전환하여 전역 맵을 표시함으로써, 단말기 화면 크기의 제한을 해제하고, 마커 포인트 위치를 선택하는 정확도를 개선하며, 사용자 경험을 향상시킨다.
도 5에 도시된 바와 같이, 단말기는 먼저 왼쪽 그림과 같이 단말기 화면의 우측 상단 모서리에 전역 맵을 표시할 수 있다. 사용자가 손가락으로 우측 상단 모서리 영역을 터치하면, 단말기는 우측 그림에 도시된 바와 같이, 우측 절반 화면 영역에 전역 맵을 표시하도록 추가로 전환할 수 있다. 도 5에 도시된 바와 같이, 사용자가 현재의 피제어 대상의 현재 위치와 마커 포인트 위치 사이의 위치 관계를 직접 관찰할 수 있도록, 단말기는 전역 맵에서 현재의 피제어 대상의 위치를 추가로 표시할 수 있다. 또한, 도 5에 도시된 바와 같이, 사용자가 마커 포인트 위치에 기초하여 현재의 이동 방향을 적시에 조절하여 우회로와 다른 상황을 피할 수 있도록, 단말기가 현재의 피제어 대상의 현재의 이동 방향을 전역 맵에 추가로 표시함으로써, 가능한 한 빨리 마커 포인트 위치에 도달할 수 있다. 도 6은 실제 단말기 인터페이스 표시를 개략적으로 나타낸 도면이고, 도 6에 도시된 효과 비교의 개략도를 참조하면, 그 구체적인 표시 효과를 더 명백하게 알 수 있을 것이다.
도 7에 도시된 바와 같이, 단말기는 현재의 피제어 대상 및 연관된 대상의 위치를 전역 맵에 표시할 수 있다. 또한, 사용자가 시야각에서 마커 포인트 위치를 선택하는 대상을 시각적으로 알 수 있도록, 단말기는 마커 포인트 위치의 현재의 색상을 마커 포인트를 선택하는 연관된 대상의 색상으로 추가로 설정할 수 있다. 도 8은 실제 단말기 인터페이스 표시를 개략적으로 나타낸 도면이고, 도 5b에 도시된 효과 비교의 개략도를 참조하면, 그 구체적인 표시 효과를 더 명백하게 알 수 있을 것이다.
마커 포인트 위치가 현재의 피제어 대상에 의해 선택되고, 현재의 피제어 대상이 다른 대상과의 연관 관계를 구축하였다면, 현재의 피제어 대상은 추가적으로, 마커 포인트 위치를 연관된 객체와 공유할 필요가 있을 수 있다. 이 과정은, 단말기가 연관된 대상의 대상 식별자를 획득하고, 대상 식별자에 따라 마커 포인트 위치를 연관된 대상에 전송하는 과정이다. 대상 식별자는 예를 들어 게임 아이덴티티(ID) 또는 연관된 대상의 닉네임일 수 있다. 단말기는 통신 가능하게 서버에 연결되며, 단말기는 마커 포인트 위치를 서버에 전송할 수 있다. 서버는 연관된 대상이 위치하는 단말기에 마커 포인트 위치를 포워딩한다. 대안적으로, 단말기는 예를 들어, 블루투스 연결 또는 근거리 무선 통신(near field communication, NFC) 연결을 통해 연관된 대상이 직접 위치하는 단말기에 통신 가능하게 연결될 수 있고, 그런 다음 단말기는 통신 연결에 기초하여, 연관된 대상이 위치하는 단말기에 마커 포인트 위치를 직접 전송한다.
물론, 마커 포인트 위치를 획득할 때, 단말기는 마커 포인트 위치를 전역 맵에 먼저 표시한 다음, 마커 포인트 위치를 연관된 대상에 전송할 수 있하거나, 또는 마커 포인트 위치를 연관된 대상에 전송한 다음, 마커 포인트 위치를 마킹할 수 있다. 대안적으로, 단말기는 마커 포인트 위치를 동시에 전송하고 표시할 수 있다. 본 발명의 실시예에서는 이러한 내용을 특별히 제한하지 않는다.
본 개시의 실시예에서, 마커 포인트 위치를 획득한 후, 현재의 피제어 대상이 마커 포인트 위치를 명확하게 알 수 있도록, 단말기는 단계 202를 통해 전역 맵에서의 마커 포인트 위치의 위치에 기초하여, 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하고 가상 장면에서 목표 장면 영역을 마킹한다.
202. 단말기가 가상 장면 내의 마커 포인트 위치가 나타내는 목표 장면 영역을 결정한다.
목표 장면 영역은 마커 포인트 위치에 의해 마킹된 영역이고, 전역 맵은 가상 장면의 썸네일을 표시한다. 전역 맵과 가상 장면 사이에는 매핑 관계가 존재하고, 단말기는 이 매핑 관계를 미리 저장할 수 있으며, 단말기는 이 매핑 관계에 기초하여 가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역을 결정한다.
매핑 관계는 전역 맵의 위치 지점과 가상 장면 내의 위치 지점 사이의 매핑 관계일 수 있거나, 또는 전역 맵의 위치 지점과 가상 장면 내의 장면 영역 사이의 매핑 관계일 수 있다. 매핑 관계의 여러 가능성에 기초하여, 이러한 단계는 다음의 3가지 방식으로 구현될 수 있다.
제1 방식에 따르면, 단말기는 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면 내의 마커 포인트 위치에 대응하는 장면 위치 좌표를 결정하고, 장면 위치 좌표의 사전 설정된 제1 범위 내의 영역을 목표 장면 영역으로 결정한다.
이 단계에서, 단말기는 전역 맵에서의 위치 좌표와 가상 장면 내의 장면 위치 좌표 사이의 매핑 관계를 미리 저장할 수 있다. 단말기는 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라, 매핑 관계로부터 가장 장면 내의 마커 포인트 위치에 대응하는 장면 위치 좌표를 획득하고; 단말기는 장면 위치 좌표에 따라, 사전 설정된 생성 원리에 따라 장면 위치 좌표에 대응하는 사전 설정된 제1 범위의 영역을 목표 장면 영역으로 사용한다.
사전 설정된 생성 원리는 요구사항에 따라 설정될 수 있으며, 본 개시의 실시예에서 구체적으로 제한되지 않는다. 예를 들어, 사전 설정된 생성 원리는, 도 9에 도시된 바와 같이 장면 위치 좌표가 원의 중심이고 사전 설정된 거리가 반지름인 영역일 수 있고, 사전 설정된 제1 범위 내의 영역은 원의 중심이 O이고 반지름이 R인 원형의 영역이다. 대안적으로, 사전 설정된 생성 원리는 중심이 장면 위치 좌표이고 변 길이가 사전 설정된 거리인 정사각형일 수 있고, 사전 설정된 제1 범위 내의 영역은 중심이 O이고 변 길이가 a인 정사각형 영역이다.
가상 장면 내의 목표 장면 영역이 정확하게 결정될 수 있도록, 단말기는 마커 포인트 위치를 가상 장면 내의 위치 포인트로 정확하게 지정하고, 이 위치 포인트에 기초하여 특정 포인트 범위 내의 영역으로 위치 포인트를 확장함으로써, 목표 장면 영역에 대한 현재 사용자의 인식을 개선하고 사용자 경험을 향상시킨다.
제2 방식에 따르면, 단말기는 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면 내의 마커 포인트 위치의 장면 위치 좌표를 결정하고, 장면 위치 좌표의 지물 요소(ground object element)에 대응하는 영역을 목표 장면 영역으로 결정한다.
이 단계에서, 단말기는 장면 위치 좌표와 지물 요소 사이의 매핑 관계를 추가로 저장할 수 있다. 단말기는 가상 장면 내의 마커 포인트 위치의 장면 위치 좌표를 결정하고, 장면 위치 좌표에 따라 장면 위치 좌표와 지물 요소 사이의 매핑 관계로부터 장면 위치 좌표에 대응하는 지물 요소를 결정하고, 지물 요소가 위치하는 영역을 목표 장면 영역으로 사용한다.
지물 요소는 가상 장면에서의 특정 윤곽 또는 아키텍처 구조를 갖는 요소일 수 있다. 예를 들어, 지물 요소는 호수, 공원, 빌라, 또는 병원 등일 수 있다. 단말기가 가상 장면 내의 마커 포인트 위치의 장면 위치 좌표를 결정하는 방식이 전술한 제 1 방식과 유사하므로, 여기서 다시 설명하지 않는다.
목표 장면 영역이 더 명확할 수 있도록, 단말기는 마커 포인트 위치를 가상 장면 내의 특정 지물 요소, 예를 들어 병원이나 공원에 대응시킴으로써, 가상 장면 내의 목표 장면 영역의 인식 가능성이 개선될 수 있다. 또한, 마커 포인트 위치를 건물 또는 지리적 요소와 매칭시킴으로써, 시각적으로, 목표 장면 영역의 지리적 범위가 더 명확하게 정의되어 목표 장면 영역을 결정하는 정확도 및 사용자의 시각적 경험이 향상된다.
또한, 목표 장면 영역을 특정 지물 요소로 지정함으로써, 현재의 피제어 대상으로 하여금 지물 요소의 특징, 예컨대 아이덴티티 또는 윤곽에 기초하여 목표 장면 영역을 미리 학습할 수 있게 하여 도달 전에 게임 경험에 기초하여 더 잘 준비하게 함으로써, 사용자의 게임 경험을 크게 향상시킨다.
제3 방식에 따르면, 단말기는 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라, 가상 장면 내의 위치 좌표에 대응하는 목표 장면 영역에 대한 위치 좌표와 장면 영역 사이의 매핑 관계를 룩업(look up)한다 .
본 개시의 실시예에서, 전역 맵은 실제로 사전 설정된 비율에 따라 축소된 가상 장면의 썸네일이다. 전역 맵에서의 위치 포인트가 가상 장면 내의 장면 영역을 나타내는 데 사용될 수 있고, 단말기는 전역 맵에서의 위치 좌표와 가상 장면 내의 장면 영역 사이의 대응 관계를 미리 연관적으로 저장하고 있을 수 있다. 단말기는 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 위치 좌표와 장면 영역 사이의 매핑 관계로부터 위치 좌표에 대응하는 장면 영역을 결정하고, 이 장면 영역을 마커 포인트 위치에 대응하는 목표 장면 영역으로 사용한다.
가능한 구현에서, 단말기는 대안적으로, 목표 장면 영역을 연관된 대상에 전송하여 연관된 객체로 하여금 목표 장면 영역을 학습할 수 있게 한다. 단말기는 대안적으로 마커 포인트 위치를 연관된 대상에 전송할 수 있고, 그런 다음 연관된 대상이 마커 포인트 위치에 기초하여 목표 장면 영역을 결정한다. 물론, 단말기는 대안적으로 마커 포인트 위치와 목표 장면 영역을 연관된 대상에 전송할 수 있다. 본 개시의 본 실시예에서는 특정 제한이 부과되지 않는다.
위치 좌표와 장면 영역 간의 매핑 관계를 저장함으로써, 단말기는 매핑 관계에 기초하여 목표 장면 영역을 신속하게 직접 결정함으로써, 단말기의 처리 효율이 크게 향상될 수 있다.
현재의 피제어 대상이 목표 장면 영역으로 점진적으로 이동하는 과정에서, 현재의 피제어 대상의 시야각 이미지의 제한된 범위로 인해, 목표 장면 영역이 현재의 피제어 대상의 위치로부터 상대적으로 멀리 떨어져 있는 경우, 목표 장면 영역은 경우에 따라 시야각 이미지에 위치하지 않을 수 있다. 따라서, 단말기는 시야각 이미지가 현재의 피제어 대상의 시야각 이미지 및 목표 장면 영역의 위치에 기초하여 목표 장면 영역을 포함하는지 여부를 판정하고, 판정 결과에 기초하여 목표 장면 영역을 마킹할 수 있다.
203. 시야각 이미지가 목표 장면 영역을 포함하지 않는 경우, 단말기가 목표 장면 영역을 향하는 방향으로 시야각 이미지에 프롬프트 신호를 표시한다.
시야각 이미지는 가상 장면 내의 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면이고, 프롬프트 신호는 시야각 이미지에 목표 장면 영역의 위치를 프롬프트하는 데 사용된다. 피제어 대상이 목표 장면 영역으로부터 상대적으로 멀리 떨어져 있는 경우, 단말기는 목표 장면 영역을 향하는 방향을 따라 시야각 이미지 내의 수평선 위치에 프롬프트 신호를 표시할 수 있다. 프롬프트 신호는 목표 장면 영역을 향하는 방향을 따라 먼 수평선 위치에서 한 줄기의 연기 또는 깜박이는 신호등일 수 있다.
프롬프트 신호를 표시함으로써, 현재의 피제어 대상이 목표 장면 영역을 신속하게 찾을 수 있도록, 단말기는, 현재의 피제어 대상의 시야각 이미지의 범위가 제한되더라도, 가상 장면에서, 목표 장면 영역의 일반적인 방향을 생생하게 묘사함으로써, 현재의 피제어 대상이 목표 장면 영역을 향하는 방향으로 이동하도록 안내할 수 있다.
204. 시야각 이미지가 목표 장면 영역을 포함하는 경우, 단말기가 시야각 이미지 내의 목표 장면 영역의 사전 설정된 제2 범위에 프롬프트 신호를 표시한다.
프롬프트 신호는 텍스트 프롬프트, 아이콘 프롬프트, 및/또는 특수한 표시 효과일 수 있다. 현재의 피제어 대상이 목표 장면 영역을 정확하게 찾을 수 있도록, 단말기는 시야각 이미지 내의 목표 장면 영역의 사전 설정된 제2 범위에 프롬프트 신호를 표시할 수 있다. 사전 설정된 제2 범위는 목표 장면 영역이 위치하는 영역 또는 목표 장면 영역의 우측 상부 모서리 영역 등일 수 있으며, 본 개시의 실시예에서 특별히 제한되지 않는다.
프롬프트 신호의 여러 가능성에 기초하여, 이 단계는 다음의 3가지 방식으로 구현될 수 있다.
제1 방식에 따르면, 프롬프트 신호가 텍스트 프롬프트인 경우, 이 단계는, 단말기가 시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제3 범위에 텍스트 프롬프트를 표시하는 단계일 수 있다.
이 단계에서, 단말기는 목표 장면 영역에 대응하는 텍스트 프롬프트를 미리 저장할 수 있고, 목표 장면 영역을 결정한 후, 지정된 저장 공간으로부터 목표 장면 영역에 대응하는 텍스트 프롬프트를 획득하고, 목표 장면 영역의 사전 설정된 제3 범위에 텍스트 프롬프트를 삽입한다.
사전 설정된 제3 범위와 사전 설정된 제2 범위는 동일하거나 또는 서로 다를 수 있다. 사전 설정된 제3 범위는 목표 장면 영역의 우측 상단 모서리 영역 또는 목표 장면 영역의 중앙 영역 등일 수 있다. 텍스트 프롬프트는 사용자의 요구사항에 기초하여 설정될 수 있으며, 본 개시의 실시예에서 구체적으로 제한되지 않는다. 예를 들어, 텍스트 프롬프트는 "여기가 목적지다!" 또는 "목적지가 여기다!" 등일 수 있다.
제2 방식에 따르면, 프롬프트 신호가 아이콘 프롬프트인 경우, 이 단계는,단말기가 시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제4 범위에 아이콘 프롬프트를 추가하는 단계일 수 있다.
아이콘 프롬프트는 사용자의 요구사항에 기초하여 설정될 수 있으며, 본 개시의 실시예에서 구체적으로 제한되지 않는다. 예를 들어, 아이콘 프롬프트는 목표 장면 영역을 가리키는 손가락 아이콘 또는 플래그 아이콘 등일 수 있다. 이 단계의 구체적인 구현이 제1 방식과 유사하며, 여기서는 세부 사항에 대해 다시 설명하지 않는다.
제3 방식에 따르면, 프롬프트 신호가 특수한 표시 효과인 경우, 이 단계는, 단말기가 시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하는 단계일 수 있다.
이 단계에서, 특수한 표시 효과는 색상을 변경하거나, 목표 장면 영역에 어떤 동적 픽처(dynamic picture)를 추가하거나, 플리커 목표 장면 영역을 깜빡이게 표시하는 것일 수 있다. 구체적으로, 이 단계는, 단말기가 목표 장면 영역의 원래의 표시 색상을 목표 색상으로 변경하거나, 목표 장면 영역의 층의 상부 층에 동적 픽처를 표시하거나, 또는 사전 설정된 제5 범위에 특수한 플리커 효과를 재생하는 것일 수 있다.
단말기는 층을 추가하는 방식으로 특수한 표시 효과를 추가하는 절차를 구현할 수 있다. 구체적으로, 단말기는 목표 장면 영역의 층의 상부 층에 층을 추가할 수 있고, 단말기가 목표 장면 영역의 원래의 표시 색상을 목표 색상으로 변경하면, 추가되는 층에서, 단말기는, 목표 장면 영역 내의 추가된 층에 대응하는 영역에 목표 색상을 표현할 수 있다. 단말기가 목표 장면 영역의 층의 상부 층에 동적 픽처를 표시하면, 추가된 층에서, 단말기는 목표 장면 영역에 대응하는 주변 영역에서 동적 픽처를 표현할 수 있다. 동적 픽처는 목표 장면 영역 주위에서 이동하는 스모그의 사진 또는 목표 장면 영역에 도달한 연관된 팀원이 점프하는 사진 등일 수 있다.
또한, 단말기가 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 플리커 특수 효과를 표시하면, 단말기는 사전 설정된 주기마다 목표 장면 영역을 한 번 강조 표시하여 목표 장면 영역을 깜빡이게 표시할 수 있다.
목표 색상은 목표 장면 영역의 원래의 표시 색상과 다르거나, 목표 색상은 목표 장면 영역의 주변 장면 영역의 표시 색상과 다를 수 있고, 단말기는 목표 장면 영역의 원래의 표시 색상에 따라 원래의 표시 색상과 다른 색상을 목표 색상으로 사용할 수 있다. 대안적으로, 목표 장면 영역과 주변 장면 영역이 명확하게 구별될 수 있도록, 단말기는 주변 장면 영역의 표시 색상과 다른 색상을 목표 색상으로 사용할 수 있다.
도 10에 도시된 바와 같이, 단말기는 목표 장면 영역을 시야각 이미지 내의 다른 영역과 구별하기 위해 목표 장면 영역을 목표 색상으로 변경할 수 있다. 도 11은 실제 단말기 인터페이스 표시를 개략적으로 나타낸 도면이고, 도 11에 도시된 효과 비교의 개략도를 참조하면, 구체적인 표시 효과를 더 명확하게 알 수 있을 것이다.
목표 장면 영역이 주변 영역과 선명하고 명확하게 구별될 수 있도록, 단말기는 목표 장면 영역에 전술한 특수한 표시 효과 중 어느 하나를 추가하여 현재의 피제어 대상의 주의를 끔으로써, 두드러진 프롬프트 효과를 생성한다. 또한, 단말기는 텍스트 프롬프트, 또는 아이콘 프롬프트, 또는 특수한 표시 효과와 같은 다양한 형태의 프롬프트 신호를 목표 장면 영역의 사전 설정된 범위에 표시하여 사용자에게 프롬프트함으로써, 게임 과정에서 흥미를 증진시키고 사용자의 관심을 높인다.
단계 204에서, 단말기는 전술한 3가지 구현을 이용하여 목표 장면 영역에 대한 텍스트 프롬프트, 아이콘 프롬프트, 및 특수한 표시 효과 중 어느 2개 또는 모두를 추가하여 시야각 이미지 내의 목표 장면 영역의 위치를 강조함으로써, 두드러진 프롬프트 효과를 생성한다.
전술한 단계 203 내지 단계 204는 실제로 "단말기가 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 것"의 특정 구현이고, 전술한 단계는 현재의 피제어 대상이 멀리서 가까이로 목표 장면 영역에 도달하는 과정에서, 단말기는 목표 장면 영역의 프롬프트 신호를 항상 제공할 수 있다. 하지만, 단말기는 대안적으로 현재의 피제어 대상의 현재 상태가 목표 표시 조건을 만족할 때에만 프롬프트 신호를 표시할 수 있다. 물론, 목표 표시 조건은 요구사항에 기초하여 설정될 수 있고, 본 개시의 본 실시예에서 구체적으로 제한되지 않는다. 예를 들어, 목표 표시 조건은, 현재의 피제어 대상의 위치와 목표 장면 영역 사이의 거리가 목표 거리 이하이고, 현재의 피제어 대상에 대응하는 현재 사용자가 프롬프트 요청을 트리거하며, 현재의 피제어 대상이 명중되었다는 것일 수 있다.
205. 현재의 피제어 대상의 위치가 목표 장면 영역에 위치하거나 또는 마커 포인트 위치가 갱신된 경우, 단말기가 시야각 이미지에 프롬프트 신호의 표시를 중지한다.
본 개시의 실시예에서, 마커 포인트 위치는 특정 시간 유효성을 가지고 있으며, 단말기가 마커 포인트 위치의 현재의 시간 유효성에 기초하여 마커 포인트 위치에 대응하는 목표 장면 영역에 프롬프트를 계속 제공할지 여부를 판정할 수 있다. 현재의 피제어 대상이 목표 장면 영역에 도달하거나 또는 마커 포인트 위치가 갱신된 경우, 마커 포인트 위치가 유효하지 않다.
단말기는 현재의 피제어 대상의 위치를 실시간으로 모니터링하고, 그 위치에 기초하여 현재의 피제어 대상이 목표 장면 영역에 도달하는지 여부를 판정할 수 있다. 현재의 피제어 대상의 위치가 목표 장면 영역에 있을 때, 단말기는 현재의 피제어 대상이 목표 장면 영역에 도달한 것으로 결정하고, 단계 203 또는 단계 204의 수행을 중단한다. 현재의 피제어 대상의 이동 과정에서, 마커 포인트 위치는 실시간으로 갱신될 수 있고, 전역 맵에서의 마커 포인트 위치가 이 마커 포인트 위치와는 다른 마커 포인트 위치로 갱신될 때, 단말기가 또한 단계 203이나 단계 204를 수행하는 것을 중단한다.
마커 포인트 위치는 현재의 피제어 대상에 의해 갱신될 수 있거나, 또는 현재의 피제어 대상의 연관된 대상에 의해 갱신될 수 있다. 현재의 피제어 대상이 마커 포인트 위치를 갱신하면, 즉 단말기가 선택 조작에 기초하여 마커 포인트 위치를 다시 결정하는 과정이 단계 201과 유사하며, 여기서 상세하게 설명하지 않는다. 마커 포인트 위치가 연관된 대상에 의해 갱신되면, 단말기는 연관된 대상의 단말기에 의해 전송되는, 갱신된 마커 포인트 위치를 수신하고, 전역 맵에 갱신된 마커 포인트 위치를 표시하며, 단말기는 단계 202 내지 단계 204에 도시된 절차를 통해 갱신된 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하여 표시한다.
본 실시예의 구현 과정을 더 명확하게 설명하기 위해, 도 12에 도시된 흐름도만이 전체 해결책의 절차를 설명하는 데 사용된다. 도 12를 참조하면, 화면 상의 트리거 동작을 검출할 때, 단말기는 트리거 조작이 특정 위치 조건을 만족하는지 여부를 판정하고, 특정 위치 조건은 트리거 조작의 조작 위치가 사전 설정된 영역에 포함된다는 것일 수 있다. 특정 위치 조건이 만족되면, 단말기는 전역 맵에서의 마커 포인트 위치를 획득하고, 마커 포인트 위치를 가상 장면 내의 목표 장면 영역으로 변환한다. 또한, 현재의 피제어 대상이 목표 장면 영역의 위치를 명확하게 알 수 있도록, 단말기는 마커 포인트 위치를 연관된 대상의 단말기에 추가로 동기화하고, 현재의 피제어 대상의 시야각 이미지에 목표 장면 영역을 마킹한다. 전역 맵에서 단말기에 의해 표시된 현재의 피제어 대상의 위치가 마커 포인트 위치와 일치하더라도, 현재의 피제어 대상이 시야각 이미지에 마킹된 목표 장면 영역에 기초하여 추가적인 결정을 수행할 수 있으므로, 현재의 피제어 대상이 마커 포인트 위치에 도달하는 것은, 현재의 피제어 대상이 목표 장면 영역에 있을 때에만 결정되어 전역 맵의 낮은 정밀도로 인한 잘못된 결정의 문제를 해결함으로써, 결정의 정확도를 개선하고 또한 정확한 표시 효과를 추가로 생성한다.
본 개시의 실시예에서, 단말기가 전역 맵에서의 마커 포인트 위치를 획득할 때, 현재의 피제어 대상이 프롬프트 신호에 따라 목표 장면 영역에 정확하고 신속하게 도달할 수 있도록, 단말기는 가상 장면 내의 마커 포인트 위치가 나타내는 목표 장면 영역에 기초하여 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하여 가상 장면 내의 목표 장면 영역의 위치를 명확하고 정확하게 마킹함으로써, 마커 포인트 위치의 실제 표시의 정확도를 크게 향상시킨다.
도 13은 본 개시의 일 실시예에 따른 마커 포인트 위치 표시 방법의 흐름도이다. 마커 포인트 위치 표시 방법은 단말기에 적용될 수 있다. 도 13을 참조하면, 마커 포인트 위치 표시 방법은 이하를 포함한다.
1301. 단말기가 단말기 화면 상에서 터치 이벤트 또는 클릭 이벤트를 획득한다.
도 3에 도시된 바와 같이, 도 3은 게임 애플리케이션의 애플리케이션 인터페이스이다. 사용자가 애플리케이션 인터페이스 상에서 조작을 수행하여, 예를 들어 애플리케이션 인터페이스 상에서 손가락의 화면 터치 조작 또는 마우스의 클릭 조작을 수행할 수 있다.
1302. 터치 이벤트 또는 클릭 이벤트의 조작 위치가 전역 맵이 위치한 영역에 위치하는 경우, 단말기가 전역 맵에서의 조작 위치에 대응하는 위치를 마커 포인트 위치로 결정한다.
도 3에 도시된 바와 같이, 단말기는 현재의 표시 인터페이스의 우측 상단 모서리에 전역 맵을 제공할 수 있고, 터치 이벤트 또는 클릭 이벤트의 조작 위치가 우측 상단 모서리에 있는 전역 맵에서의 임의의 위치에 위치하는 경우, 단말기가 물방울 아이콘으로 위치를 표시할 수 있다.
도 5에 도시된 바와 같이, 터치 이벤트 또는 클릭 이벤트의 조작 위치가 우측 상단 모서리에 있는 전역 맵에 위치하는 경우, 단말기가 우측 절반 화면 영역으로 추가로 전환하여 전역 맵을 표시할 수 있다.
1303. 단말기가 현재의 피제어 대상의 연관된 대상이 위치하는 단말기에 마커 포인트 위치를 전송한다.
도 7에 도시된 바와 같이, 단말기가 연관련 대상의 위치를 현재의 표시 인터페이스에 추가로 표시할 수 있다.
1304. 단말기가 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역을 결정한다.
목표 장면 영역은 가상 장면에서 마커 포인트 위치에 대응하는 장면 위치 좌표의 사전 설정된 제1 범위에 있는 영역이거나; 또는 장면 위치 좌표에 대응하는 지물 요소가 위치하는 영역이거나; 또는 위치 좌표와 장면 영역 사이의 대응관계에 있는 전역 맵에서의 마커 포인트 위치의 위치 좌표에 대응하는 장면 영역일 수 있다.
도 9에 도시된 바와 같이, 단말기는 장면 위치 좌표를 원의 중심(즉, 점 O), 반지름이 R인 원형 영역을 목표 장면 영역으로 사용할 수 있다. 단말기는 대안적으로, 장면 위치 좌표가 중심이고, 사전 설정된 거리가 변 길이인 정사각형을 목표 장면 영역으로 사용할 수 있다.
1305. 단말기가 현재의 피제어 대상의 시야각 이미지가 목표 장면 영역을 포함하는지 여부를 판정한다.
시야각 이미지는 가상 장면 내의 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면이다.
1306. 시야각 이미지가 목표 장면 영역을 포함하지 않는 경우, 단말기가 목표 장면 영역을 향하는 방향을 따라 시야각 이미지의 수평선 위치에 프롬프트 신호를 표시한다.
프롬프트 신호는 목표 장면 영역을 향하는 방향을 따라 먼 수평선 위치에서 한 줄기의 연기 또는 깜박이는 신호등일 수 있다.
1307. 시야각 이미지가 목표 장면 영역을 포함하는 경우, 단말기가 시야각 이미지 내의 목표 장면 영역에 텍스트 프롬프트, 또는 아이콘 프롬프트, 또는 특수한 표시 효과를 표시한다.
도 10에 도시된 바와 같이, 목표 장면 영역은 원형 영역일 수 있고, 단말기는 원형 영역을 시야각 이미지 내의 다른 영역과 구별하기 위해 주변 색과 다른 목표 색상으로 원형 영역을 강조할 수 있다.
1308. 현재의 피제어 대상의 위치가 목표 장면 영역에 위치하거나 또는 마커 포인트 위치가 갱신된 경우, 단말기가 시야각 이미지에 텍스트 프롬프트, 또는 아이콘 프롬프트, 또는 특수한 표시 효과를 표시하는 것을 중지한다.
단계 1301 내지 단계 1308의 절차는 이전 실시예의 단계 201 내지 단계 205의 절차와 유사하고, 본 개시의 본 실시예에서 단계 1301 내지 단계 1308의 구체적인 절차를 다시 설명하지 않는다.
본 개시의 실시예에서, 현재의 피제어 대상이 프롬프트 신호에 따라 정확하고 신속하게 목표 장면 영역에 도달할 수 있도록, 단말기는 전역 맵에서의 마커 포인트 위치를 획득하고, 마커 포인트 위치를 연관된 대상에 동기화하며, 마커 포인트 위치에 기초하여 마커 포인트 위치에 대응하는 장면 영역을 현재의 피제어 대상의 시야각 이미지에 분명하고 정확하게 마킹함으로써, 마커 포인트 위치를 실제 표시하는 정확도를 크게 향상시킨다.
도 14는 본 발명의 일 실시예에 따른 마커 포인트 위치 표시 장치의 개략적인 구조도이다. 도14를 참조하면, 마커 포인트 위치 표시 장치는 획득 모듈(1401), 결정 모듈(1402), 및 표시 모듈(1403)을 포함한다.
획득 모듈(1401)은 가상 장면의 전역 맵에서 마커 포인트 위치를 획득하도록 구성되고, 전역 맵은 가상 장면의 썸네일을 표시하도록 구성된다.
결정 모듈(1402)은 가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하도록 구성되고, 목표 장면 영역은 마커 포인트 위치가 나타내는 영역이다.
표시 모듈(1403)은 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하도록 구성되고, 프롬프트 신호는 가상 장면 내의 목표 장면 영역의 위치를 프롬프트하는 데 사용되고, 시야각 이미지는 가상 장면 내의 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면이다.
선택적으로, 결정 모듈(1402)은 추가적으로, 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면에서의 마커 포인트 위치에 대응하는 장면 위치 좌표를 결정하고, 장면 위치 좌표의 사전 설정된 제1 범위 내의 영역을 목표 장면 영역으로 결정하도록 구성된다.
선택적으로, 결정 모듈(1402)은 추가적으로, 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면 내의 마커 포인트 위치의 장면 위치 좌표를 결정하고, 장면 위치 좌표의 지물 요소에 대응하는 영역을 목표 장면 영역으로 결정하도록 구성된다.
선택적으로, 결정 모듈(1402)은 추가적으로, 전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라, 가상 장면에서의 위치 좌표에 대응하는 목표 장면 영역에 대한 위치 좌표와 장면 영역 사이의 대응 관계를 룩업하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 현재의 피제어 대상의 시야각 이미지가 목표 장면 영역을 포함하는 경우, 목표 장면 영역의 사전 설정된 제2 범위에 프롬프트 신호를 표시하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 현재의 피제어 대상의 시야각 이미지가 목표 장면 영역을 포함하지 않는 경우, 목표 장면 영역을 향하는 방향으로 시야각 이미지에 프롬프트 신호를 표시하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제3 범위에 텍스트 프롬프트를 표시하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제4 범위에 아이콘 프롬프트를 추가하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 목표 장면 영역의 원래 표시 색상을 지정된 색상으로 변경하는 단계를 포함한다.
선택적으로, 표시 모듈(1403)은 추가적으로, 목표 장면 영역의 층의 상부 층에 동적인 픽처(dynamic picture)를 표시하도록 구성된다.
선택적으로, 표시 모듈(1403)은 추가적으로, 사전 설정된 제5 범위에 특수한 플리커 효과를 재생하도록 구성된다.
선택적으로, 마커 포인트 위치 표시 장치는,
현재의 피제어 대상의 위치가 목표 장면 영역에 위치하거나 또는 마커 포인트 위치가 갱신된 경우, 시야각 이미지에 프롬프트 신호를 표시하는 것을 중단하도록 구성된 중단 모듈을 더 포함한다.
선택적으로, 획득 모듈(1401)은 추가적으로, 전역 맵 상의 선택 조작이 검출될 때, 선택 조작을 통해 선택된 위치 좌표를 획득하고, 위치 좌표에 대응하는 위치를 마커 포인트 위치로 결정하도록 구성된다.
선택적으로, 획득 모듈(1401)은 추가적으로, 현재의 피제어 대상의 연관된 대상에 의해 선택된 마커 포인트 위치를 수신하도록 구성된다.
본 개시의 실시예에서, 단말기가 전역 맵에서 마커 포인트 위치를 획득할 때, 현재의 피제어 대상이 프롬프트 신호에 따라 목표 장면 영역에 정확하고 빠르게 도달할 수 있도록, 단말기가 가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역에 기초하여 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하여 가상 장면 내의 목표 장면 영역의 위치를 분명하고 정확하게 마킹함으로써, 마커 포인트 위치를 실제 표시하는 정확도 크게 향상시킬 수 있다.
전술한 선택적인 기술적 해결책의 어떠한 조합도 본 개시의 선택적 실시예를 획득하는 데 사용될 수 있다. 여기서는 세부 사항에 대해 다시 설명하지 않는다.
전술한 실시예에서 제공된 마커 포인트 위치 표시 장치가 마커 포인트 위치 표시를 수행할 때, 전술한 기능 모듈의 분할만이 설명을 위한 예로 사용된다. 실제 적용에서, 전술한 기능은 요구 사항에 따라 구현을 위한 다른 기능 모듈에 할당될 수 있다. 즉, 단말기의 내부 구조는 전술한 기능 중 일부 또는 전부를 구현하기 위해 상이한 기능 모듈로 분할된다. 또한, 전술한 실시예에서 제공된 마커 포인트 위치 표시 장치와 마커 포인트 위치 표시 방법의 실시예는 동일한 개념에 속한다. 구체적인 구현 과정에 대해서는, 방법 실시예를 참조할 수 있으며, 여기서는 세부 사항에 대해 다시 설명하지 않는다.
전술한 선택적인 기술적 해결책의 어떠한 조합도 본 개시의 선택적인 실시예를 획득하는 데 사용될 수 있다. 여기서는 세부 사항에 대해 다시 설명하지 않는다.
전술한 실시예에서 제공된 마커 포인트 위치 표시 장치가 마커 포인트 위치 표시를 수행할 때, 전술한 기능 모듈의 분할만이 설명을 위한 예로 사용된다. 실제 적용에서, 전술한 기능은 요구 사항에 따라 구현을 위해 다른 기능 모듈에 할당될 수 있다. 즉, 단말기의 내부 구조는 전술한 기능 중 일부 또는 전부를 구현하기 위해 상이한 기능 모듈로 분할된다. 또한, 전술한 실시예에서 제공된 마커 포인트 위치 표시 장치 및 마커 포인트 위치 표시 방법의 실시예는 동일한 개념에 속한다. 구체적인 구현 과정에 대해서는, 방법 실시예를 참조할 수 있으며, 여기서는 세부 사항에 대해 다시 설명하지 않는다.
도 15는 본 개시의 예시적인 실시예에 따른 전자 장치(1500)의 구조 블록도이다. 전자 장치(1500)는 스마트폰, 태블릿 컴퓨터, MP3(Moving Picture Expert Group Audio Layer III) 플레이어, MP4(Moving Picture Experts Group Audio Layer IV) 플레이어, 노트북 컴퓨터, 또는 데스크탑 컴퓨터일 수 있다. 전자 장치(1500)는 사용자 장비, 휴대용 단말기, 랩탑 단말기, 또는 데스크탑 단말기와 같은 다른 이름으로 불릴 수도 있다.
일반적으로, 전자 장치(1500)는 프로세서(1501)와 메모리(1502)를 포함한다.
프로세서(1501)는 하나 이상의 처리 코어를 포함할 수 있으며, 예를 들어 4-코어 프로세서 또는 8-코어 프로세서일 수 있다. 프로세서(1501)는 디지털 신호 처리(digital signal processing, DSP), 필드 프로그램 가능 게이트 어레이(field-programmable gate array, FPGA), 및 프로그램 가능 로직 어레이(programmable logic array, PLA) 중 적어도 하나의 하드웨어 형태로 구현될 수 있다. 프로세서(1501)는 메인 프로세서와 보조 프로세서를 포함할 수 있다. 메인 프로세서는 어웨이크 상태(awake state)에서 데이터를 처리하도록 구성된 프로세서이고, 중앙 처리 장치(CPU)라고도 한다. 보조 프로세서는 대기 상태에서 데이터를 처리하도록 구성된 저전력 프로세서이다. 일부 실시예에서, 프로세서(1501)는 그래픽 처리 장치(graphics processing unit, GPU)와 통합될 수 있다. GPU는 표시 화면에 표시될 필요가 있는 콘텐츠를 렌더링하여 표현하는 것을 담당하도록 구성된다. 일부 실시예에서, 프로세서(1501)는 인공 지능(artificial intelligence, AI) 프로세서를 더 포함할 수 있다. AI 프로세서는 기계 학습과 관련된 컴퓨팅 연산을 처리하도록 구성된다.
메모리(1502)는 하나 이상의 컴퓨터 판독가능 저장 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 비일시적일 수 있다. 메모리(1502)는 고속 랜덤 액세스 메모리, 및 비휘발성 메모리, 예컨대 하나 이상의 자기 디스크 저장 장치와 플래시 메모리 장치를 더 포함할 수 있다. 일부 실시예에서, 메모리(1502) 내의 비일시적 컴퓨터 판독가능 저장 매체는 적어도 하나의 명령을 저장하도록 구성되고, 적어도 하나의 명령은 프로세서(1501)에 의해 실행될 때, 본 출원의 방법 실시예에서 제공된 마커 포인트 위치 표시 방법의 다음 단계, 즉,
가상 장면의 전역 맵에서 마커 포인트 위치를 획득하는 단계 - 전역 맵은 가상 장면의 썸네일을 표시하도록 구성되어 있음 -;
가상 장면에서 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하는 단계 - 목표 장면 영역은 마커 포인트 위치에 의해 마킹된 영역임 -; 및
현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 단계 - 프롬프트 신호는 가상 장면 내의 목표 장면 영역의 위치를 프롬프트하는 데 사용되고, 시야각 이미지는 가상 장면 내의 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면임 -를 구현하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면에서의 마커 포인트 위치에 대응하는 장면 위치 좌표를 결정하고, 장면 위치 좌표의 사전 설정된 제1 범위 내의 영역을 목표 장면 영역으로 결정하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라 가상 장면 내의 마커 포인트 위치의 장면 위치 좌표를 결정하고, 장면 위치 좌표의 지물 요소에 대응하는 영역을 목표 장면 영역으로 결정하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
전역 맵에서의 마커 포인트 위치의 위치 좌표에 따라, 가상 장면 내의 위치 좌표에 대응하는 목표 장면 영역에 대한 위치 좌표와 장면 영역 사이의 대응 관계를 룩업하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
현재의 피제어 대상의 시야각 이미지가 목표 장면 영역을 포함하는 경우, 목표 장면 영역의 사전 설정된 제2 범위에 프롬프트 신호를 표시하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
현재의 피제어 대상의 시야각 이미지가 목표 장면 영역을 포함하지 않는 경우, 목표 장면 영역을 향하는 방향으로 시야각 이미지에 프롬프트 신호를 표시하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제3 범위에 텍스트 프롬프트를 표시하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제4 범위에 아이콘 프롬프트를 추가하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
시야각 이미지 내의 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
목표 장면 영역의 원래 표시 색상을 목표 색상으로 변경하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
목표 장면 영역의 층의 상부 층에 동적 픽처를 표시하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서 (1501)는 추가적으로,
사전 설정된 제5 범위에 특수한 플리커 효과를 재생하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
현재의 피제어 대상의 위치가 목표 장면 영역에 위치하거나 또는 마커 포인트 위치가 갱신된 경우, 시야각 이미지에 프롬프트 신호를 표시하는 단계를 중단하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
전역 맵 상의 선택 조작이 검출된 경우, 선택 조작을 통해 선택된 위치 좌표를 획득하고, 위치 좌표에 대응하는 위치를 마커 포인트 위치로 결정하는 단계를 수행하도록 구성된다.
가능한 구현에서, 프로세서(1501)는 추가적으로,
현재의 피제어 대상의 연관된 대상에 의해 선택된 마커 포인트 위치를 수신하는 단계를 수행하도록 구성된다.
일부 실시예에서, 전자 장치(1500)는 주변 장치 인터페이스(1503)와 적어도 하나의 주변 장치를 선택적으로 포함할 수 있다. 프로세서(1501), 메모리(1502), 및 주변 장치 인터페이스(1503)는 버스 또는 신호 케이블을 통해 연결될 수 있다. 각각의 주변 장치는 버스, 또는 신호 케이블, 또는 회로 기판을 통해 주변 장치 인터페이스(1503)에 연결될 수 있다. 구체적으로, 주변 장치는 무선 주파수(radio frequency, RF) 회로(1504), 터치 표시 화면(1505), 카메라 컴포넌트(1506), 오디오 주파수 회로(1507), 포지셔닝 컴포넌트(positioning component, 1508), 및 전원(1509) 중 적어도 하나를 포함한다.
주변 장치 인터페이스(1503)는 입력/출력(I/O)과 관련된 적어도 하나의 주변 장치를 프로세서(1501) 및 메모리(1502)에 연결하도록 구성될 수 있다. 일부 실시예에서, 프로세서(1501), 메모리(1502), 및 주변 장치 인터페이스(1503)는 동일한 칩 또는 회로 기판에 통합된다. 다른 일부 실시예에서, 프로세서(1501), 메모리(1502), 및 주변 장치 인터페이스(1503) 중 어느 하나 또는 둘은 독립적인 칩이나 회로 기판에 구현될 수 있으며, 이러한 구현은 본 실시예에서 제한되지 않는다.
RF 회로(1504)는 전자기파 신호라고도 하는 RF 신호를 송수신하도록 구성된다. RF 회로(1504)는 전자기파 신호를 이용하여 통신 네트워크 및 다른 통신 장치와 통신한다. RF 회로(1504)는 전송을 위해 전기 신호를 전자기파 신호로 변환하거나, 또는 수신된 전자기파 신호를 전기 신호로 변환할 수 있다. 선택적으로, RF 회로(1504)는 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 오실레이터, 디지털 신호 프로세서, 코덱 칩셋, 및 가입자 식별 모듈 카드 등을 포함한다. RF 회로(1504)는 적어도 하나의 유형의 무선 통신 프로토콜을 이용하여 다른 단말기와 통신할 수 있다. 무선 통신 프로토콜은 도시권 네트워크(metropolitan area network), 이동 통신 네트워크(2G, 3G, 4G 및 5G)의 세대, 무선 근거리 네트워크 및/또는 와이파이(wireless fidelity, Wi-Fi) 네트워크를 포함하지만 이에 제한되지 않는다. 일부 실시예에서, RF 회로(1504)는 근거리 무선 통신(near field communication, NFC) 관련 회로를 더 포함할 수 있고, 본 출원에서 제한되지 않는다.
표시 화면(1505)은 사용자 인터페이스(user interface, UI)를 표시하도록 구성된다. UI는 그래프, 텍스트, 아이콘, 비디오, 및 이들의 임의의 조합을 포함할 수 있다. 표시 화면(1505)이 터치 표시 화면인 경우, 표시 화면(1505)은 표시 화면(1505)의 표면 위에서 또는 표면에서 터치 신호를 수집할 수 있다. 터치 신호는 처리를 위한 제어 신호로서 프로세서(1501)에 입력될 수 있다. 이 경우, 표시 화면(1505)은 추가적으로, 소프트 버튼 및/또는 소프트 키보드라고도 하는 가상 버튼 및/또는 가상 키보드를 제공하도록 구성될 수 있다. 일부 실시예에서, 전자 장치(1500)의 전면 패널 상에 배치된 하나의 표시 화면(1505)이 존재한다. 다른 일부 실시예에서, 전자 장치(1500)의 서로 다른 표면에 각각 배치되거나, 또는 접을 수 있는 형태로 설계된 적어도 2개의 표시 화면(1505)이 있을 수 있다. 또 다른 실시예에서, 표시 화면(1505)은 전자 장치(1500)의 곡면 또는 접힌 표면 상에 배치된 가요성 표시 화면일 수 있다. 심지어, 표시 화면(1505)은 직사각형 이외의 불규칙 그래프, 즉 특수한 형상의 화면을 가지도록 추가로 설정될 수 있다. 표시 화면(1505)은 액정 디스플레이(liquid crystal display, LCD) 또는 유기 발광 다이오드(organic light-emitting diodeOLED) 등과 같은 재료를 이용하여 제조될 수 있다.
카메라 컴포넌트(1506)는 이미지 또는 비디오를 수집하도록 구성된다. 선택적으로, 카메라 구성 요소 (1506)는 전방 카메라와 후방 카메라를 포함한다. 일반적으로, 전면 카메라는 단말기의 전면 패널에 배치되고, 후면 카메라는 단말기의 후면에 배치된다. 일부 실시예에서, 적어도 2개의 후방 카메라가 있고, 각각은 메인 카메라와 필드 카메라의 심도의 융합을 통해 보케(Bokeh function) 기능, 메인 카메라와 광각 카메라의 융합을 통해 파노라마 사진 촬영 및 가상 현실(virtual reality, VR) 촬영 기능, 또는 다른 융합 촬영 기능을 구현하기 위해 메인 카메라, 필드 카메라의 심도, 광각 카메라, 및 망원 카메라 중 어느 하나이다. 일부 실시예에서, 카메라 컴포넌트(1506)는 플래시를 더 포함할 수 있다. 플래시는 단일 색상 온도 플래시 또는 이중 색상 온도 플래시일 수 있다. 이중 색상 온도 플래시는 웜 플래시와 콜드 플래시의 조합을 지칭하며, 다른 색상 온도에서 광선 보정을 수행하도록 구성될 수 있다.
오디오 주파수 회로(1507)는 마이크와 확성기를 포함할 수 있다. 확성기는 사용자와 환경의 음파를 수집하고, 음파를 전기 신호로 변환하여 처리를 위해 프로세서(1501)에 전기 신호를 입력하거나, 또는 전기 신호를 무선 주파수 회로(1504)에 입력하여 음성 통신을 구현하도록 구성된다. 스테레오 사운드 수집 또는 노이즈 감소를 위해, 복수의 마이크로폰이 전자 장치(1500)의 서로 다른 부분에 각각 배치될 수 있다. 마이크는 또한 마이크 어레이 또는 무지향성 수집 마이크일 수 있다. 확성기는 프로세서(1501) 또는 RF 회로(1504)로부터의 전기 신호를 음파로 변환하도록 구성된다. 확성기는 종래의 박막 확성기 또는 압전 세라믹 확성기일 수 있다. 확성기가 압전 세라믹 확성기인 경우, 전기 신호는 사람이 들을 수 있는 음파로 변환될 수 있을 뿐만 아니라 거리 측정을 위해 사람이 들을 수 없는 음파로 변환될 수 있다. 일부 실시예에서, 오디오 주파수 회로(1507)는 이어폰 잭을 더 포함할 수 있다.
포지셔닝 컴포넌트(1508)는 전자 장치(1500)의 현재 지리적 위치를 포지셔닝하여 내비게이션 또는 위치 기반 서비스(location based service, LBS)를 구현하도록 구성된다. 포지셔닝 컴포넌트(1508)는 미국의 GPS(Global Positioning System), 중국의 바이두 위성 항법 시스템(BeiDou Navigation Satellite System), 러시아의 Glonass 시스템, 또는 유럽 연합의 Galileo 시스템에 기반한 포지셔닝 컴포넌트일 수 있다.
전원(1509)는 전자 장치(1500)의 구성 요소에 전력을 공급하도록 구성된다. 전원(1509)은 교류, 또는 직류, 또는 1차 전지, 또는 2차 전지일 수 있다. 전원(1509)이 2차 전지를 포함하는 경우, 2차 전지는 유선 충전 또는 무선 충전을 지원할 수 있다. 2차 전지는 빠른 충전 기술을 지원하도록 추가로 구성될 수 있다.
일부 실시예에서, 전자 장치(1500)는 하나 이상의 센서(1510)를 더 포함한다. 하나 이상의 센서(1510)는 가속도 센서(1511), 자이로스코프 센서(1512), 압력 센서(1513), 지문 센서(1514), 광 센서(1515), 및 근접 센서(1516)를 포함하지만 이에 제한되지 않는다.
가속도 센서(1511)는 전자 장치(1500)에 의해 구축된 좌표계의 3개의 좌표축에서 가속도를 검출할 수 있다. 예를 들어, 가속도 센서(1511)는 3개의 좌표축 상의 중력 가속도의 성분을 검출하도록 구성될 수 있다. 프로세서(1501)는 가속도 센서(1511)에 의해 수집된 중력 가속도 신호에 따라, 터치 표시 화면(1505)을 제어하여 가로 보기 또는 세로 보기로 UI를 표시할 수 있다. 가속도 센서(1511)는 게임 또는 사용자의 움직임 데이터를 수집하도록 추가로 구성될 수 있다.
자이로스코프 센서(1512)는 전자 장치(1500)의 본체 방향과 회전 각도를 검출할 수 있다. 자이로스코프 센서(1512)는 가속도 센서(1511)와 협력하여 전자 장치(1500) 상에서 사용자에 의해 수행되는 3D 액션을 수집할 수 있다. 프로세서(1501)는 자이로스코프 센서(1512)에 의해 수집된 데이터에 따라, 움직임 감지(예를 들어, 사용자의 틸트 동작에 따라 UI가 변경됨), 촬영 중 이미지 안정화, 및 게임 제어, 및 관성 항법(inertial navigation)과 같은 기능을 구현할 수 있다.
압력 센서(1513)는 전자 장치(1500)의 측면 프레임 및/또는 터치 표시 화면 (1505)의 하부 층에 배치될 수 있다. 전자 장치(1500)의 측면 프레임에 압력 센서(1513)가 배치된 경우, 전자 장치(1500) 상에서 사용자의 유지 신호가 검출될 수 있다. 프로세서(1501)는 압력 센서(1513)에 의해 수집된 유지 신호에 따라 왼손 및 오른손 인식 또는 빠른 조작을 수행한다. 압력 센서(1513)가 터치 표시 화면(1505)의 하부 층에 배치된 경우, 프로세서(1501)는 터치 표시 화면(1505) 상의 사용자의 압력 조작에 따라 UI 인터페이스에 대해 조작 가능한 제어를 제어한다. 조작 가능한 제어는 버튼 제어, 스크롤 바 제어, 아이콘 제어, 및 메뉴 제어 중 적어도 하나를 포함한다.
지문 센서(1514)는 사용자의 지문을 수집하도록 구성된다. 프로세서(1501)는 지문 센서(1514)에 의해 수집된 지문에 따라 사용자의 신원을 식별하거나, 또는 지문 센서(1514)는 수집된 지문에 따라 사용자의 신원을 식별한다. 사용자의 신원이 신뢰할 수 있는 신원으로 식별되는 경우, 프로세서(1501)는 관련된 민감한 조작을 수행하도록 사용자에게 권한을 부여한다. 민감한 조작은 화면 잠금 해제, 암호화된 정보 보기, 소프트웨어 다운로드, 결제, 및 설정 변경 등을 포함한다. 지문 센서(1514)는 전자 장치(1500)의 전면, 또는 후면, 또는 측면에 배치될 수 있다. 물리적 버튼 또는 벤더 로고가 전자 장치(1500)에 배치된 경우, 지문 센서(1514)는 물리적 버튼 또는 벤더 로고와 함께 통합될 수 있다.
광 센서(1515)는 주변 광 세기를 수집하도록 구성된다. 일 실시예에서, 프로세서(1501)는 광 센서(1515)에 의해 수집된 주변 광 세기에 따라 터치 표시 화면(1505)의 표시 휘도를 제어할 수 있다. 구체적으로, 주변 광 세기가 상대적으로 높은 경우, 터치 표시 화면(1505)의 표시 휘도가 증가된다. 주변 광 세기가 비교적 낮은 경우, 터치 표시 화면(1505)의 표시 휘도가 감소된다. 다른 실시예에서, 프로세서(1501)는 추가적으로, 광 센서(1515)에 의해 수집된 주변 광 세기에 따라 카메라 컴포넌트(1506)의 촬영 파라미터를 동적으로 조정할 수 있다.
거리 센서라고도 하는 근접 센서(1516)는 일반적으로 전자 장치(1500)의 전면 패널에 배치된다. 근접 센서(1516)는 사용자의 앞 얼굴과 전자 장치(1500)의 전면 사이의 거리를 수집하도록 구성된다. 일 실시예에서, 근접 센서(1516)가 사용자의 앞 얼굴과 전자 장치(1500)의 전면 사이의 거리가 점진적으로 감소된다는 것을 검출한 경우, 프로세서(1501)는 화면 켜짐 상태에서 화면 꺼짐 상태로 전환하도록 터치 표시 화면(1505)을 제어한다. 근접 센서(1516)가 사용자의 앞 얼굴과 전자 장치(1500)의 전면 사이의 거리가 점진적으로 증가된다는 것을 검출한 경우, 프로세서(1501)는 화면 꺼짐 상태에서 화면 켜짐 상태로 전환하도록 터치 표시 화면(1505)을 제어한다.
도 15에 도시된 구조가 전자 장치(1500)에 대한 제한을 부과하지 않으며, 전자 장치(1500)가 도면에 도시된 것보다 많거나 적은 구성 요소를 포함할 수 있거나, 또는 일부 구성 요소가 결합될 수 있거나, 또는 다른 구성 요소가 사용될 수 있다는 것을 당업자라면 이해할 수 있을 것이다.
일 실시예의 예에서, 컴퓨터 판독가능 저장 매체, 예를 들어 명령을 포함하는 메모리가 추가로 제공되며, 전술한 명령은 단말기의 프로세서에 의해 실행되어 전술한 실시예의 마커 포인트 위치 표시 방법을 구현할 수 있다. 예를 들어, 컴퓨터 판독가능 저장 매체는 읽기 전용 메모리(read-only memory, ROM), 랜덤 액세스 메모리(random access memory, RAM), CD-ROM, 자기 테이프, 플로피 디스크, 또는 광학 데이터 저장 장치일 수 있다. .
당업자는 실시예의 모든 단계 또는 일부 단계가 하드웨어 또는 관련 하드웨어에 지시하는 프로그램에 의해 구현될 수 있다고 이해할 수 있을 것이다. 이 프로그램은 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 저장 매체는 ROM, 자기 디스크, 또는 광 디스크 등일 수 있다.
전술한 설명은 본 발명의 예시적인 실시예일 뿐이고, 본 발명을 제한하려는 것이 아니다. 본 개시의 사상 및 원리를 벗어나지 않고 이루어지는 어떠한 수정, 등가의 대체, 및 개선도 본 개시의 보호 범위에 속할 것이다.

Claims (20)

  1. 전자 장치에 적용되는 마커 포인트 위치 표시 방법(marker point location display method)으로서,
    가상 장면(virtual scene)의 전역 맵에서 마커 포인트 위치를 획득하는 단계 - 상기 전역 맵은 상기 가상 장면의 썸네일(thumbnail)을 표시하도록 구성되어 있음 -;
    상기 가상 장면에서 상기 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하는 단계 - 상기 목표 장면 영역은 상기 마커 포인트 위치에 의해 마킹된 영역임 -; 및
    현재의 피제어 대상(controlled object)의 시야각 이미지에 프롬프트 신호를 표시하는 단계 - 상기 프롬프트 신호는 상기 가상 장면 내의 상기 목표 장면 영역의 위치를 프롬프트하는 데 사용되고, 상기 시야각 이미지는 상기 가상 장면 내의 상기 현재의 피제어 대상의 시야각 범위에서 관찰 가능한 가상 장면임 -
    를 포함하고,
    상기 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 단계는,
    상기 시야각 이미지 내의 상기 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하는 단계
    를 포함하는,
    마커 포인트 위치 표시 방법.
  2. 제1항에 있어서,
    상기 가상 장면에서 상기 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하는 단계는,
    상기 전역 맵에서의 상기 마커 포인트 위치의 위치 좌표에 따라 상기 가상 장면에서의 상기 마커 포인트 위치에 대응하는 장면 위치 좌표를 결정하고, 상기 장면 위치 좌표의 사전 설정된 제1 범위 내의 영역을 상기 목표 장면 영역으로 결정하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  3. 제1항에 있어서,
    상기 가상 장면에서 상기 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하는 단계는,
    상기 전역 맵에서의 상기 마커 포인트 위치의 위치 좌표에 따라 상기 가상 장면에서의 상기 마커 포인트 위치의 장면 위치 좌표를 결정하고, 상기 장면 위치 좌표의 지물 요소(ground object element)에 대응하는 영역을 상기 목표 장면 영역으로 결정하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  4. 제1항에 있어서,
    상기 가상 장면에서 상기 마커 포인트 위치가 나타내는 목표 장면 영역을 결정하는 단계는,
    상기 전역 맵에서의 상기 마커 포인트 위치의 위치 좌표에 따라, 상기 가상 장면에서의 상기 위치 좌표에 대응하는 상기 목표 장면 영역에 대한 상기 위치 좌표와 장면 영역 사이의 대응 관계를 룩업(look up)하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  5. 제1항에 있어서,
    상기 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 단계는,
    상기 현재의 피제어 대상의 시야각 이미지가 상기 목표 장면 영역을 포함하는 경우, 상기 목표 장면 영역의 사전 설정된 제2 범위에 상기 프롬프트 신호를 표시하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  6. 제1항에 있어서,
    상기 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 단계는,
    상기 현재의 피제어 대상의 시야각 이미지가 상기 목표 장면 영역을 포함하지 않는 경우, 상기 목표 장면 영역을 향하는 방향으로 상기 시야각 이미지에 상기 프롬프트 신호를 표시하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  7. 제1항에 있어서,
    상기 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 단계는,
    상기 시야각 이미지 내의 상기 목표 장면 영역에 대응하는 사전 설정된 제3 범위에 텍스트 프롬프트를 표시하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  8. 제1항에 있어서,
    상기 현재의 피제어 대상의 시야각 이미지에 프롬프트 신호를 표시하는 단계는,
    상기 시야각 이미지 내의 상기 목표 장면 영역에 대응하는 사전 설정된 제4 범위에 아이콘 프롬프트를 추가하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  9. 제1항에 있어서,
    상기 시야각 이미지 내의 상기 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하는 단계는,
    상기 목표 장면 영역의 원래 표시 색상을 목표 색상으로 변경하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  10. 제1항에 있어서,
    상기 시야각 이미지 내의 상기 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하는 단계는,
    상기 목표 장면 영역의 층의 상부 층에 동적인 픽처(dynamic picture)를 표시하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  11. 제1항에 있어서,
    상기 시야각 이미지 내의 상기 목표 장면 영역에 대응하는 사전 설정된 제5 범위에 특수한 표시 효과를 추가하는 단계는,
    상기 사전 설정된 제5 범위에 특수한 플리커 효과를 재생하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  12. 제1항에 있어서,
    상기 현재의 피제어 대상의 위치가 상기 목표 장면 영역에 위치하거나 또는 상기 마커 포인트 위치가 갱신된 경우, 상기 시야각 이미지에 상기 프롬프트 신호를 표시하는 단계를 중단하는 단계
    를 더 포함하는 마커 포인트 위치 표시 방법.
  13. 제1항에 있어서,
    상기 가상 장면의 전역 맵에서 마커 포인트 위치를 획득하는 단계는,
    상기 전역 맵 상의 선택 조작이 검출되는 경우, 상기 선택 조작을 통해 선택된 위치 좌표를 획득하고, 상기 위치 좌표에 대응하는 위치를 상기 마커 포인트 위치로 결정하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법..
  14. 제1항에 있어서,
    상기 가상 장면의 전역 맵에서 마커 포인트 위치를 획득하는 단계는,
    상기 현재의 피제어 대상의 연관된 객체에 의해 선택된 상기 마커 포인트 위치를 수신하는 단계
    를 포함하는, 마커 포인트 위치 표시 방법.
  15. 전자 장치로서,
    하나 이상의 프로세서; 및
    컴퓨터 프로그램을 저장하도록 구성된 메모리;
    를 포함하고,
    상기 프로세서는 제1항 내지 제14항 중 어느 한 항의 마커 포인트 위치 표시 방법을 수행하기 위해 상기 메모리에 저장된 상기 컴퓨터 프로그램을 실행하도록 구성된, 전자 장치.
  16. 컴퓨터 판독가능 저장매체로서,
    상기 컴퓨터 판독가능 저장매체는 적어도 하나의 명령을 저장하고, 상기 명령은 제1항 내지 제14항 중 어느 한 항의 마커 포인트 위치 표시 방법에서 수행되는 조작을 수행하기 위해 프로세서에 의해 로딩되어 실행되는, 컴퓨터 판독가능 저장매체.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020207018243A 2018-03-22 2019-03-07 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체 KR102410802B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810241937.6A CN108465240B (zh) 2018-03-22 2018-03-22 标记点位置显示方法、装置、终端及计算机可读存储介质
CN201810241937.6 2018-03-22
PCT/CN2019/077294 WO2019179314A1 (zh) 2018-03-22 2019-03-07 标记点位置显示方法、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
KR20200087260A KR20200087260A (ko) 2020-07-20
KR102410802B1 true KR102410802B1 (ko) 2022-06-22

Family

ID=63265685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207018243A KR102410802B1 (ko) 2018-03-22 2019-03-07 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체

Country Status (5)

Country Link
US (1) US11221726B2 (ko)
JP (1) JP7058842B2 (ko)
KR (1) KR102410802B1 (ko)
CN (1) CN108465240B (ko)
WO (1) WO2019179314A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108465240B (zh) * 2018-03-22 2020-08-11 腾讯科技(深圳)有限公司 标记点位置显示方法、装置、终端及计算机可读存储介质
CN109701271A (zh) * 2018-12-24 2019-05-03 网易(杭州)网络有限公司 显示图标的方法、装置和系统
CN111385525B (zh) * 2018-12-28 2021-08-17 杭州海康机器人技术有限公司 视频监控方法、装置、终端及系统
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN109976650B (zh) * 2019-01-25 2021-03-02 网易(杭州)网络有限公司 人机交互方法、装置和电子设备
CN109806585B (zh) * 2019-02-19 2024-02-23 网易(杭州)网络有限公司 游戏的显示控制方法、装置、设备和存储介质
CN111957032B (zh) * 2019-02-22 2024-03-08 网易(杭州)网络有限公司 游戏角色控制方法、装置、设备和存储介质
CN110058684B (zh) * 2019-03-21 2022-07-01 海南诺亦腾海洋科技研究院有限公司 一种基于vr技术的地理信息交互方法、系统及存储介质
CN110115838B (zh) 2019-05-30 2021-10-29 腾讯科技(深圳)有限公司 虚拟环境中生成标记信息的方法、装置、设备及存储介质
CN110270098B (zh) 2019-06-21 2023-06-23 腾讯科技(深圳)有限公司 控制虚拟对象对虚拟物品进行标记的方法、装置及介质
CN110473146B (zh) * 2019-08-16 2022-12-27 苏州超擎图形软件科技发展有限公司 遥感图像显示方法、装置及存储介质和计算机设备
CN110807826B (zh) * 2019-10-30 2023-04-07 腾讯科技(深圳)有限公司 虚拟场景中的地图显示方法、装置、设备及存储介质
CN111369684B (zh) * 2019-12-10 2023-09-01 杭州海康威视系统技术有限公司 目标跟踪方法、装置、设备及存储介质
CN111318019B (zh) * 2020-03-02 2021-12-28 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN111589114B (zh) * 2020-05-12 2023-03-10 腾讯科技(深圳)有限公司 虚拟对象的选择方法、装置、终端及存储介质
CN111760288B (zh) * 2020-06-10 2024-03-12 网易(上海)网络有限公司 虚拟三维场景中方位显示方法、装置、终端和存储介质
CN111672125B (zh) * 2020-06-10 2022-03-01 腾讯科技(深圳)有限公司 一种虚拟对象交互的方法以及相关装置
CN111744181A (zh) * 2020-07-01 2020-10-09 网易(杭州)网络有限公司 游戏中信息的显示方法、装置、游戏客户端及介质
CN111773703B (zh) * 2020-07-31 2023-10-20 网易(杭州)网络有限公司 游戏对象显示方法、装置、存储介质与终端设备
CN113064955B (zh) * 2020-08-26 2022-02-25 视伴科技(北京)有限公司 一种显示地理标记信息的方法及装置
CN112116719B (zh) * 2020-08-28 2024-05-10 北京五一视界数字孪生科技股份有限公司 三维场景中对象的确定方法、装置、存储介质和电子设备
US11351457B2 (en) * 2020-09-11 2022-06-07 Riot Games, Inc. Selecting an anchored offset targeting position
CN112121417B (zh) * 2020-09-30 2022-04-15 腾讯科技(深圳)有限公司 虚拟场景中的事件处理方法、装置、设备及存储介质
CN112507651A (zh) * 2020-11-30 2021-03-16 上海柏楚数控科技有限公司 电路板设计的数据处理方法、装置、电子设备与存储介质
CN112539752B (zh) * 2020-12-11 2023-12-26 维沃移动通信有限公司 室内定位方法、室内定位装置
CN113018864B (zh) * 2021-03-26 2024-02-13 网易(杭州)网络有限公司 虚拟对象的提示方法、装置、存储介质及计算机设备
CN113082702A (zh) * 2021-04-15 2021-07-09 网易(杭州)网络有限公司 游戏的显示控制方法及电子设备
CN113318428A (zh) * 2021-05-25 2021-08-31 网易(杭州)网络有限公司 游戏的显示控制方法、非易失性存储介质及电子装置
CN113421343B (zh) * 2021-05-27 2024-06-04 深圳市晨北科技有限公司 基于增强现实观测设备内部结构的方法
CN113198178B (zh) * 2021-06-03 2023-05-26 腾讯科技(深圳)有限公司 虚拟对象的位置提示方法、装置、终端及存储介质
CN113436253B (zh) * 2021-06-28 2023-05-16 华科融资租赁有限公司 地图的定位显示方法、装置、计算机设备和存储介质
CN113440847A (zh) * 2021-07-01 2021-09-28 网易(杭州)网络有限公司 标记信息的处理方法和装置
CN113426125A (zh) * 2021-07-02 2021-09-24 网易(杭州)网络有限公司 游戏中的虚拟单位控制方法及装置、存储介质、电子设备
CN113608616A (zh) * 2021-08-10 2021-11-05 深圳市慧鲤科技有限公司 虚拟内容的显示方法及装置、电子设备和存储介质
CN113546429A (zh) * 2021-08-12 2021-10-26 网易(杭州)网络有限公司 虚拟对象降落方法、装置、计算机设备及存储介质
CN113722644B (zh) * 2021-09-03 2023-07-21 如你所视(北京)科技有限公司 基于外接设备在虚拟空间选取浏览点位的方法及其装置
JP7319635B2 (ja) * 2021-11-02 2023-08-02 グリー株式会社 コンピュータプログラム、仮想空間表示装置、及び仮想空間表示方法
CN114332417B (zh) * 2021-12-13 2023-07-14 亮风台(上海)信息科技有限公司 一种多人场景交互的方法、设备、存储介质及程序产品
CN114296609B (zh) * 2022-03-09 2022-05-31 广州三七极耀网络科技有限公司 一种界面处理方法、装置、电子设备及存储介质
CN114935973A (zh) * 2022-04-11 2022-08-23 北京达佳互联信息技术有限公司 互动处理方法、装置、设备及存储介质
CN115967779A (zh) * 2022-12-27 2023-04-14 北京爱奇艺科技有限公司 虚拟摄像机机位图的展示方法、装置、电子设备和介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3215306B2 (ja) * 1995-09-19 2001-10-02 株式会社ナムコ 画像合成方法及び装置
JP3765652B2 (ja) * 1996-08-21 2006-04-12 株式会社ナムコ ゲーム装置及び情報記憶媒体
JPH10309381A (ja) * 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
US6079982A (en) * 1997-12-31 2000-06-27 Meader; Gregory M Interactive simulator ride
US7788323B2 (en) * 2000-09-21 2010-08-31 International Business Machines Corporation Method and apparatus for sharing information in a virtual environment
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
JP2006162552A (ja) 2004-12-10 2006-06-22 Pioneer Electronic Corp 情報表示装置、情報表示方法および情報表示プログラム
JP2007014457A (ja) * 2005-07-06 2007-01-25 Sega Corp ビデオゲーム制御プログラムおよびビデオゲーム装置
US7817150B2 (en) * 2005-09-30 2010-10-19 Rockwell Automation Technologies, Inc. Three-dimensional immersive system for representing an automation control environment
KR100809479B1 (ko) * 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US20080030429A1 (en) * 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
JP2008070705A (ja) 2006-09-15 2008-03-27 Cad Center:Kk 画像提供システムおよび画像提供サーバ装置
US20080125218A1 (en) * 2006-09-20 2008-05-29 Kelly James Collins Method of use for a commercially available portable virtual reality system
US9387402B2 (en) * 2007-09-18 2016-07-12 Disney Enterprises, Inc. Method and system for converting a computer virtual environment into a real-life simulation environment
US8368721B2 (en) * 2007-10-06 2013-02-05 Mccoy Anthony Apparatus and method for on-field virtual reality simulation of US football and other sports
JP2011214861A (ja) 2010-03-31 2011-10-27 Zenrin Co Ltd 案内システム
US9338622B2 (en) * 2012-10-04 2016-05-10 Bernt Erik Bjontegard Contextually intelligent communication systems and processes
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
US10142795B2 (en) * 2015-02-16 2018-11-27 Tourblend Innovations, Llc Providing digital content for multiple venues
CN107741818A (zh) * 2017-09-01 2018-02-27 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107715454B (zh) * 2017-09-01 2018-12-21 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN108465240B (zh) * 2018-03-22 2020-08-11 腾讯科技(深圳)有限公司 标记点位置显示方法、装置、终端及计算机可读存储介质

Also Published As

Publication number Publication date
US20200293154A1 (en) 2020-09-17
US11221726B2 (en) 2022-01-11
JP2021511602A (ja) 2021-05-06
JP7058842B2 (ja) 2022-04-25
CN108465240B (zh) 2020-08-11
KR20200087260A (ko) 2020-07-20
WO2019179314A1 (zh) 2019-09-26
CN108465240A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
KR102410802B1 (ko) 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체
CN108619721B (zh) 虚拟场景中的距离信息显示方法、装置及计算机设备
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
KR102500722B1 (ko) 가상 프롭 이전 방법 및 장치와, 전자 기기 및 컴퓨터 저장 매체
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
CN111068324B (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111921197B (zh) 对局回放画面的显示方法、装置、终端及存储介质
CN110917616B (zh) 虚拟场景中的方位提示方法、装置、设备及存储介质
CN109859102B (zh) 特效显示方法、装置、终端及存储介质
CN109646944B (zh) 控制信息处理方法、装置、电子设备及存储介质
CN109173258B (zh) 虚拟对象显示、定位信息发送方法、设备及存储介质
CN112245912B (zh) 虚拟场景中的声音提示方法、装置、设备及存储介质
CN112044069A (zh) 虚拟场景中的对象提示方法、装置、设备及存储介质
WO2022227915A1 (zh) 显示位置标记的方法、装置、设备及存储介质
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
WO2022237076A1 (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
CN113198178B (zh) 虚拟对象的位置提示方法、装置、终端及存储介质
CN112241987B (zh) 确定防区的系统、方法、装置及存储介质
CN111754564B (zh) 视频展示方法、装置、设备及存储介质
CN111383243B (zh) 一种跟踪目标对象的方法、装置、设备和存储介质
CN110152309B (zh) 语音通信方法、装置、电子设备及存储介质
CN112637624B (zh) 直播流处理方法、装置、设备及存储介质
CN112734346B (zh) 航线覆盖范围的确定方法、装置、设备及可读存储介质
CN111754631B (zh) 三维模型的生成方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant