KR102549301B1 - 멀티플레이어 게임에서 장거리 객체의 타겟팅 개선 - Google Patents

멀티플레이어 게임에서 장거리 객체의 타겟팅 개선 Download PDF

Info

Publication number
KR102549301B1
KR102549301B1 KR1020237012208A KR20237012208A KR102549301B1 KR 102549301 B1 KR102549301 B1 KR 102549301B1 KR 1020237012208 A KR1020237012208 A KR 1020237012208A KR 20237012208 A KR20237012208 A KR 20237012208A KR 102549301 B1 KR102549301 B1 KR 102549301B1
Authority
KR
South Korea
Prior art keywords
dynamic image
tool
touch gesture
virtual world
targeting
Prior art date
Application number
KR1020237012208A
Other languages
English (en)
Other versions
KR20230053719A (ko
Inventor
마이클 롱퀴앙 장
알렉산더 닉슨 후앙
캄윙 풍
Original Assignee
라이오트 게임즈, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라이오트 게임즈, 인크. filed Critical 라이오트 게임즈, 인크.
Publication of KR20230053719A publication Critical patent/KR20230053719A/ko
Application granted granted Critical
Publication of KR102549301B1 publication Critical patent/KR102549301B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

멀티플레이어 온라인 배틀 아레나(MOBA) 게임에서 장거리 객체의 타겟팅 개선을 위한 시스템 및 방법이 제공된다. 초기에, MOBA 게임에 의해 제공된 동적 이미지의 도구 선택 영역에서 터치 제스처가 수신되어 사용자는 도구(예컨대, 어빌리티, 가상 무기, 스펠 등)를 선택하여 가상 세계 내의 객체를 타겟팅할 수 있다. 다음으로, 가상 세계의 미니맵에서 제2 터치 제스처가 수신되어 사용자가 제어하는 캐릭터에 대응하는 시점에서 미니맵 내에서 선택된 위치를 나타내는 시점으로 동적 이미지가 자동으로 조정될 수 있다. 마지막으로, 조정된 동적 이미지 내에서 선택된 도구의 타겟 범위를 제공하는 타겟팅 도구에서 제3 터치 제스처가 수신되고 사용자는 보다 정밀하고 정확하게 객체를 타겟팅할 수 있다.

Description

멀티플레이어 게임에서 장거리 객체의 타겟팅 개선
비디오 게임은 플레이어에게 엔터테인먼트, 경쟁 및 지적 자극을 제공한다. 대부분의 멀티플레이어 온라인 배틀 아레나(MOBA) 게임 또는 기타 멀티플레이어 전략 비디오 게임에서, 플레이어의 상황과 관련된 정보를 플레이어에게 전달하는 것은 플레이어의 즐거움에 매우 중요하다. 따라서 게임의 사용자 인터페이스(UI)에서 그래픽 요소의 개발, 구현 및 기능이 중요하다. 예를 들어, MOBA 게임 또는 기타 멀티플레이어 전략 비디오 게임은 종종 등측 투시도의 광대한 가상 세계 또는 가상 맵을 포함한다. 내비게이션, 통신 및 기타 게임 내 액션(예컨대, 타겟팅)과 이러한 가상 세계 내의 통신의 경우, 게임 내 표시를 위해 보통 맵을 선택할 수 있다.
그러나, MOBA 게임의 타겟팅은 이들 게임이 장거리 타겟을 타겟팅하는 데 사용될 수 있는 새로운 도구(예컨대, 어빌리티, 가상 무기, 스펠 등)를 도입하는 경우가 많기 때문에 어려움이 있다. 이들 게임에서, 기존 UI는 장거리 타겟을 타겟팅하는 사용자에게 정밀도 문제를 발생시킨다. 예를 들어, 전형적인 경우, 사용자는 자신에 해당하는 플레이어 객체를 보고 있고, 사용자가 가상의 조이스틱을 조준하면 플레이어 객체의 시점에서 선택된 어빌리티에 대한 범위의 원이 제공된다. 이와 같이, 사용자가 가상 조이스틱을 위로 향하게 하면, 어빌리티는 플레이어 객체로부터 상대적으로 위쪽에 있는 위치를 향하게 된다.
이는 화면 크기와 거의 같은 범위의 원을 가진 도구에 대해서는 잘 작동하지만, 범위의 원이 화면 크기를 초과하면 부족하다. 이는 타겟이 플레이어 객체에서 멀리 떨어져 있거나 도구의 범위가 훨씬 더 넓은 경우일 수 있다. 이 시나리오에서, 특정 도구는 선형 방향(예컨대, 맵을 가로질러 화살이나 레이저 빔을 쏘는 것)을 가질 수 있다. 가상 조이스틱의 크기와 가상 조이스틱이 제공하는 정밀도를 감안할 때, 사용자가 멀리 있는 타겟을 조준하려고 할 때, 가상 조이스틱의 작은 픽셀 수준의 움직임으로 인해 게임 공간 내에서 엄청난 변화가 발생한다. 또한, 사용자는 디스플레이 내에서 타겟을 보지 못할 수도 있다. 이러한 UI 결함으로 인해 전반적으로 정밀도가 떨어지고 범위가 늘어난 새 도구를 효과적으로 활용할 수 없다.
본 개시의 실시예는 장거리 객체의 타겟팅 개선을 제공하는 것에 관한 것이다. 보다 구체적으로, 실시예는 사용자에게 표시되는 가상 세계의 현재 뷰 외부에 있는(즉, 동적 이미지 내에 있지 않은) MOBA 게임 내의 플레이어 객체를 정확하고 정밀하게 타겟팅하기 위한 시스템 및 방법에 관한 것이다. 기본적으로, 설명된 실시예는 가상 세계의 시점을 사용자에 대응하는 플레이어 객체에서 미니맵 상에 선택된 위치로 자동으로 조정하는 능력을 용이하게 한다. 또한, 조정된 동적 이미지는 선택된 도구의 타겟 범위의 크기에 대응하여 사용자가 조정된 동적 이미지가 제공하는 뷰 내에서 플레이어 객체를 타겟팅할 수 있게 한다.
몇몇 예시적인 실시예에서, 장거리 객체의 타겟팅 개선은 사용자가 다른 플레이어 객체를 타겟팅하는 동안 실시간으로 가상 세계에 제공되는 시점을 자동으로 조정하는 오프셋 카메라 엔진 도구를 통해 달성된다. 예를 들어, 본 명세서의 방법은 터치스크린 상에 멀티플레이어 게임의 객체를 묘사하는 동적 이미지를 표시하는 단계를 포함할 수 있다. 동적 이미지는 가상 세계의 일부이다. 사용자가 타겟 객체를 타겟팅하기 위한 도구를 선택할 수 있게 하는 동적 이미지의 도구 선택 영역에서 제1 터치 제스처가 수신될 수 있다. 방법은 그 다음에 가상 세계의 적어도 일부의 평면도를 제공하는 미니맵에서 제2 터치 제스처를 수신하는 단계를 포함할 수 있다. 미니맵은 종종 동적 세계의 전체 뷰를 제공하므로 동적 이미지보다 가상 세계의 더 큰 부분에 대한 뷰를 제공한다. 제2 터치 제스처를 수신하는 것에 응답하여, 동적 이미지는 수신된 제2 터치 제스처에 대응하는 가상 세계의 선택된 위치를 나타내는 시점으로 자동 조정된다. 마지막으로, 방법은 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 수신하는 단계를 포함할 수 있다. 타겟팅 도구는 조정된 동적 이미지 내에서 선택한 도구의 타겟 범위를 나타낸다.
몇몇 실시예에서, 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 실행하면, 선택된 도구는 타겟 객체에 대해 이용된다. 선택한 도구가 타겟 객체에 대해 이용되었으면, 동적 이미지가 다시 사용자에 대응하는 플레이어 객체의 시점으로 자동 조정될 수 있다. 몇몇 실시예에서, 동적 이미지는 타겟 객체가 제거되거나 파괴될 때까지 사용자에 대응하는 플레이어 객체의 시점으로 다시 자동 조정되지 않을 수 있다.
이 요약은 아래의 상세한 설명에서 추가로 설명되는 단순화된 형태로 개념의 선택을 소개하기 위해 제공된다. 이 요약은 청구된 출원 대상의 주요 특징 또는 기본 특징을 식별하기 위한 것이 아니며, 청구된 출원 대상의 범위를 결정하는 데 도움을 주기 위해 사용되는 것도 아니다.
본 개시의 실시예는 첨부 도면을 참조하여 이하에서 상세히 설명된다.
도 1은 본 개시의 몇몇 실시예에 따른 예시적인 운영 환경을 도시한다.
도 2는 본 개시의 몇몇 실시예에 따라 오프셋 카메라 타겟팅을 제공하는 시스템의 예시적인 구현을 도시하는 블록도이다.
도 3은 본 개시의 몇몇 실시예에 따른 오프셋 카메라 타겟팅 엔진의 예시적인 구현을 나타내는 블록도이다.
도 4는 본 개시의 몇몇 실시예에 따른 사용자에 대응하는 플레이어 객체의 시점에서 본 예시적인 동적 이미지이다.
도 5 내지 도 8은 본 개시의 몇몇 실시예에 따라 미니맵에서 선택된 위치의 시점에서 본 예시적인 동적 이미지이다.
도 9는 본 개시의 몇몇 실시예에 따른 오프셋 카메라 타겟팅을 위한 방법을 도시하는 흐름도이다.
도 10은 본 개시의 몇몇 실시예를 구현할 때 사용하기에 적합한 예시적인 컴퓨팅 환경의 블록도이다.
본 개시의 출원 대상은 법적 요구사항을 충족시키기 위해 본 명세서에서 구체적으로 설명된다. 그러나, 설명 자체가 이 특허의 범위를 제한하려는 것은 아니다. 오히려, 발명자들은 청구된 출원 대상이 다른 현재 또는 미래의 기술과 함께, 이 문서에 설명된 단계와 유사한 단계의 조합 또는 상이한 단계를 포함하도록 다른 방식으로 구현될 수도 있음을 고려했다. 또한, "단계" 및/또는 "블록"이라는 용어가 사용된 방법의 상이한 요소를 내포하기 위해 본 명세서에서 사용될 수 있지만, 이 용어는 개별 단계의 순서가 명시적으로 설명되지 않는 한 및 개별 단계의 순서가 명시적으로 설명된 경우를 제외하고 본 명세서에 개시된 다양한 단계들 사이의 임의의 특정 순서를 암시하는 것으로 해석되어서는 안 된다.
온라인 멀티플레이어 비디오 게임 산업은 전 세계 모든 인구 통계에서 엄청난 인기를 얻었다. 온라인 멀티플레이어 비디오 게임이 태블릿 및 스마트폰과 같은 터치스크린 디바이스에서 플레이하기 위해 모바일 플랫폼으로 이동함에 따라, 게임이 표시되는 방식과 사용자가 게임과 인터페이싱하는 방식(예컨대, 게임 제어)에 약간의 수정이 필요하다. 예를 들어, 터치스크린의 크기 제약은 장거리 타겟을 타겟팅하는 것과 같은 다양한 문제를 제시한다. 그러나, 이러한 터치스크린 디바이스의 제한된 화면 크기 및 처리 능력으로 인해 모바일 플랫폼을 통해 완전한 기능을 갖춘 멀티플레이어 비디오 게임을 제공하는 데 어려움이 있다.
기존 UI는 사용자의 플레이어 객체의 시점에서 디스플레이를 제공한다. 이 시점은 화면 밖에 있는(즉, 현재 디스플레이에 제공되지 않는) 장거리 타겟을 타겟팅하는 사용자에게 정밀도 문제를 발생시킨다. 전형적으로, 디스플레이는 선택된 도구(예를 들어, 어빌리티, 가상 무기, 스펠 등)에 대한 범위의 원을 제공한다. 이는 화면 크기와 거의 같은 범위의 원을 가진 도구에 대해서는 잘 작동하지만, 범위의 원이 화면 크기를 초과하면 부족하다. 이는 타겟이 플레이어 객체에서 멀리 떨어져 있거나 도구의 범위가 화면 크기보다 훨씬 더 큰 경우 문제가 된다. 가상 조이스틱의 작은 픽셀 수준의 움직임으로도 게임 공간 내에서 엄청난 변화가 발생한다. 사용자가 디스플레이 내에서 타겟을 보지 못할 수도 있으므로, 이들 UI 결함으로 인해 전반적으로 정밀도가 떨어지고 범위가 늘어난 새 도구를 효과적으로 활용할 수 없다.
이와 같이, 본 개시의 다양한 실시예는 장거리 객체의 타겟팅 개선을 제공하기 위한 시스템 및 컴퓨터로 구현된 방법에 관한 것이다. 시스템 및 컴퓨터로 구현된 방법은 사용자에게 표시되는 동적 이미지의 현재 뷰 외부에 있는 MOBA 게임 내의 플레이어 객체를 정확하고 정밀하게 타겟팅하는 데 사용될 수 있다. 이러한 개선된 타겟팅은 동적 이미지의 도구 선택 영역에서 초기에 터치 제스처를 수신함으로써 달성된다. 명료함을 위해, 도구 선택은 사용자가 가상 세계 내의 객체를 타겟팅하는 도구(예를 들어, 어빌리티, 가상 무기, 스펠 등)를 선택할 수 있게 한다. 터치 제스처가 본 개시 전반에 걸쳐 사용되지만, 예컨대, 마우스, 전통적인 조이스틱, 키보드, 음성 명령 또는 다른 방법의 사용으로부터 임의의 사용자 상호작용이 고려되고 청구범위 내에 있는 것으로 고려된다.
다음으로, 가상 세계의 미니맵에서 제2 터치 제스처가 수신된다. 제2 터치 제스처를 수신하는 것에 응답하여, 미니맵 내에서 선택된 위치를 나타내는 시점으로 동적 이미지가 자동으로 조정된다. 사용자가 제어하는 캐릭터의 시점에서 제2 터치 제스처에 의해 지정된 위치로 시점이 변경되면, 조정된 동적 이미지 내에서 선택된 도구의 타겟 범위를 제공하는 타겟팅 도구에서 제3 터치 제스처가 수신될 수 있다. 이를 통해 사용자는 객체를 보다 정확하고 정밀하게 타겟팅할 수 있다. 즉, 동적 이미지의 시점은 미니맵 내에서 선택된 위치에 스냅되고 조정된 동적 이미지는 선택된 도구의 타겟 범위의 크기에 해당한다. 따라서, 사용자는 조정된 동적 이미지가 제공하는 디스플레이 내에서 타겟 객체를 타겟팅할 수 있다. 몇몇 실시예에서, 제3 터치 제스처는 사용자가 미니맵의 선택된 위치를 중심으로 시점을 360도 회전시키는 것을 가능하게 할 수 있다.
이제 도 1을 참조하면, 본 개시의 일 실시예가 이용될 수 있는 예시적인 일 운영 환경(100)을 도시하는 개략도가 제공된다. 본 명세서에서 설명된 이 구성 및 다른 구성은 단지 예로서 설명된 것임을 이해해야 한다. 다른 구성 및 요소(예컨대, 머신, 인터페이스, 기능, 순서, 기능의 그룹화 등)는 표시된 것에 추가하거나 그 대신 사용될 수 있으며, 몇몇 요소는 완전히 생략될 수 있다. 또한, 본 명세서에 설명된 많은 요소는 별개의 또는 분산된 구성요소로서 또는 다른 구성요소와 함께 그리고 임의의 적절한 조합 및 위치에서 구현될 수 있는 기능적 엔티티이다. 하나 이상의 엔티티에 의해 수행되는 것으로 본 명세서에 설명된 다양한 기능은 하드웨어, 펌웨어 및/또는 소프트웨어에 의해 수행될 수 있다. 예를 들어, 메모리에 저장된 명령어를 실행하는 프로세서에 의해 다양한 기능이 수행될 수 있다.
도 1의 운영 환경(100)은 인터넷과 같은 네트워크(130)를 통해 가상 게임 환경에서 게임 플레이 및/또는 설정을 지시하기 위해 게임 클라이언트(115, 120)와 같은 하나 이상의 클라이언트 디바이스에 서비스를 제공하는 서버 디바이스(110)를 포함한다. 게임 클라이언트(115, 120)는 본 명세서에서 나중에 설명되는 바와 같이 하나 이상의 프로세서에서 구현될 수 있다. 몇몇 실시예에서, 게임 클라이언트(115, 120)는 스마트폰, 태블릿 또는 랩탑 컴퓨터와 같이 그 위에 터치스크린이 있는 모바일 전자 디바이스이다. 서버 디바이스(110) 및 게임 클라이언트(115, 120)는 네트워크(130)를 통해 유선 또는 무선 방식으로 통신할 수 있다.
몇몇 실시예에서, 서버 디바이스(110)는 복수의 게임 플레이 명령, 액션, 객체(예를 들어, 가상 게임 피스/캐릭터, 무기, 건물 등), 맵 및/또는 설정에 대응하는 레코드의 저장 및 질의를 용이하게 하기 위한 데이터베이스(140)에 직접 또는 간접적으로 결합된다. 데이터베이스(140)는 무엇보다도 서버 디바이스(110)에 의해 액세스 가능한 관계형 데이터베이스 또는 유사한 저장 구조를 포함한다. 본 명세서에 기술된 실시예에 따르면, 데이터베이스(140)는 각각 게임 플레이 명령, 액션, 객체, 맵 및/또는 설정에 대응하는 복수의 레코드를 저장한다.
서버 디바이스(110)는 네트워크(130)를 통해 임의의 게임 클라이언트(115, 120)에 의해 액세스 가능한 게임 서버 및/또는 임의의 게임 클라이언트(115, 120)의 애플리케이션을 지원하기 위한 데이터 서버를 포함한다. 게임 서버는 라이브 게임 플레이를 가능하게 하는 것을 포함하는 임의의 유형의 애플리케이션을 지원할 수 있다. 서버 디바이스(110)는 게임 클라이언트(115, 120) 간의 관계(예를 들어, 팀)를 추가로 결정할 수 있다. 다양한 실시예에서, 서버 디바이스(110)는 게임 클라이언트(115, 120) 중 하나 이상을 통해 명령된 액션을 게임 클라이언트(115, 120) 중 다른 하나 이상으로 전달하여 사용자 인터페이스 등을 통해 제시하며, 이는 본 명세서에서 나중에 설명된다.
네트워크(130)는 유선, 무선 또는 둘 다일 수 있다. 네트워크(130)는 복수의 네트워크 또는 네트워크들 중 하나의 네트워크를 포함할 수 있지만, 본 개시의 양상을 모호하게 하지 않도록 간단한 형태로 도시된다. 예로서, 네트워크(130)는 하나 이상의 WAN(wide area network), 하나 이상의 LAN(local area network), 인터넷과 같은 하나 이상의 공용 네트워크, 하나 이상의 사설 네트워크 및/또는 하나 이상의 원격통신 네트워크를 포함할 수 있다. 네트워크(130)가 무선 원격통신 네트워크를 포함하는 경우, 기지국, 통신탑, 또는 심지어 액세스 포인트(및 기타 구성요소)와 같은 구성요소가 무선 접속을 제공할 수 있다. 네트워킹 환경은 전사적 컴퓨터 네트워크, 인트라넷 및 인터넷에서 일반적이다. 따라서, 네트워크(130)는 그다지 상세히 설명되지 않는다.
본 개시의 실시예에 따르면, 서버 디바이스(110) 또는 게임 클라이언트(115, 120)는 각각 인터넷, 예컨대, 월드 와이드 웹 및/또는 원격통신 네트워크에 액세스할 수 있는 컴퓨팅 디바이스일 수 있다. 서버 디바이스(110) 또는 게임 클라이언트(115, 120) 중 하나는 개인용 컴퓨터(PC), 랩톱 컴퓨터, 휴대폰, 태블릿 컴퓨터, 웨어러블 컴퓨터, PDA(personal digital assistant), MP3 플레이어, GPS(global positioning system) 디바이스, 비디오 플레이어, 핸드헬드 통신 디바이스, 스마트폰, 스마트 워치, 워크스테이션, 이들 기술된 디바이스의 임의의 조합 또는 기타 적합한 디바이스와 같은 다양한 형태를 취할 수 있다.
본 개시의 범위 내에서 운영 환경(100)에서 임의의 수의 전술한 디바이스가 사용될 수 있음을 이해해야 한다. 각각은 단일 디바이스 또는 분산 환경에서 협력하는 복수의 디바이스를 포함할 수 있다. 또한, 도시되지 않은 다른 구성요소도 분산 환경 내에 포함될 수 있다. 도 1에 도시된 운영 환경(100)이 하나의 적합한 컴퓨팅 시스템 아키텍처의 예라는 것을 또한 이해해야 한다. 도 1에 도시된 서버, 게임 클라이언트, 네트워크 및 데이터베이스 각각은 예컨대, 도 10을 참조하여 후술되는 컴퓨팅 디바이스(1000)와 같은 컴퓨팅 디바이스를 통해 구현될 수 있다. 구성요소는 네트워크(130)를 통해 서로 통신할 수 있다.
다음으로, 도 2는 본 개시의 몇몇 실시예에 따라, 게임 클라이언트 중 예시적인 게임 클라이언트, 특히 게임 클라이언트(115)의 작동 모듈의 블록도를 도시한다. 설명된 구현은 단지 예시일 뿐이며, 각 구성요소가 다양한 구성으로 배열될 수 있고, 다수의 컴퓨팅 디바이스에 걸쳐 확산될 수 있으며, 다른 구성요소와 또는 서로 결합될 수 있고, 네트워크를 통해 통신하도록 배열될 수 있거나 또는 언급되지 않은 다른 것을 포함하여 전술한 것의 임의의 조합일 수 있으므로, 어떤 방식으로든 제한하려는 것이 아님에 유의한다. 예를 들어, 각각의 작동 모듈은 하드웨어 구성요소 및/또는 컴퓨터 판독가능 매체에 저장되고 프로세서에서 실행가능한 컴퓨터 명령어의 조합을 포함할 수 있으며, 이는 아래 컴퓨팅 디바이스(1000)와 관련하여 후술된다.
도 2에 도시된 바와 같이, 게임 클라이언트(115)의 작동 모듈은 게임 실행 구성요소(210), 통신 구성요소(220) 및 오프셋 카메라 타겟팅 엔진(230)을 포함할 수 있다. 게임 실행 구성요소(210)는 그와 관련된 게임, 예컨대, 본 명세서에 설명된 MOBA 게임을 실행하도록 구성될 수 있다. 몇몇 실시예에서, 게임을 실행하는 것은 본 명세서에서 후술되고 도 4 내지 도 8에 도시된 동적 이미지(400, 500, 600, 700, 800)와 같은 동적 이미지를 표시하는 것을 포함할 수 있다. 통신 구성요소(220)는 네트워크(130)를 통한 게임 클라이언트(115), 게임 클라이언트(120) 및/또는 서버 디바이스(110) 간의 네트워크 통신을 위해 구성될 수 있다. 일반적으로, 오프셋 카메라 타겟팅 엔진(230)은 동적 이미지의 시점을 동적으로 변경하도록 구성될 수 있다. 특히, 오프셋 카메라 타겟팅 엔진(230)은 시점을 사용자에 해당하는 플레이어 객체에서 사용자가 미니맵에서 선택한 위치에서 특정 어빌리티에 해당하는 조이스틱의 최대 범위와 일치하는 중심점으로 동적으로 변경한다. 명확성을 위해, 전형적으로 미니 맵을 사용하면 플레이어가 사용자에 해당하는 플레이어 객체를 중심으로 뷰를 유지하면서 게임 세계의 복수의 위치를 하이 레벨에서 빠르게 볼 수 있다.
도 3에 도시된 바와 같이, 오프셋 카메라 타겟팅 엔진(230)은 여러 구성요소를 포함한다. 예를 들어, 오프셋 카메라 타겟팅 엔진(230)은 디스플레이 구성요소(310), 도구 구성요소(320), 미니맵 구성요소(330) 및 타겟팅 구성요소(340)를 포함할 수 있다. 초기에, 디스플레이 구성요소(310)는 멀티플레이어 게임의 객체를 묘사하는 동적 이미지를 터치스크린 상에 표시한다. 멀티플레이어 게임의 객체는 플레이어 객체와 비플레이어 객체를 포함한다. 비타겟팅 시나리오에서, 동적 이미지는 사용자에 해당하는 플레이어 객체의 시점에서 객체를 묘사한다.
도구 구성요소(320)는 동적 이미지의 도구 선택에서 제1 터치 제스처를 수신한다. 도구 선택 영역에서는 사용자가 가상 세계 내의 객체 중 타겟 객체에 활용할 도구를 설정할 수 있다. 본 명세서에 설명된 바와 같이, 도구는 어빌리티, 가상 무기, 스펠 등일 수 있다. 다음으로, 미니맵 구성요소(330)는 미니맵에서 제2 터치 제스처를 수신한다. 미니맵은 가상 세계의 적어도 일부에 대한 평면도를 제공하고 동적 이미지의 뷰 외부에 있는 타겟(즉, 다른 플레이어 객체)의 뷰를 제공할 수 있다. 미니맵 구성요소(330)가 제2 터치 제스처를 수신하는 것에 응답하여, 디스플레이 구성요소(310)는 수신된 제2 터치 제스처에 대응하는 가상 세계의 선택된 위치를 나타내는 시점으로 동적 이미지를 자동으로 조정한다. 이러한 방식으로, 동적 이미지는 사용자에 해당하는 플레이어 객체의 시점에서 선택된 위치의 시점으로 자동 변경된다.
마지막으로, 타겟팅 구성요소(340)는 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 수신한다. 타겟팅 도구는 조정된 동적 이미지 내에서 선택된 도구의 타겟 범위를 묘사한다. 이는 사용자가 동적 이미지 내에서 가능한 것보다 조정된 동적 이미지 내에서 타겟 객체를 타겟팅하기 위해 보다 정확한 타겟팅 움직임을 만들 수 있게 하는데, 이는 부분적으로는 조정된 동적 이미지 내에서 타겟 객체가 실제로 보일 수 있기 때문이고, 부분적으로는 조정된 동적 이미지가 타겟 범위의 반경에 기초하여 크기가 조정될 수 있기 때문이다. 알 수 있는 바와 같이, 이는 작은 타겟팅 움직임이 동적 이미지 내에서 큰 움직임을 초래하는 기존 UI의 문제를 제거한다. 결과적으로, 사용자는 타겟 객체를 보다 정밀하고 정확하게 타겟팅할 수 있다.
몇몇 실시예에서, 동적 이미지의 타겟팅 도구에서 제3 터치 제스처의 실행 시, 타겟팅 구성요소(340)는 선택된 도구가 타겟 객체에서 이용되도록 한다. 몇몇 실시예에서, 선택된 도구가 타겟 객체에 이용되면, 디스플레이 구성요소(310)는 조정된 동적 이미지를 다시 사용자에 대응하는 플레이어 객체의 시점(즉, 동적 이미지)으로 자동으로 조정한다. 이와 달리, 디스플레이 구성요소(310)는 타겟 객체가 제거되거나 파괴될 때까지 사용자에 대응하는 플레이어 객체의 시점으로 다시 조정된 동적 이미지를 자동으로 조정하지 않을 수 있다. 몇몇 실시예에서, 디스플레이 구성요소(310)는 플레이어 객체가 공격을 받거나, 위협을 받거나, 다른 플레이어 객체(예를 들어, 사용자가 현재 타겟팅하고 있는 플레이어 객체와 상이한 다른 플레이어 객체)에 의해 타겟팅되고 있으면 조정된 동적 이미지를 다시 사용자에 대응하는 플레이어 객체의 시점으로 자동으로 조정할 수 있다.
이제 도 4 내지 도 7을 참조하면, 본 개시의 몇몇 실시예에 따라, 동적 이미지(400, 500, 600, 700, 800)의 예시적인 묘사가 다양한 시점에서 제공된다. 이러한 동적 이미지(400, 500, 600, 700, 800)는 모바일 전자 디바이스의 터치스크린에 의해 제공될 수 있다. 모바일 전자 디바이스는 후술되고 도 10에 도시된 바와 같은 컴퓨팅 디바이스(1000)를 포함할 수 있다. 마찬가지로, 터치스크린은 후술되고 도 10에 도시된 임의의 I/O 구성요소(1020)를 포함할 수 있다. 예를 들어, 터치스크린은 특히 컴퓨팅 디바이스(1000)의 디스플레이와 관련된 터치 인식 및 스크린 상의 제스처 인식을 갖는 I/O 구성요소(1020)의 실시예를 포함할 수 있다.
예시된 바와 같이, 동적 이미지(400, 500, 600, 700, 800)는 비디오 이미지, 애니메이션 이미지, 움직이는 게임 피스를 포함하는 이미지 등과 같이 실시간으로 움직이는 객체를 포함하는 이미지 또는 움직이는 이미지를 포함할 수 있다. 예를 들어, 동적 이미지(400, 500, 600, 700, 800)는 멀티플레이어 게임(예를 들어, MOBA 게임 등)을 위한 동적 가상 세계의 적어도 일부의 시각적 묘사를 포함할 수 있다. 시각적 묘사는 비플레이어 객체와 같은 고정된 그래픽 객체 및 플레이어 객체와 같은 움직이는 그래픽 객체를 포함할 수 있다. 시각적 묘사는 무엇보다도 탑, 성, 도로, 통로, 벽, 울타리, 바리케이드, 나무, 산, 개울, 무기, 타겟, 보상 등과 같은 애니메이션 및/또는 움직이는 게임 피스 및/또는 목적지를 포함할 수 있다. 플레이어 객체(410, 760, 860)와 같은 게임 피스는 멀티플레이어 게임에서 다양한 플레이어의 위치 및/또는 다양한 플레이어가 사용할 수 있는 도구(예컨대, 어빌리티, 가상 무기, 스펠 등)를 나타낼 수 있다. 시각적 묘사는 이러한 고정 또는 움직이는 그래픽 객체를 투시도 및/또는 평면도에 표시할 수 있다. 그러나, 본 명세서의 시스템 및 방법은 본 명세서에 설명된 기술의 범위를 벗어나지 않고 멀티플레이어 게임 또는 싱글 플레이어 게임의 일부가 아닌 다른 동적 이미지 내에서 사용될 수 있다.
언급했듯이, 몇몇 실시예에서, 동적 이미지(400, 500, 600, 700, 800)는 연속적으로 표시되거나 선택적으로 표시되는 미니맵(420, 520, 620, 720, 820)을 포함할 수 있다. 미니맵(420, 520, 620, 720, 820) 또는 다른 그러한 그래픽 묘사는 동적 가상 세계의 전체 및/또는 대부분의 동적 가상 세계의 평면도를 제공할 수 있다. 동적 이미지(400, 500, 600, 700, 800)는 연속적으로 표시되거나 선택적으로 표시되는 도구(430, 532, 632, 732, 832)도 포함할 수 있다. 도구가 선택되면, 타겟팅 도구는 동적 이미지 내에서 선택된 도구의 타겟 범위를 제공한다.
이제 도 4를 참조하면, 미니맵(420)은 전체 동적 가상 세계의 빅 픽처 뷰, 그 가상 세계 내의 현재 조건, 플레이어의 팀원의 현재 위치 및 게임의 다른 특징부를 제시하는 데 사용될 수 있다. 도 4에 도시된 바와 같이, 동적 이미지(400)는 사용자(410)에 대응하는 플레이어 객체의 시점에서 제공된다. 도 4에는 사용자가 다른 플레이어 객체를 타겟팅하는 데 사용될 수 있는 다양한 도구 중에서 사용자가 선택할 수 있게 하는 도구 선택 영역(430)도 도시된다.
도 5에 도시된 바와 같이, 사용자가 동적 이미지의 도구 선택 영역 내에서 터치 제스처를 취함으로써 도구(532)가 선택될 수 있다. 터치 제스처는 예를 들어, 하나 이상의 손가락, 하나 이상의 엄지손가락, 스타일러스 또는 기타 이러한 선택 도구로 터치스크린을 탭핑하는 것을 포함할 수 있다. 제2 터치 제스처는 미니맵(520) 내의 위치(522)에서 수신될 수 있다. 제2 터치 제스처에 응답하여, 동적 이미지는 수신된 제2 터치 제스처에 대응하는 미니맵(520)의 선택된 위치(522)를 나타내는 시점으로 자동 조정된다. 도시된 바와 같이, 조정된 동적 이미지(500)가 제공하는 뷰(524)의 영역이 미니맵(520) 내에서 보인다. 조정된 동적 이미지의 타겟팅 도구(534)에서 제3 터치 제스처(536)가 수신될 수 있다. 타겟팅 도구(534)는 조정된 동적 이미지(500) 내에서 선택된 도구(532)의 타겟 범위를 묘사하고 제3 터치 제스처(536)는 사용자가 타겟 범위(534) 내에서 타겟팅하고 있는 곳을 나타낸다. 타겟팅된 영역(546)은 또한 조정된 동적 이미지(500) 내에 표시된다.
도 6에서, 사용자가 동적 이미지의 도구 선택 영역 내에서 터치 제스처를 취함으로써 도구(632)가 선택될 수 있다. 제2 터치 제스처는 미니맵(620) 내의 위치(622)에서 수신될 수 있다. 제2 터치 제스처에 응답하여, 동적 이미지는 수신된 제2 터치 제스처에 대응하는 미니맵(620)의 선택된 위치(622)를 나타내는 시점으로 자동 조정된다. 도시된 바와 같이, 조정된 동적 이미지(600)가 제공하는 뷰(624)의 영역이 미니맵(620) 내에서 보인다. 조정된 동적 이미지의 타겟팅 도구(634)에서 제3 터치 제스처(636)가 수신될 수 있다. 타겟팅 도구(634)는 조정된 동적 이미지(600) 내에서 선택된 도구(632)의 타겟 범위를 묘사하고 제3 터치 제스처(636)는 사용자가 타겟 범위(634) 내에서 타겟팅하고 있는 위치를 나타낸다. 선택된 도구의 타겟 경로를 나타내는 가이드라인(650, 652)도 조정된 동적 이미지(600) 내에 표시된다. 추가적으로, 타겟 경로(628)는 미니맵(620) 내에 표시될 수 있다.
다음으로 도 7을 참조하면, 사용자가 동적 이미지의 도구 선택 영역 내에서 터치 제스처를 취함으로써 도구(732)가 선택될 수 있다. 제2 터치 제스처는 미니맵(720) 내의 위치(722)에서 수신될 수 있다. 제2 터치 제스처에 응답하여, 동적 이미지는 수신된 제2 터치 제스처에 대응하는 미니맵(720)의 선택된 위치(722)를 나타내는 시점으로 자동 조정된다. 도시된 바와 같이, 조정된 동적 이미지(700)가 제공하는 뷰(724)의 영역이 미니맵(720) 내에서 보인다. 조정된 동적 이미지(700)의 타겟팅 도구(734)에서 제3 터치 제스처(736)가 수신될 수 있다. 타겟팅 도구(734)는 조정된 동적 이미지(700) 내에서 선택된 도구의 타겟 범위를 묘사하고 제3 터치 제스처(736)는 사용자가 타겟 범위(734) 내에서 타겟팅 하고 있는 곳을 나타낸다. 선택된 도구(732)의 타겟 경로를 나타내는 가이드라인(750, 752)도 조정된 동적 이미지(700) 내에 표시된다. 추가적으로, 타겟 경로(728)는 미니맵(720) 내에서 표현될 수 있다. 도 7에 의해 도시된 바와 같이, 사용자는 자신이 타겟팅하고 있는 타겟 객체(760)가 이제 가이드라인(750, 752) 내에 있도록 타겟 경로를 회전시켰다. 조정된 동적 이미지(700) 내에 타겟 객체의 건강 상태를 표시하기 위한 건강 상태 바(780)가 제공될 수 있다.
도 8에 도시된 바와 같이, 사용자가 동적 이미지의 도구 선택 영역 내에서 터치 제스처를 취함으로써 도구(832)가 선택될 수 있다. 제2 터치 제스처는 미니맵(820) 내의 위치(822)에서 수신될 수 있다. 제2 터치 제스처에 응답하여, 동적 이미지는 수신된 제2 터치 제스처에 대응하는 미니맵(820)의 선택된 위치(822)를 나타내는 시점으로 자동 조정된다. 도시된 바와 같이, 조정된 동적 이미지(800)가 제공하는 뷰(824)의 영역이 미니맵(820) 내에서 보인다. 조정된 동적 이미지(800)의 타겟팅 도구(834)에서 제3 터치 제스처(836)가 수신될 수 있다. 타겟팅 도구(834)는 조정된 동적 이미지(800) 내의 선택된 도구(832)의 타겟 범위를 묘사하고 제3 터치 제스처(836)는 사용자가 타겟 범위(834) 내에서 타겟팅하고 있는 곳을 나타낸다. 도 8에서, 사용자는 제3 터치 제스처(836)를 실행하고 선택된 도구(832)는 타겟 객체(860)에 이용된다. 제3 터치 제스처(836)는 터치스크린에 추가적인 압력을 가하고, 터치스크린에 추가적인 탭핑을 하는 등의 방식으로 실행될 수 있다. 따라서, 선택된 도구(832)는 타겟 객체(860)에서 이용(890)된다. 건강 상태 바(880)는 선택된 도구(832)가 이용된 후 타겟 객체(860)의 건강 상태를 표시하기 위해 조정된 동적 이미지(800) 내에서 업데이트될 수 있다.
이제 도 9를 참조하면, 본 명세서에 설명된 방법의 각 블록은 하드웨어, 펌웨어 및/또는 소프트웨어의 임의의 조합을 사용하여 수행될 수 있는 컴퓨팅 프로세스를 포함한다. 예를 들어, 메모리에 저장된 명령어를 실행하는 프로세서가 다양한 기능을 수행할 수 있다. 이 방법은 또한 컴퓨터 저장 매체에 저장된 컴퓨터 사용 가능한 명령어로 구현될 수 있다. 방법(900)은 몇 가지 예를 들면, 독립형 애플리케이션, 서비스 또는 호스팅 서비스(독립형 또는 다른 호스팅 서비스와 결합) 또는 다른 제품에 대한 플러그인에 의해 제공될 수 있다. 예를 들어, 본 명세서에 설명된 바와 같이, 방법(900)은 가상 게임과 같은 다른 소프트웨어 내의 가상 도구이다. 또한, 방법(900)은 예로서, 도 4 내지 도 8의 터치스크린 상의 동적 이미지에 관하여 설명된다. 그러나, 이들 방법은 본 명세서에 설명된 것을 포함하지만 이에 제한되지 않는 임의의 하나의 시스템 또는 시스템들의 임의의 조합에 의해 추가적으로 또는 대안적으로 실행될 수 있다.
도 9에서, 흐름도는 본 개시의 몇몇 실시예에 따라, 장거리 객체의 타겟팅 개선을 제공하기 위한 방법(900)을 도시한다. 다양한 실시예에 따르면, 방법(900)은 사용자에게 표시되는 동적 이미지의 현재 뷰 외부에 있는 MOBA 게임 내의 플레이어 객체를 정확하고 정밀하게 타겟팅하는 데 사용될 수 있다. 블록(902)에 도시된 바와 같이, 방법(900)은 멀티플레이어 게임의 객체를 묘사하는 동적 이미지를 터치스크린에 표시하는 단계를 포함할 수 있으며, 동적 이미지는 가상 세계의 일부이다. 전술한 바와 같이, 가상 세계는 고정 및 움직이는 그래픽 객체(16, 18)를 갖는 미니맵 또는 다른 동적 이미지를 포함할 수 있다. 예를 들어, 맵 아이콘을 탭핑하거나 클릭하여 미니맵을 열 수 있거나, 미니맵은 터치스크린을 통해 조작되는 멀티플레이어 게임에서 게임 플레이 내내 계속 열려있을 수 있다.
또한, 블록(904)에 도시된 바와 같이, 방법(900)은 동적 이미지의 도구 선택 영역에서 제1 터치 제스처를 수신하는 단계를 포함할 수 있다. 도구 선택 영역은 사용자가 가상 세계 내의 객체 중 타겟 객체에 이용할 도구를 선택할 수 있게 한다. 멀티플레이어 게임의 객체는 플레이어 객체와 비플레이어 객체를 포함할 수 있다. 몇몇 실시예에서, 동적 이미지는 초기에 사용자에 대응하는 플레이어 객체의 시점에서 가상 세계의 일부(예를 들어, 멀티플레이어 게임의 객체)를 묘사한다.
블록(906)에 도시된 바와 같이, 방법(900)은 또한 가상 세계의 미니맵에서 제2 터치 제스처를 수신하는 단계를 포함할 수 있다. 전술한 바와 같이, 미니맵은 가상 세계의 적어도 일부의 평면도를 제공한다. 제2 터치 제스처는 예를 들어, 사용자가 초기에 제공된 동적 이미지가 표시하지 않는 미니맵의 영역을 선택할 수 있게 한다.
방법(900)은 또한 블록(908)에 도시된 바와 같이, 제2 터치 제스처에 응답하여, 동적 이미지를 수신된 제2 터치 제스처에 대응하는 가상 세계의 선택된 위치를 나타내는 시점으로 조정하는 단계를 포함할 수 있다. 즉, 동적 이미지는 사용자에 해당하는 플레이어 객체(즉, 영웅)의 시점이 아닌 미니맵 내에서 선택된 영역으로부터의 시점을 나타내도록 자동으로 조정된다. 알 수 있듯이, 이것은 영웅 중심의 뷰가 아닌 미니맵 중심의 뷰를 제공한다.
또한, 사용자는 초기에 제공되는 동적 이미지가 제공하는 하이 레벨 뷰보다 미니맵 내에서 선택된 영역의 하위 레벨 뷰를 볼 수 있다. 예를 들어, 사용자가 이전에 동적 이미지의 디스플레이 외부에 있었지만 미니맵 내에서 선택된 영역 내에 있는 플레이어 객체를 타겟팅 하려고 하면, 사용자는 조정된 동적 이미지 내에서 플레이어 객체를 볼 수 있다.
블록(910)에 도시된 바와 같이, 방법(900)은 또한 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 수신하는 단계를 포함할 수 있다. 타겟팅 도구는 조정된 동적 이미지 내에서 선택한 도구의 타겟 범위를 나타낸다. 몇몇 실시예에서, 조정된 동적 이미지는 사용자가 초기에 제공된 동적 이미지 내에서 가능한 것보다 조정된 동적 이미지 내에서 타겟 객체를 타겟팅하기 위해 더 정밀한 타겟팅 움직임을 가능하게 할 수 있게 하는 선택된 도구의 타겟 범위 정도의 크기이다. 알 수 있듯이, 초기에 제공되는 동적 이미지는 타겟 범위의 크기보다 작은(경우에 따라, 훨씬 더 작은) 뷰를 제공할 수 있다. 즉, 대안적으로 또는 추가적으로, 선택된 도구의 타겟 범위에 기초하여 동적 이미지가 조정될 수 있다. 또한, 제3 터치 제스처는 사용자가 동적 이미지의 선택된 위치를 중심으로 시점을 360도 회전시킬 수 있게 한다.
실시예에서, 동적 이미지의 타겟팅 도구에서 제3 터치 제스처의 실행 시, 선택된 도구는 타겟 객체에서 이용된다. 예를 들어, 선택한 도구가 화살이나 레이저라면, 화살이나 레이저가 타겟 객체에 발사된다. 마찬가지로, 선택된 도구가 스펠이면, 타겟 객체에 스펠이 캐스팅된다. 선택된 도구가 타겟 객체에 이용되었으면, 동적 이미지가 다시 사용자에 해당하는 플레이어 객체의 시점으로 조정될 수 있다. 몇몇 실시예에서, 동적 이미지는 타겟 객체가 제거되거나 파괴될 때까지 다시 사용자에 대응하는 플레이어 객체의 시점으로 자동 조정되지 않을 수 있다.
본 개시의 실시예를 설명하였지만, 본 개시의 다양한 양상에 대한 일반적인 맥락을 제공하기 위해 본 개시의 실시예가 구현될 수 있는 예시적인 운영 환경이 아래에서 설명된다. 특히 먼저 도 10을 참조하면, 본 개시의 실시예를 구현하기 위한 예시적인 운영 환경이 도시되고 일반적으로 컴퓨팅 디바이스(1000)로서 지정된다. 컴퓨팅 디바이스(1000)는 적절한 컴퓨팅 환경의 일례일 뿐이며, 개시된 실시예의 사용 또는 기능의 범위에 대하여 임의의 제한을 제안하려는 것은 아니다. 컴퓨팅 디바이스(1000)가 예시된 구성요소 중 어느 하나 또는 조합과 관련된 임의의 종속성 또는 요구사항을 갖는 것으로 해석되어서도 안 된다.
본 명세서에서 실시예는 컴퓨터 또는 다른 머신, 예컨대, 개인 데이터 어시스턴트 또는 기타 휴대용 디바이스에 의해 실행되는 프로그램 모듈과 같은 컴퓨터 실행가능 명령어를 포함하는 컴퓨터 코드 또는 머신 사용가능 명령어의 일반적인 맥락에서 설명될 수 있다. 일반적으로, 루틴, 프로그램, 객체, 구성요소, 데이터 구조 등을 포함하는 프로그램 모듈은 특정 태스크를 수행하거나 특정 추상적 데이터 유형을 구현하는 코드를 지칭한다. 설명된 실시예는 휴대용 디바이스, 가전 제품, 범용 컴퓨터, 보다 전문적인 컴퓨팅 디바이스 등을 포함하는 다양한 시스템 구성에서 실행될 수 있다. 설명된 실시예는 태스크가 통신 네트워크를 통해 연결된 원격 처리 디바이스에 의해 수행되는 분산 컴퓨팅 환경에서도 실행될 수 있다.
도 10을 참조하면, 컴퓨팅 디바이스(1000)는 다음 디바이스, 즉 메모리(1012), 하나 이상의 프로세서(1014), 하나 이상의 프리젠테이션 구성요소(1016), 입출력(I/O) 포트(1018), 입출력 구성요소(1020) 및 예시적인 전원(1022)을 직접 또는 간접적으로 연결하는 버스(1010)를 포함한다. 몇몇 예시적인 실시예에서, 컴퓨팅 디바이스(1000)는 스마트폰, 태블릿, 터치스크린 랩탑 등과 같은 모바일 전자 디바이스일 수 있거나 이를 포함할 수 있다. 버스(1010)는 (어드레스 버스, 데이터 버스 또는 이들의 조합과 같은) 하나 이상의 버스일 수 있는 것을 나타낸다. 도 10의 다양한 블록이 명확성을 위해 선으로 표시되었지만, 실제로는 다양한 구성요소를 구분하는 것이 명확하지 않고, 비유를 하자면, 선은 더 정확하게는 회색이고 흐릿할 것이다. 예를 들어, 디스플레이 디바이스와 같은 프레젠테이션 구성요소를 I/O 구성요소라고 간주할 수 있다. 또한, 프로세서는 메모리를 갖는다. 발명자는 이것이 기술의 본질임을 인식하고, 도 10의 다이어그램이 본 개시의 하나 이상의 실시예와 관련하여 사용될 수 있는 예시적인 컴퓨팅 디바이스의 예시일 뿐임을 반복한다. "워크스테이션", "서버", "랩톱", "휴대용 디바이스" 등으로서 그러한 카테고리 간에는 구별이 이루어지지 않으며, 이는 모두 도 10 및 "컴퓨팅 디바이스"에 대한 참조의 범위 내에서 고려되기 때문이다.
컴퓨팅 디바이스(1000)는 전형적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터 판독가능 매체는 컴퓨팅 디바이스(1000)에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있고 휘발성 및 비휘발성 매체, 및 착탈식 및 비착탈식 매체를 모두 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 착탈식 및 비착탈식 매체를 모두 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다목적 디스크(DVD) 또는 다른 광학 디스크 저장장치, 자기 카세트, 자기 테이프, 자기 디스크 저장장치 또는 다른 자기 저장 디바이스, 또는 원하는 정보를 저장하는 데 사용될 수 있고 컴퓨팅 디바이스(1000)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이에 제한되지 않는다. 컴퓨터 저장 매체는 신호 그 자체를 포함하지 않는다. 통신 매체는 전형적으로 반송파 또는 다른 전송 메커니즘과 같은 변조된 데이터 신호로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터를 구현하고 임의의 정보 전달 매체를 포함한다. "변조된 데이터 신호"라는 용어는 신호 내에 정보를 인코딩하는 방식으로 설정되거나 변경된 특성 중 하나 이상을 갖는 신호를 의미한다. 제한이 아닌 예로서, 통신 매체는 유선 네트워크 또는 직접 유선 연결과 같은 유선 매체 및 음향, RF, 적외선 및 기타 무선 매체와 같은 무선 매체를 포함한다. 위의 것 중 임의의 것의 조합도 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
메모리(1012)는 휘발성 및/또는 비휘발성 메모리 형태의 컴퓨터 저장 매체를 포함한다. 메모리는 착탈식, 비착탈식 또는 이들의 조합일 수 있다. 예시적인 하드웨어 디바이스는 솔리드 스테이트 메모리, 하드 드라이브, 광학 디스크 드라이브 등을 포함한다. 컴퓨팅 디바이스(1000)는 메모리(1012) 또는 I/O 구성요소(1020)와 같은 다양한 엔티티로부터 데이터를 읽는 하나 이상의 프로세서를 포함한다. 프리젠테이션 구성요소(들)(1016)는 사용자 또는 다른 디바이스에 데이터 표시를 제시한다. 예시적인 프리젠테이션 구성요소는 디스플레이 디바이스, 스피커, 인쇄 구성요소, 진동 구성요소 등을 포함한다.
I/O 포트(1018)는 컴퓨팅 디바이스(1000)가 I/O 구성요소(1020)를 포함하는 다른 디바이스에 논리적으로 연결되도록 하며, 그 중 일부는 내장될 수 있다. 예시적인 구성요소는 마이크, 조이스틱, 게임 패드, 위성 방송 수신 안테나, 스캐너, 프린터, 무선 디바이스 등을 포함한다. I/O 구성요소(1020)는 허공 제스처, 목소리, 또는 사용자에 의해 생성된 다른 생리학적 입력을 처리하는 내추럴 사용자 인터페이스(natural user interface: NUI)를 제공할 수 있다. 어떤 경우에는 추가 처리를 위해 입력이 적절한 네트워크 요소로 전송될 수 있다. NUI는 음성 인식, 스타일러스 인식, 얼굴 인식, 생체 인식, 화면 상에 및 화면에 인접한 제스처 인식, 허공 제스처, 머리 및 눈 추적 및 컴퓨팅 디바이스(1000)의 디스플레이와 연관된 터치 인식(아래에서 더 자세히 설명됨)의 임의의 조합을 구현할 수 있다. 컴퓨팅 디바이스(1000)에는 제스처 검출 및 인식을 위해 입체 카메라 시스템, 적외선 카메라 시스템, RGB 카메라 시스템, 터치스크린 기술 및 이들의 조합과 같은 깊이 카메라가 장착될 수 있다. 추가적으로, 컴퓨팅 디바이스(1000)에는 모션의 검출을 가능하게 하는 가속도계 또는 자이로스코프가 장착될 수 있다. 가속도계 또는 자이로스코프의 출력은 컴퓨팅 디바이스(1000)의 디스플레이에 제공되어 몰입형 증강 현실 또는 가상 현실을 렌더링할 수 있다.
이해될 수 있는 바와 같이, 본 개시의 실시예는 그 중에서도 터치스크린 상에서 정밀 포지셔닝하기 위한 시스템 및 방법을 제공한다. 본 개시는 모든 면에서 제한적이기보다는 예시적인 것으로 의도된 특정 실시예와 관련하여 설명되었다. 대안적인 실시예는 본 개시가 그 범위를 벗어나지 않고 속하는 기술분야에서 당업자에게 명백해질 것이다.
전술한 내용으로부터, 본 개시의 실시예는 시스템 및 방법에 명백하고 고유한 다른 이점과 함께 전술된 모든 목표 및 목적을 달성하도록 잘 적응된 것임을 알 수 있을 것이다. 소정의 특징 및 하위조합은 유용하며 다른 특징 및 하위조합을 참조하지 않고 이용될 수 있음이 이해될 것이다. 이는 청구범위에 의해 고려되고 청구범위 내에 있다.

Claims (20)

  1. 장거리 객체의 타겟팅 개선을 제공하기 위한 컴퓨터로 구현된 방법으로서,
    터치스크린 상에 멀티플레이어 게임의 객체를 묘사하는 동적 이미지를 표시하는 단계 - 상기 동적 이미지는 가상 세계의 제1 부분에 대응하는 제1 등측도를 나타냄 - 와,
    상기 제1 등측도를 나타내는 동안,
    상기 동적 이미지의 도구 선택 영역에서 제1 터치 제스처를 수신하는 단계 - 상기 도구 선택 영역은 사용자가 상기 가상 세계 내의 상기 객체 중 타겟 객체에 이용할 도구를 선택할 수 있게 함 - 와,
    미니맵에서 제2 터치 제스처를 수신하는 단계 - 상기 미니맵은 상기 가상 세계의 적어도 일부의 평면도를 제공함 - 와,
    상기 제2 터치 제스처에 응답하여, 상기 가상 세계의 제2 부분에 대응하는 제2 등측도를 나타내도록 상기 동적 이미지를 조정하는 단계 - 상기 제2 부분은 상기 수신된 제2 터치 제스처에 대응하고, 상기 제1 부분과 상기 제2 부분은 상기 가상 세계의 서로 다른 영역에 대응함 - 와,
    상기 조정된 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 수신하는 단계 - 상기 타겟팅 도구는 상기 조정된 동적 이미지 내에서 상기 선택된 도구의 타겟 범위를 묘사함 - 를 포함하는,
    컴퓨터로 구현된 방법.
  2. 제1항에 있어서,
    상기 동적 이미지 내에서보다 상기 조정된 동적 이미지 내에서 상기 타겟 객체를 타겟팅하기 위해 상기 사용자가 더 정밀한 타겟팅 움직임을 가능하게 할 수 있게 하는 단계를 더 포함하는,
    컴퓨터로 구현된 방법.
  3. 제1항에 있어서,
    상기 제3 터치 제스처를 수신하는 것에 응답하여, 상기 타겟 객체에 대해 상기 선택된 도구를 이용하는 단계를 더 포함하는,
    컴퓨터로 구현된 방법.
  4. 제3항에 있어서,
    상기 선택된 도구가 상기 타겟 객체에 대해 이용될 때, 상기 가상 세계의 상기 제1 부분에 대응하는 상기 제1 등측도를 나타내도록 상기 조정된 동적 이미지를 자동으로 조정하는 단계를 더 포함하는,
    컴퓨터로 구현된 방법.
  5. 제1항에 있어서,
    상기 멀티플레이어 게임의 객체는 플레이어 객체 및 비플레이어 객체를 포함하는,
    컴퓨터로 구현된 방법.
  6. 제1항에 있어서,
    상기 동적 이미지는 상기 사용자에 대응하는 플레이어 객체의 시점에서 상기 멀티플레이어 게임의 객체를 묘사하는,
    컴퓨터로 구현된 방법.
  7. 제1항에 있어서,
    상기 조정된 동적 이미지는 상기 선택된 도구의 타겟 범위에 기초하여 더 조정되는,
    컴퓨터로 구현된 방법.
  8. 제1항에 있어서,
    상기 제3 터치 제스처는 상기 사용자가 상기 수신된 제2 터치 제스처에 대응하는 상기 가상 세계의 상기 제2 부분을 중심으로 시점을 360도 회전시킬 수 있게 하는,
    컴퓨터로 구현된 방법.
  9. 프로세서에 의해 실행될 때 상기 프로세서로 하여금 장거리 객체의 타겟팅 개선을 제공하기 위한 동작을 수행하게 하는 명령어를 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 동작은,
    터치스크린 상에 멀티플레이어 게임의 객체를 묘사하는 동적 이미지를 표시하는 것 - 상기 동적 이미지는 제1 등측 투시도로부터 가상 세계의 제1 부분을 나타냄 - 과,
    상기 가상 세계의 상기 제1 부분을 나타내는 동안,
    상기 동적 이미지의 도구 선택 영역에서 제1 터치 제스처를 수신하는 것 - 상기 도구 선택 영역은 사용자가 상기 가상 세계 내의 상기 객체 중 타겟 객체에 이용할 도구를 선택할 수 있게 함 - 과,
    미니맵에서 제2 터치 제스처를 수신하는 것 - 상기 미니맵은 상기 가상 세계의 적어도 일부의 평면도를 제공함 - 과,
    상기 제2 터치 제스처에 응답하여, 제2 등측 투시도로부터 상기 가상 세계의 제2 부분을 나타내도록 상기 동적 이미지를 조정하는 것 - 상기 제2 부분은 상기 수신된 제2 터치 제스처에 대응하고, 상기 제1 부분과 상기 제2 부분은 상기 가상 세계의 서로 다른 영역에 대응함 - 과,
    상기 조정된 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 수신하는 것 - 상기 타겟팅 도구는 상기 조정된 동적 이미지 내에서 상기 선택된 도구의 타겟 범위를 묘사함 - 을 포함하되,
    상기 타겟팅 도구가 상기 조정된 동적 이미지 내에서 상기 선택된 도구의 타겟 범위를 묘사하는 것은, 상기 동적 이미지 내에서보다 상기 조정된 동적 이미지 내에서 상기 타겟 객체를 타겟팅하기 위해 상기 사용자가 더 정밀한 타겟팅 움직임을 가능하게 할 수 있게 하는,
    비일시적 컴퓨터 판독가능 매체.
  10. 제9항에 있어서,
    상기 제3 터치 제스처를 수신하는 것에 응답하여, 상기 타겟 객체에 대해 상기 선택된 도구를 이용하는 것을 더 포함하는,
    비일시적 컴퓨터 판독가능 매체.
  11. 제10항에 있어서,
    상기 선택된 도구가 상기 타겟 객체에 대해 이용될 때, 상기 가상 세계의 상기 제1 부분을 나타내도록 상기 조정된 동적 이미지를 자동으로 조정하는 것을 더 포함하는,
    비일시적 컴퓨터 판독가능 매체.
  12. 제9항에 있어서,
    상기 멀티플레이어 게임의 객체는 플레이어 객체 및 비플레이어 객체를 포함하는,
    비일시적 컴퓨터 판독가능 매체.
  13. 제9항에 있어서,
    상기 동적 이미지는 상기 사용자에 대응하는 플레이어 객체의 시점에서 상기 멀티플레이어 게임의 객체를 묘사하는,
    비일시적 컴퓨터 판독가능 매체.
  14. 제9항에 있어서,
    상기 조정된 동적 이미지는 상기 선택된 도구의 타겟 범위에 기초하여 더 조정되는,
    비일시적 컴퓨터 판독가능 매체.
  15. 제9항에 있어서,
    상기 제3 터치 제스처는 상기 사용자가 상기 가상 세계의 상기 제2 부분을 중심으로 시점을 360도 회전시킬 수 있게 하는,
    비일시적 컴퓨터 판독가능 매체.
  16. 장거리 객체의 타겟팅 개선을 제공하기 위한 시스템으로서,
    하나 이상의 프로세서와,
    컴퓨터 사용가능 명령어를 저장하는 비일시적 컴퓨터 저장 매체를 포함하고,
    상기 컴퓨터 사용가능 명령어는 상기 하나 이상의 프로세서에 의해 사용될 때 상기 하나 이상의 프로세서로 하여금,
    터치스크린 상에 멀티플레이어 게임의 객체를 묘사하는 동적 이미지를 표시하게 하고 - 상기 동적 이미지는 제1 등측 투시도로부터 가상 세계의 제1 부분을 나타냄 - ,
    상기 가상 세계의 상기 제1 부분을 나타내는 동안,
    상기 동적 이미지의 도구 선택 영역에서 제1 터치 제스처를 수신하게 하며 - 상기 도구 선택 영역은 사용자가 상기 가상 세계 내의 상기 객체 중 타겟팅된 객체에 이용할 도구를 선택할 수 있게 함 - ,
    미니맵에서 제2 터치 제스처를 수신하게 하고 - 상기 미니맵은 상기 가상 세계의 적어도 일부의 평면도를 제공함 - ,
    상기 제2 터치 제스처에 응답하여, 제2 등측 투시도로부터 상기 가상 세계의 제2 부분을 나타내도록 상기 동적 이미지를 조정하게 하며 - 상기 제2 부분은 상기 수신된 제2 터치 제스처에 대응하고, 상기 제1 부분과 상기 제2 부분은 상기 가상 세계의 서로 다른 영역에 대응함 - ,
    상기 조정된 동적 이미지의 타겟팅 도구에서 제3 터치 제스처를 수신하게 하는 - 상기 타겟팅 도구는 상기 조정된 동적 이미지 내에서 상기 선택된 도구의 타겟 범위를 묘사하고, 상기 제3 터치 제스처는 상기 사용자가 상기 가상 세계의 상기 제2 부분을 중심으로 시점을 360도 회전시킬 수 있게 함 - ,
    시스템.
  17. 제16항에 있어서,
    상기 동적 이미지 내에서보다 상기 조정된 동적 이미지 내에서 상기 객체를 타겟팅하기 위해 상기 사용자가 더 정밀한 타겟팅 움직임을 가능하게 할 수 있게 하는 것을 더 포함하는,
    시스템.
  18. 제16항에 있어서,
    상기 제3 터치 제스처를 수신하는 것에 응답하여, 상기 객체에 대해 상기 선택된 도구를 이용하게 하는 것을 더 포함하는,
    시스템.
  19. 제18항에 있어서,
    상기 선택된 도구가 상기 객체에 대해 이용될 때, 상기 조정된 동적 이미지를 다시 상기 제1 등측 투시도로부터 상기 가상 세계의 상기 제1 부분을 나타내도록 자동으로 조정하게 하는 것을 더 포함하는,
    시스템.
  20. 제16항에 있어서,
    상기 조정된 동적 이미지는 상기 선택된 도구의 타겟 범위에 기초하여 더 조정되는,
    시스템.
KR1020237012208A 2020-09-11 2021-09-09 멀티플레이어 게임에서 장거리 객체의 타겟팅 개선 KR102549301B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/018,282 US11458394B2 (en) 2020-09-11 2020-09-11 Targeting of a long-range object in a multiplayer game
US17/018,282 2020-09-11
PCT/US2021/049565 WO2022056063A1 (en) 2020-09-11 2021-09-09 Improved targeting of a long-range object in a multiplayer game

Publications (2)

Publication Number Publication Date
KR20230053719A KR20230053719A (ko) 2023-04-21
KR102549301B1 true KR102549301B1 (ko) 2023-06-28

Family

ID=80626079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237012208A KR102549301B1 (ko) 2020-09-11 2021-09-09 멀티플레이어 게임에서 장거리 객체의 타겟팅 개선

Country Status (5)

Country Link
US (2) US11458394B2 (ko)
EP (1) EP4192593A4 (ko)
KR (1) KR102549301B1 (ko)
CN (1) CN116669822A (ko)
WO (1) WO2022056063A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818092B2 (ja) * 2019-06-25 2021-01-20 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報端末装置
JP6928709B1 (ja) * 2020-12-28 2021-09-01 プラチナゲームズ株式会社 情報処理プログラム、情報処理装置、および情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150258442A1 (en) 2014-03-12 2015-09-17 Wargaming.Net Llp Potential damage indicator of a targeted object
US20180043260A1 (en) 2015-09-29 2018-02-15 Tencent Technology (Shenzhen) Company Limited Information processing method, terminal, and computer storage medium
US20180292952A1 (en) 2017-04-05 2018-10-11 Riot Games, Inc. Methods and systems for object selection

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008052255A1 (en) * 2006-10-30 2008-05-08 Team Bondi Pty Ltd Methods and systems for providing a targeting interface for a video game
US9319842B2 (en) 2011-06-27 2016-04-19 At&T Intellectual Property I, L.P. Mobile device configured point and shoot type weapon
US10347082B2 (en) 2016-09-23 2019-07-09 Igt Gaming system and method providing a skill-based wagering game with an average expected payback percentage determined based on player skill level
CN107648847B (zh) * 2017-08-22 2020-09-22 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107741818A (zh) * 2017-09-01 2018-02-27 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
US10807001B2 (en) 2017-09-12 2020-10-20 Netease (Hangzhou) Network Co., Ltd. Information processing method, apparatus and computer readable storage medium
CN108619721B (zh) 2018-04-27 2020-08-11 腾讯科技(深圳)有限公司 虚拟场景中的距离信息显示方法、装置及计算机设备
CN109568965B (zh) * 2018-11-30 2020-10-16 广州要玩娱乐网络技术股份有限公司 目标单位移动方法、装置、存储介质和终端
CN109675310A (zh) * 2018-12-19 2019-04-26 网易(杭州)网络有限公司 一种游戏中虚拟镜头控制的方法及装置
CN109568957B (zh) * 2019-01-10 2020-02-07 网易(杭州)网络有限公司 游戏中的显示控制方法、装置、存储介质、处理器及终端
CN110559647B (zh) * 2019-09-25 2023-07-14 网易(杭州)网络有限公司 虚拟射击游戏中准星显示的控制方法及装置、介质、设备
CN110548286A (zh) * 2019-09-29 2019-12-10 网易(杭州)网络有限公司 游戏中虚拟对象的锁定方法、装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150258442A1 (en) 2014-03-12 2015-09-17 Wargaming.Net Llp Potential damage indicator of a targeted object
US20180043260A1 (en) 2015-09-29 2018-02-15 Tencent Technology (Shenzhen) Company Limited Information processing method, terminal, and computer storage medium
US20180292952A1 (en) 2017-04-05 2018-10-11 Riot Games, Inc. Methods and systems for object selection

Also Published As

Publication number Publication date
WO2022056063A1 (en) 2022-03-17
KR20230053719A (ko) 2023-04-21
US11458394B2 (en) 2022-10-04
EP4192593A4 (en) 2024-01-17
CN116669822A (zh) 2023-08-29
US20220395751A1 (en) 2022-12-15
EP4192593A1 (en) 2023-06-14
US20220080314A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US20210252398A1 (en) Method and system for directing user attention to a location based game play companion application
EP3882870B1 (en) Method and device for image display, storage medium and electronic device
US9283473B2 (en) Game providing device
US20220395751A1 (en) Targeting of a long-range object in a multiplayer game
KR101954010B1 (ko) 가상 캐릭터의 터닝을 구현하기 위한 방법 및 단말기
EP3469803A1 (en) Method and system for directing user attention to a location based game play companion application
WO2021244237A1 (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
US20230142566A1 (en) System and method for precise positioning with touchscreen gestures
KR102611729B1 (ko) 멀티플레이어 온라인 비디오 게임의 복수의 객체 중 개별 객체의 타겟팅 개선
JP5933069B2 (ja) ゲーム提供装置
CN109417651B (zh) 使用基于位置的游戏配套应用程序生成挑战
WO2024067168A1 (zh) 基于社交场景的消息显示方法、装置、设备、介质及产品
CN116115996A (zh) 画面显示方法、装置、电子设备及存储介质
CN117753004A (zh) 消息显示方法、装置、设备、介质及程序产品
CN115089968A (zh) 一种游戏中的操作引导方法、装置、电子设备及存储介质
CN116808582A (zh) 一种游戏中信息的提示方法、提示装置、设备和介质

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant