KR102559288B1 - 고정된 오프셋 타겟팅 위치를 선택하는 기법 - Google Patents

고정된 오프셋 타겟팅 위치를 선택하는 기법 Download PDF

Info

Publication number
KR102559288B1
KR102559288B1 KR1020237012131A KR20237012131A KR102559288B1 KR 102559288 B1 KR102559288 B1 KR 102559288B1 KR 1020237012131 A KR1020237012131 A KR 1020237012131A KR 20237012131 A KR20237012131 A KR 20237012131A KR 102559288 B1 KR102559288 B1 KR 102559288B1
Authority
KR
South Korea
Prior art keywords
targeting
focal
crosshair
character
selection
Prior art date
Application number
KR1020237012131A
Other languages
English (en)
Other versions
KR20230053713A (ko
Inventor
알렉산더 닉슨 후앙
Original Assignee
라이오트 게임즈, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라이오트 게임즈, 인크. filed Critical 라이오트 게임즈, 인크.
Priority to KR1020237024736A priority Critical patent/KR20230116071A/ko
Publication of KR20230053713A publication Critical patent/KR20230053713A/ko
Application granted granted Critical
Publication of KR102559288B1 publication Critical patent/KR102559288B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/307Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying an additional window with a view from the top of the game field, e.g. radar screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

터치스크린 제스처를 사용하는 멀티플레이어 게임의 맵 내 아이템으로부터 오프셋 앵커의 정확한 위치 선택을 위한 시스템 및 방법이 개시된다. 구체적으로, 시스템 및 방법은 터치스크린으로부터의 입력을 이용하여, 예를 들어 플레이어 캐릭터의 선택적 텔레포트를 위해 선택된 타겟과 관련하여 오프셋 타겟팅 위치를 선택적으로 정의한다. 본질적으로, 방법 및 시스템은 직관적인 오프셋-포지셔닝 초점 십자선을 이용하여, 타겟 객체(일반적으로 본 명세서에서 "타겟"이라고 함)로부터 오프셋된 캐릭터를 정확하게 위치시키는 사용자 또는 "플레이어"의 능력을 용이하게 한다. 본 명세서에 기술된 오프셋-포지셔닝 초점 십자선은 플레이어가 선택한 타겟에 대해 캐릭터가 텔레포트할 방사상 및 오프셋 위치를 정확하고 효율적으로 선택할 수 있게 한다.

Description

고정된 오프셋 타겟팅 위치를 선택하는 기법
비디오 게임은 플레이어에게 엔터테인먼트, 경쟁 및 지적 자극을 제공한다. 대부분의 비디오 게임에서, 제어 메커니즘은 플레이어(예컨대, 사용자)의 즐거움에 매우 중요하다. 이와 같이, 플레이어의 캐릭터를 제어하는 데 사용되는 입력 또는 입력들의 조합의 개발, 구현 및 기능은 게임 프로그래밍의 주된 초점이다. 전통적인 비디오 게임(예컨대, 데스크톱 또는 랩톱에서 플레이하는 게임)은 전용 입력 장치(예컨대, 키보드 및 마우스)를 활용하여 쉽게 접근할 수 있는 수 많은 제어 메커니즘을 촉진할 수 있다. 예를 들어, 전통적인 비디오 게임에서의 일반적인 제어 메커니즘에는 스킬 활성화 입력(가령, 키보드 버튼 누르기), 타겟 포지셔닝(예컨대, 마우스 이동) 및 스킬 실행(예컨대, 마우스 버튼 누르기)과 같은 일련의 입력 명령이 포함될 수 있다. 그러나, 모바일 장치(예컨대, 스마트폰, 태블릿 등)의 공유된 디스플레이/입력 표면과 상대적으로 작은 디스플레이 영역은 일부 게임의 복잡한 제어 메커니즘에 대해 문제를 제시한다. 마찬가지로, 모바일 장치 및 "콘솔"의 입력 채널의 제한된 수 및 이들 입력 채널의 상대적으로 낮은 정밀도는 복잡한 제어 메커니즘의 정밀한 실행에 대해 문제를 제시한다.
본 개시의 양태는 디스플레이된 오프셋 그래픽 요소를 사용하여 플레이어 캐릭터 액션의 정확한 타겟팅을 위한 기술에 관한 것이다. 오프셋 그래픽 요소의 디스플레이는 디스플레이된 객체를 앵커 객체로 설정하는 터치 기반 인터페이스 상의 사전 결정된 입력 명령에 의해 트리거될 수 있다. 앵커 객체가 선택되면, 터치스크린 제스처를 사용하여 타겟팅 위치가 결정된다.
비제한적이고 예시적인 예로서, 멀티플레이어 게임 동안 터치스크린 상의 정확한 오프셋 타겟팅 위치 선택은 타겟팅 영역 내에서 사용자 상호작용 가능한 초점 십자선(user-interactable focus point reticle)을 이용하여 달성될 수 있다. 플레이어가 텔레포트 명령 아이콘(teleportation command icon)과 같은 액션 명령 아이콘을 선택하는 것과 같은 입력을 제공한 후에 초점 십자선 및 원형 타겟팅 영역이 디스플레이된다. 플레이어가 텔레포트 명령 아이콘을 선택하면, 플레이어는 타겟팅 영역 내에서 초점 십자선의 위치를 선택적으로 정의할 수 있다. 스킬 조준 도구(skill aiming tool)를 움직이는 터치 입력의 이동은 초점 십자선의 위치를 능동적으로 조정할 수 있다. 객체가 타겟팅 영역 내에 있는 경우, 객체 주위에 선택 둘레(selection perimeter)가 제시되어 그 객체가 타겟으로 선택되었음을 나타낼 수 있다. 일부 양태에서, 다수의 타겟이 타겟팅 영역 내에 있을 때, 초점 십자선에 가장 가까운 타겟이 타겟으로 선택될 수 있다. 대안적으로, 일부 양태에서, 다수의 타겟이 타겟팅 영역 내에 있을 때, 플레이어의 아바타(즉, 플레이어가 제어하는 캐릭터)에 가장 가까운 타겟이 타겟으로 선택될 수 있다. 초점 십자선에서 선택한 타겟까지 직선이 그려진다. 그려진 선은 초점 십자선에 가장 가까운 지점에서 선택 둘레와 교차한다. 그 지점에서, 아바타가 텔레포트할 위치를 정의하는 타겟 표시자가 표시된다. 그런 다음, 플레이어는 스킬의 선택해제와 같은 다른 입력(예컨대, 텔레포트 명령 아이콘)을 제공할 수 있으며 플레이어의 아바타는 타겟팅 표시자의 위치로 텔레포트될 것이다.
본 요약은 아래의 상세한 설명에서 추가로 설명되는 선택된 개념들을 단순화된 형태로 소개하기 위해 제공된다. 본 요약은 청구된 출원타겟의 주요 특징 또는 기본 특징을 식별하기 위한 것이 아니며, 청구된 출원타겟의 범위를 결정하는 데 도움을 주기 위해 사용되는 것도 아니다.
본 개시의 실시예는 첨부된 도면을 참조하여 아래에서 상세히 설명된다:
도 1은 본 개시의 양태에 따라 터치 제스처를 이용한 정밀 오프셋 포지셔닝을 위한 예시적인 시스템을 도시한다.
도 2는 본 개시의 양태에 따라 오프셋 타겟팅 위치를 정확하게 정의하기 위한 예시적인 타겟팅 프로토콜 사용자 인터페이스를 도시한다.
도 3은 본 개시의 일부 실시예에 따라 타겟팅 위치를 정확하게 정의하기 위한 다른 예시적인 타겟팅 프로토콜 사용자 인터페이스를 도시한다.
도 4는 본 개시의 양태에 따른 오프셋 타겟팅 시스템을 포함하는 공유 게임 환경의 예시적인 스크린 뷰를 도시한다.
도 5는 본 개시의 양태에 따른 공유 게임 환경의 다른 예시적인 스크린 뷰를 도시한다.
도 6은 본 개시의 양태에 따라 터치스크린 제스처를 이용한 오프셋 타겟 포지셔닝을 위한 예시적인 방법을 도시한다.
도 7은 본 개시의 양태에 따른 예시적인 컴퓨팅 장치를 도시한다.
온라인 멀티플레이어 게임 플레이가 모바일 장치 및 핸드헬드 터치스크린 장치로 이동함에 따라, 이러한 모바일 장치 터치스크린의 크기 제약은 다양한 과제를 제시한다. 예를 들어, 멀티플레이어 온라인 배틀 아레나(MOBA) 게임 또는 기타 멀티플레이어 전략 비디오 게임에서는 플레이어의 아바타를 이동하기 위해 위치를 빠르게 선택해야 하는 경우가 많다. 이것은 MOBA 게임에서 특히 일반적이다. 일반적으로, MOBA 게임은 빠르게 진행되며 일반적으로 빠른 명령 입력이 플레이어(예컨대, 사용자)에게 전략적 이점을 제공하는 게임 플레이 상황을 제시한다. 그러나, 휴대폰과 같은 터치스크린 장치에서의 게임 플레이는 기존의 PC 스타일 게임 플레이와 비교할 때 게임 플레이 제어에서 여러 가지 단점을 갖는다. 예를 들어, 터치스크린 장치 상의 맵는 축소된 크기로 표시되어 사용자가 보기 어려울 수 있다. 더욱이, 손가락이나 엄지 손가락이 일반적으로 제어 입력을 제공하는 데 사용된다. 그것들은 비교적 부정확하고(예를 들어, 게임 공간에서 상대적으로 가까운 두 위치를 선택하는 것은 어렵다) 맵의 일부를 가릴 수 있다. 이로 인해 특히 정확성과 속도가 필요한 작업을 수행할 때 사용자 정확도가 떨어지고 게임 플레이 속도가 느려질 수 있다. MOBA 게임에서 자주 볼 수 있는 특정 작업 중 하나는 아바타가 맵 상의 현재 위치에서 맵 상의 선택된 타겟 객체 근처의 텔레포트 목적지로 텔레포트하여, 텔레포트 목적지에서부터 타겟 객체에 대해 아바타에 의한 공격 동작이 수행될 수 있도록 하는 아바타의 기능이다.
기존의 MOBA 게임을 개인용 컴퓨터 또는 "PC"(예컨대, 비모바일 또는 비터치스크린 장치)에서 플레이할 때, 일반적으로 텔레포트 작업은 쉽게 수행될 수 있는데, 그 이유는 입력 장치인 마우스를 통해 사용자가 타겟 객체를 빠르게 선택할 수 있고, 선택된 타겟 객체에 대한 텔레포트 목적지를 빠르게 정의할 수 있기 때문이다. 즉, 플레이어는 쉽게 마우스를 사용하여 의도한 타겟 객체를 선택하고, 의도한 타겟 객체에 가깝기는 하지만 그로부터 오프셋된 텔레포트 타겟을 정의하며, 해당 텔레포트 목적지를 플레이어의 아바타가 텔레포트할 위치로 선택할 수 있다. 그러나, MOBA 게임이 PC에서 터치스크린 장치로 이동하기 시작하면서, 터치 기반 입력 제어가 여러 측면에서 마우스 및 키보드에 비해 기능이 떨어지는 것으로 나타났다. 텔레포트 동작은 여전히 MOBA 게임에서 특정 아바타의 특성이기 때문에, 터치스크린 기반 MOBA 게임은 텔레포트 동작을 사용할 수 있게 만들었지만 플레이어가 정확하게 그리고 선택적으로, 선택된 타겟 객체에 대해 텔레포트 목적지를 정의하고 그 선택된 타겟 객체를 오프셋하는 기능은 희생시켰다. 대신, 터치스크린 기반 MOBA 게임은 단순히 플레이어가 타겟 객체를 선택하고, 텔레포트 동작을 시작하며, 플레이어의 아바타를 타겟 객체에 상대적인 고정된 오프셋 타겟팅 위치(예컨대, 항상 3시 방향 위치)로 텔레포트하도록 허용한다. 이 솔루션은 플레이어의 텔레포트 능력을 보존하지만, 숙련된 MOBA 게이머는 맵에서 아바타의 위치를 완전하고 정확하게 제어하는 것이 성공의 필수 요소라는 것을 알고 있다.
이와 같이, 본 개시의 다양한 양태는 MOBA 게임과 같은 게임의 아바타에 대한 오프셋 타겟팅 위치를 선택, 다시 말해 정확하고 효율적으로 정의하도록 터치스크린 또는 콘솔 제어기를 통해 수신된 입력을 활용하기 위한 시스템 및 방법에 관한 것이다. 일부 예시적인 양태에서, 정확한 오프셋 타겟팅 위치 선택은 아바타의 타겟팅 영역 내에서 초점 십자선의 위치를 선택적으로 정의하고 타겟팅 영역 내에서 결정된 타겟 객체 주위에 선택 둘레를 제시함으로써 달성된다. 선택 둘레를 표시하면 초점 십자선의 위치로부터 선택 둘레를 따라 초점 십자선에 가장 가까운 지점까지 벡터를 계산할 수 있다.
본 개시에 따른 예시적인 방법은 터치스크린 상의 맵 내에 객체 및 아바타의 디스플레이를 제공하는 단계, 및 텔레포트 동작을 개시하기 위해 도구 선택 아이콘 또는 가상 조이스틱 상에서 터치 제스처를 수신하는 단계를 포함할 수 있다. 터치 제스처의 초기 검출은 플레이어의 아바타에 대한 타겟팅 영역을 시작할 수 있다. 일부 양태에서, 타겟팅 영역은 그 중심이 아바타의 위치에 대응하도록 아바타 주위에 반원의 형태를 취할 수 있다. 타겟팅 영역이 설정되면, 타겟이 타겟팅 영역 내에 위치한다고 판단되면 그 타겟은 선택될 수 있다. 터치 제스쳐를 연속적으로 움직일 수 있어 사용자의 터치 제스쳐에 의해 초점 십자선의 위치를 선택적으로 정의할 수 있다.
그런 다음 타겟팅 영역 내에서의 타겟의 위치를 부분적으로 기반으로 타겟을 선택할 수 있다. 타겟의 선택을 나타내기 위해 선택한 타겟 주변에 선택 둘레를 표시할 수 있다. 일부 양태에서, 객체는 특히 타겟팅 영역 내의 하나 이상의 다른 객체와 초점 십자선 사이의 상대 거리와 비교할 때, 초점 십자선까지의 자신의 거리에 더 기초하여 선택될 수 있다. 대안적으로, 일부 양태에서, 객체는 특히 타겟팅 영역 내의 하나 이상의 다른 객체와 아바타 사이의 상대 거리와 비교할 때, 아바타까지의 자신의 거리에 더 기초하여 선택될 수 있다. 그런 다음, 초점 십자선의 위치로부터 객체까지 벡터가 계산될 수 있다. 벡터는 선택한 객체의 선택 둘레를 따라 한 지점을 통과하며, 이 지점은 선택 둘레를 따라 초점 십자선의 위치에 가장 가까운 지점이다. 일부 양태에서, 초점 십자선의 위치는 초점 십자선의 중심점에 대응한다. 아바타의 미래 위치(예컨대, 아바타의 텔레포트 타겟)를 나타내는 오프셋 타겟 표시자가 선택 둘레를 따라 있는 지점에 표시되도록 제공될 수 있다. 일부 양태에서, 입력(예를 들어, 터치 입력 및 터치 제스처의 해제, 또는 제어기 버튼의 누름, 및 제어기 버튼의 해제)에 의해, 아바타는 현재 위치에서 오프셋 타겟 표시자의 위치로 텔레포트할 수 있다. 즉, 플레이어에 의한 다른 입력에 응답하여, 아바타는 디스플레이로부터 제거되고 오프셋 타겟 표시자의 위치에 다시 디스플레이되도록 제공될 수 있다.
본 명세서에서 사용되는 바와 같이, "객체"라는 용어는 플레이어 제어 캐릭터, 컴퓨터 제어 캐릭터, 또는 플레이어와 상호 작용할 수 있는 게임 환경의 임의의 다른 요소를 지칭한다. 컴퓨터 제어 캐릭터는 일반적으로 게임 장르에 따라 "봇", "비플레이어 캐릭터(NPC)", "미니언" 또는 "몹(mob)"으로 불린다. 게임 환경의 다른 요소의 예시적인 예는 구조와 아이템을 포함한다.
"공유 게임 환경"이라는 용어는 게임의 객체 및 게임 공간을 의미한다. 게임의 게임 공간은 게임의 장르에 따라 일반적으로 "인스턴스", "맵", "세계", "레벨" 또는 "보드"라고 한다. 예를 들어, 게임 공간은 (대규모 멀티플레이어 온라인 롤 플레잉 게임(MMORPG)의 세계와 같은) 지속적인 세계, 지속적인 세계에서의 세션 기반 인스턴스(예컨대, 레이드(raid), 플레이어 대 플레이어 아레나, 또는 MMORPG의 플레이어 대 환경 아레나), 또는 세계의 세션별 인스턴스(예컨대, 배틀 로얄 맵, 실시간 전략 맵, MOBA 맵 또는 유사 맵)일 수 있는 것으로 간주된다.
"스크린 뷰"라는 용어는 플레이어가 보고 있는 공유 게임 환경의 일부를 나타낸다. 다시 말해, 스크린 뷰는 특정 순간에 특정 플레이어에게 표시되는 공유 게임 환경의 하위 섹션이다.
이제 도 1을 참조하면, 본 개시의 양태가 이용될 수 있는 하나의 예시적인 동작 환경(100)을 도시하는 개략도가 제공된다. 본 명세서에서 설명된 이 구성 및 다른 구성은 단지 예로서 설명된 것임을 이해해야 한다. 다른 구성 및 요소(예컨대, 머신, 인터페이스, 기능, 순서, 기능의 그룹화 등)는 표시된 것에 추가하거나 그 대신 사용될 수 있으며, 몇몇 요소는 완전히 생략될 수 있다. 또한, 본 명세서에 설명된 많은 요소는 별개의 또는 분산된 컴포넌트로서 또는 다른 컴포넌트와 함께 그리고 임의의 적절한 조합 및 위치에서 구현될 수 있는 기능적 엔티티이다. 하나 이상의 엔티티에 의해 수행되는 것으로 본 명세서에 설명된 다양한 기능은 하드웨어, 펌웨어 및/또는 소프트웨어에 의해 수행될 수 있다. 예를 들어, 메모리에 저장된 명령어를 실행하는 프로세서에 의해 다양한 기능이 수행될 수 있다.
도 1의 동작 환경(100)은 인터넷과 같은 네트워크(130)를 통해 게임 플레이를 지시하고 및/또는 가상 게임 환경에서 설정을 정의하기 위해, 게임 클라이언트(120, 150)와 같은 하나 이상의 클라이언트 장치에 서비스를 제공하는 서버 장치(110)를 포함한다. 게임 클라이언트(120, 150)는 본 명세서에서 나중에 설명되는 바와 같이 하나 이상의 프로세서에서 구현될 수 있다. 일부 양태에서, 게임 클라이언트(120, 150)는 터치스크린을 갖는 스마트폰, 태블릿 또는 랩탑 컴퓨터와 같은 모바일 전자 장치이다. 서버 장치(110) 및 게임 클라이언트(120, 150)는 네트워크(130)를 통해 유선 또는 무선 방식으로 통신할 수 있다.
게임 클라이언트(120,150)는 일반적으로 공유 게임 환경과 플레이어(즉, 장치의 사용자)의 상호 작용을 용이하게 한다. 예를 들어, 게임 클라이언트는 공유 게임 환경의 스크린 뷰와 게임의 사용자 인터페이스를 표시할 수 있다. 또한, 게임 클라이언트는 플레이어 입력을, 스크린 뷰 또는 플레이어의 캐릭터를 제어하는 명령으로 변환할 수 있다. 장치(예컨대, 모바일 장치 또는 콘솔)는 플레이어가 공유 게임 환경에 참여할 수 있도록 게임 클라이언트를 실행함으로써 이 상호 작용을 용이하게 할 수 있다. 게임 클라이언트는 공유 게임 환경과의 플레이어 상호 작용을 용이하게 하는 하드웨어, 펌웨어 및 컴퓨터 실행 가능 명령어의 조합을 활용할 수 있는 동작 모듈을 포함할 수 있다. 게임 클라이언트는 계정 로그인, 매치메이킹, 캐릭터 선택, 채팅, 마켓플레이스 등과 같은 공유 게임 환경에 쉽게 참여할 수 있게 해주는 여러 다른 게임 요소를 포함할 수 있다. 그러한 게임 클라이언트의 예시적인 예로는 Riot의 League of Legends: Wild Rift®를 포함하지만 이에 국한되지는 않는다.
게임 클라이언트(예를 들어, 게임 클라이언트(120) 또는 게임 클라이언트(150))의 양태는 게임 실행 컴포넌트(122), 통신 컴포넌트(124) 및 그래픽 사용자 인터페이스(GUI) 컴포넌트(126)를 포함할 수 있다. 게임 실행 컴포넌트(122)는 자신과 연관된 게임, 예컨대, 본 명세서에 설명된 MOBA 게임을 실행하도록 구성될 수 있다. 일부 양태에서, 게임을 실행하는 것은 사용자 인터페이스를 디스플레이하는 것을 포함할 수 있다. 통신 컴포넌트(124)는 네트워크(130)를 통한 게임 클라이언트(120), 게임 클라이언트(150), 서버 장치(110) 또는 이들의 임의의 조합 사이의 네트워크 통신을 위해 구성될 수 있다.
GUI 컴포넌트(126)는 메뉴, 가상 조이스틱, 아이콘, 고정 또는 이동 가능한 객체 등과 같은 게임의 다양한 상호작용 가능 특징 및 공유 게임 환경의 표시를 용이하게 하도록 프로그래밍 방식으로 구성될 수 있다. 일부 양태에서, GUI 컴포넌트(126)는 본 명세서에서 나중에 설명되는 바와 같이 게임 클라이언트(120)의 터치스크린 상의 터치 제스처를 검출하도록 구성된 제스처 검출 컴포넌트(127)를 더 포함할 수 있다. 터치 제스처는 입력 명령으로 변환될 수 있고 게임 실행 컴포넌트(122) 및 고정된 오프셋 타겟팅 제어 컴포넌트(128)로 전달될 수 있다.
GUI 컴포넌트(126)는 또한 AOTC(Anchored Offset Targeting Control) 컴포넌트(128)를 포함한다. 일반적으로, AOTC 컴포넌트(128)는 선택적으로 활성화된 타겟팅 지원 프로토콜을 용이하게 한다. 타겟팅 지원 프로토콜은 입력 명령과 동적 그래픽 요소를 사용하여, 모바일 기반 또는 콘솔 기반 게임에서 복잡한 게임 메커니즘을 전달하고 실행할 수 있다. 자격을 주는 스킬이나 액션이 플레이어에 의해 선택되면, 타겟팅 지원 엔진이 선택에 따라 자동으로 활성화될 수 있다. AOTC 컴포넌트(128)는 후속 입력을 모니터링하고 이러한 입력의 효과를 타겟팅 지원 프로토콜과 통신할 수 있다. AOTC 컴포넌트(128)는 타겟팅 종료 입력을 추가로 검출하고 공유 게임 환경에서의 실행을 위해 게임 실행 컴포넌트(122)에 명령 세트를 전달할 수 있다.
더 상세하게는, AOTC 컴포넌트(128)는 게임 클라이언트(120)의 사용자에 의해 제어되는 캐릭터와 연관된 스킬을 식별할 수 있다. 각각의 스킬, 하나의 스킬 또는 특정 스킬 세트는 타겟팅 규칙 세트를 가질 수 있다. 타겟팅 규칙은 게임에 따라 다를 수 있다. 예를 들어, 텔레포트, 점멸, 돌진, 갈고리, 점프 또는 다른 유형의 이동 또는 이동 공격 스킬에 대한 타겟팅 규칙에는 스킬 범위, 배치 범위, 유효한 객체 클래스와 관련된 규칙 또는 기타 규칙이 있을 수 있다. 로그인 또는 세션 개시 동안, AOTC 컴포넌트(128)는 게임 클라이언트(120)와 연관된 사용자에 의해 선택된 특정 캐릭터를 검출할 수 있다. AOTC 컴포넌트(128)는 선택된 캐릭터와 관련된 스킬 및 스킬 규칙에 대해 로컬로 유지되는 게임 데이터 또는 데이터베이스(140)를 검색할 수 있다. 추가적으로 또는 대안적으로, AOTC 컴포넌트(128)는 네트워크(130)를 통해 게임 클라이언트(120)에 전달되는 정보를 모니터링할 수 있다.
계속해서, AOTC 컴포넌트(128)는 GUI 컴포넌트(126)에 의해 검출된 입력 명령을 모니터링할 수 있다. AOTC 컴포넌트(128)에 의해 검출된 입력 명령은 스킬을 활성화, 조준, 실행 또는 포기(예를 들어, 캐스팅 취소)할 수 있다. 예를 들어, AOTC 컴포넌트(128)는 스킬의 활성화에 응답하여 AOTC 컴포넌트(128)의 타겟팅 지원 프로토콜을 활성화할 수 있다. AOTC 컴포넌트(128)는 스킬의 조준을 조정하기 위해 특정 입력 명령을 해석할 수 있다. 예를 들어, AOTC 컴포넌트(128)는 터치 기반 인터페이스를 사용하여 스킬 조준 도구를 움직이는 것을 초점 십자선의 움직임으로 변환할 수 있다. 다른 예로서, AOTC 컴포넌트(128)는 아날로그 조이스틱 또는 터치 패드로부터의 입력을 방향 및 크기로 변환할 수 있다. AOTC 컴포넌트(128)는 방향을 초점 벡터의 방사상 배향으로 매핑하고 크기를 초점 벡터를 따라 초점 십자선의 위치로 매핑할 수 있다. 추가적으로, AOTC 컴포넌트(128)는 스킬이 조준되는 위치에서 스킬의 실행으로 특정 명령을 변환할 수 있다. 예를 들어, 홀드 버튼을 제거하거나 아이콘을 누르는 것은 실행 입력 명령을 나타낼 수 있다. 유사하게, AOTC 컴포넌트(128)는 사전 결정된 기간 동안의 입력 부족 또는 사전 결정된 입력 취소 명령을 타겟팅 지원 프로토콜 및 관련 스킬을 비활성화하기 위한 명령으로 변환할 수 있다.
활성화 시, 타겟팅 지원 프로토콜은 활성화된 스킬과 관련된 특정 타겟팅 규칙을 기반으로 타겟팅 영역에서 객체를 검출할 수 있다. 예를 들어, 스킬의 범위에 따라 타겟팅 영역을 결정할 수 있다. 규칙은 스킬과 연관된 유효한 객체 클래스(예컨대, 플레이어 캐릭터, 비플레이어 캐릭터, 건물, 동맹 객체, 라이벌 객체 등)를 더 식별할 수 있다. 타겟팅 지원 프로토콜은 공유 게임 환경을 스캐닝하여 타겟팅 영역 내의 각각의 유효한 객체를 식별할 수 있다. 타겟팅 지원 프로토콜은 공유된 게임 환경과 관련된 국부적으로 저장된 데이터를 사용하거나 네트워크(130)를 통해 게임 클라이언트(120)로 전달되는 데이터를 모니터링하여 타겟팅 영역 내의 객체의 위치를 결정할 수 있다. 예를 들어, 게임 클라이언트(150)는 공유 게임 환경에서 게임 클라이언트(150)와 연관된 캐릭터의 움직임을 나타내는 데이터를 통신할 수 있다.
추가로, AOTC 컴포넌트(128)는 타겟팅 영역, 타겟팅 지점, 초점 십자선, 선택 둘레, 스킬 조준 도구 또는 이들의 임의의 조합의 동적 그래픽 표현을 생성한다. 특정 그래픽 표현은 게임에 따라 다를 수 있다. 그러나, 동적 그래픽 표현은 고정된 오프셋 타겟팅 제어 메커니즘의 활성화를 전달하는 시각적 표현을 게임 클라이언트(120)의 사용자에게 제공한다. 예를 들어, 타겟팅 지원 프로토콜의 활성화이다. AOTC 컴포넌트(128)는 추가적인 입력 명령에 기초하여 그래픽 표현을 동적으로 업데이트할 수 있다. 예를 들어, 제어기 또는 터치스크린으로부터의 입력은 제1 방향으로의 스킬 조준 도구의 움직임에 대응할 수 있다. 이에 응답하여, AOTC 컴포넌트(128)는 제1 방향으로의 비례 이동으로 초점 십자선의 동적 그래픽 표현을 수정할 수 있다.
또한, AOTC 컴포넌트(128)는 타겟팅 지원 프로토콜을 타겟팅 영역 내의 유효한 객체에 동적으로 고정할 수 있다. 예를 들어, 다수의 유효 객체가 타겟팅 영역 내에 있는 경우, AOTC 컴포넌트(128)는 규칙 세트에 기초하여 특정 유효 객체에 타겟팅 지원 프로토콜을 고정할 수 있다. 규칙은 게임 클라이언트(120)의 사용자에 의해 적어도 부분적으로 맞춤화될 수 있거나 미리 결정될 수 있다. 한 양태에서, AOTC 컴포넌트(128)는 초점 십자선에 가장 가까운 유효한 객체에 고정한다. 객체가 이동하거나 초점 십자선이 이동하면, 앵커는 다른 유효한 객체로 동적으로 변경될 수 있다. 다른 양태에서, AOTC 컴포넌트(128)는 우선 순위 계층에 기초하여 특정한 유효한 객체에 타겟팅 지원 프로토콜을 고정시킬 수 있다. 우선 순위 계층은 게임에 따라 다를 수 있다. 예를 들어, 계층 구조는 라이벌 건물보다 먼저 라이벌 플레이어 캐릭터를 지정하는 것과 같이 유형별로 유효한 객체의 우선 순위를 지정할 수 있다. 부가적으로 또는 대안적으로, 계층은 총 남아있는 히트 포인트(hit point), 전체 히트 포인트, 현재 현상금(예를 들어, 객체를 무찌른 것에 대한 게임 내 보상), 또는 임의의 다른 관련 객체 속성과 같은 객체와 관련된 속성에 기초하여 객체의 우선순위를 정할 수 있다.
일부 양태에서, 서버 장치(110)는 복수의 게임 플레이 명령, 액션, 객체, 게임 공간, 설정, 임의의 다른 게임 데이터 또는 이들의 조합에 대응하는 기록의 저장 및 질의를 용이하게 하기 위해 데이터베이스(140)에 직접적으로 또는 간접적으로 연결될 수 있다. 데이터베이스(140)는 무엇보다도 서버 장치(110)에 의해 액세스 가능한 관계형 데이터베이스 또는 유사한 저장 구조를 포함할 수 있다. 본 명세서에 설명된 양태에 따르면, 데이터베이스(140)는 각각 게임 플레이 명령, 액션, 객체, 게임 공간, 설정, 기타 게임 데이터 또는 이들의 조합에 대응하는 복수의 기록을 저장할 수 있다.
서버 장치(110)는 네트워크(130)를 통해, 임의의 게임 클라이언트(120, 150)에 의해 액세스 가능한 게임 서버 또는 임의의 게임 클라이언트(120, 150)의 애플리케이션을 지원하기 위한 데이터 서버를 포함할 수 있다. 게임 서버는 라이브 게임 플레이를 용이하게 하는 애플리케이션을 비롯하여, 임의의 유형의 애플리케이션을 지원할 수 있다. 서버 장치(110)는 게임 클라이언트(120, 150) 간의 관계(예를 들어, 팀)를 추가로 결정할 수 있다. 다양한 양태에서, 서버 장치(110)는 게임 클라이언트(120, 150) 중 하나 이상을 통해 명령된 액션을 사용자 인터페이스 등을 통해 표시하기 위해 게임 클라이언트(120, 150) 중 다른 하나 이상으로 전달한다.
네트워크(130)는 유선, 무선 또는 둘 다일 수 있다. 네트워크(130)는 다수의 네트워크 또는 네트워크들의 네트워크를 포함할 수 있지만, 본 개시의 양태를 모호하게 하지 않도록 간단한 형태로 도시되어 있다. 예로서, 네트워크(130)는 하나 이상의 WAN(Wide Area Network), 하나 이상의 LAN(Local Area Network), 인터넷과 같은 하나 이상의 공용 네트워크, 하나 이상의 사설 네트워크 또는 하나 이상 원격통신 네트워크를 포함할 수 있다. 네트워크(130)가 무선 원격통신 네트워크를 포함하는 경우, 기지국, 통신탑, 또는 심지어 액세스 포인트(및 기타 컴포넌트)와 같은 컴포넌트가 무선 연결을 제공할 수 있다. 네트워킹 환경은 전사적 컴퓨터 네트워크, 인트라넷 및 인터넷에서 일반적이다. 따라서, 네트워크(130)는 그렇게 상세하게는 설명되지 않는다.
본 발명의 양태에 따르면, 서버 장치(110) 또는 게임 클라이언트(120, 150)는 각각은 컴퓨팅 장치이거나 월드 와이드 웹(World Wide Web) 또는 통신 네트워크와 같은 인터넷에 액세스할 수 있는 컴퓨팅 장치에 의해 실행될 수 있다. 서버 장치(110) 또는 게임 클라이언트(120, 150) 중 하나는 개인용 컴퓨터(PC), 랩탑 컴퓨터, 휴대폰, 태블릿 컴퓨터, 웨어러블 컴퓨터, 개인용 디지털 보조 장치(PDA), 핸드헬드 통신 장치, 스마트폰, 스마트 워치, 워크스테이션, 이러한 기술된 장치의 임의의 조합, 또는 기타 적합한 장치와 같은 다양한 형태를 취할 수 있다. 이러한 장치의 제조업체는 예를 들어 구글(Google), 리서치 인 모션(Research in Motion), 삼성(Samsung), 애플(Apple), 노키아(Nokia), 모토로라(Motorola), 마이크로소프트(Microsoft) 등을 포함한다.
본 발명의 범위 내에서 운영 환경(100)에서 임의의 수의 전술한 장치가 사용될 수 있음을 이해해야 한다. 각각은 단일 장치 또는 분산 환경에서 협력하는 여러 장치를 포함할 수 있다. 또한, 표시되지 않은 다른 컴포넌트도 분산 환경에 포함될 수 있다. 도 1에 도시된 동작 환경(100)은 하나의 적합한 컴퓨팅 시스템 아키텍처의 예임이 추가로 이해되어야 한다. 도 1에 도시된 서버, 게임 클라이언트, 네트워크 및 데이터베이스 각각은 예를 들어 나중에 도 7을 참조하여 설명되는 컴퓨팅 장치(700)와 같은 컴퓨팅 장치를 통해 구현될 수 있다.
도 2 및 3은 본 명세서에 설명된 양태에 따라 선택적으로 활성화된 타겟팅 지원 프로토콜 사용자 인터페이스의 예시적인 예를 도시한다. 도 2 및 도 3과 관련하여 설명된 선택적으로 활성화된 타겟팅 지원 프로토콜은 몇몇 양태들에서 AOTC 컴포넌트(예를 들어, 도 1의 AOTC 컴포넌트(128))에 의해 구현될 수 있다. 도 2 및 도 3에 도시된 특정 순간은 선택적으로 활성화된 타겟팅 지원 프로토콜의 활성화 후 및 관련 스킬 메커니즘의 종료(예를 들어, 실행 또는 포기) 전의 순간을 나타낸다. 즉, 사용자는 스킬을 나타내는 아이콘을 선택하거나 스킬과 관련된 제어기 버튼을 눌러 이미 스킬을 시작했다. 그러나, 사용자는 실행 입력 명령(예컨대, 터치스크린에서 손가락을 떼거나 제어기 버튼에서 손을 떼는 등)을 제공하지 않았다.
도 2를 구체적으로 참조하면, 초점 십자선로부터 오프셋된 타겟팅 십자선을 포함하는 선택적으로 활성화된 타겟팅 지원 프로토콜의 예시적인 예(200)가 본 명세서에 설명된 양태에 따라 묘사된다. 예시적인 예(200)는 캐릭터(202), 타겟팅 영역(204) 및 유효한 타겟 객체(206)를 포함한다. 캐릭터(202)는 공유 게임 환경의 게임 공간에서 로컬 게임 클라이언트(예를 들어, 도 1의 게임 클라이언트(120))와 연관된 플레이어 캐릭터의 현재 위치를 나타낸다.
타게팅 영역(204)은 그 중심이 캐릭터(202)의 중심점에 위치하도록 위치된다. 타게팅 영역(204)의 크기 및 형상은 일부 양태에서 특정 스킬의 타겟팅 규칙에 기초하여 변할 수 있다. 예를 들어, 타겟팅 규칙은 반원의 편평한 변의 중심이 캐릭터(202)의 위치에 대응하도록, 캐릭터(202)로부터 특정 반경을 갖는 반원형 공간으로서 타겟팅 영역(204)을 정의할 수 있다. 다른 예로서, 타겟팅 규칙은 캐릭터(202)를 둘러싸는 완전한 원으로서 타겟팅 영역을 정의할 수 있으며, 따라서 원의 중심은 캐릭터(202)의 위치에 대응한다. 대안적인 양태에서, 타겟팅 영역은 미리 정의된 형상 및 크기일 수 있다.
유효한 타겟 객체(206)는 특정 스킬과 관련된 임의의 적용 가능한 객체 클래스 규칙을 충족시키는 공유 게임 환경 내의 객체의 위치를 나타낸다. 예를 들어, 특정 스킬은 유효한 타겟을 타겟 영역 내의 모든 객체로 정의할 수 있다. 다른 특정 스킬은 임의의 라이벌 플레이어 캐릭터(예를 들어, 도 1의 게임 클라이언트(150)의 사용자에 의해 제어되는 캐릭터)로서 유효한 타겟을 정의할 수 있다. 도시된 바와 같이, 유효한 타겟 객체(206)는 타겟팅 영역(204) 내에 있다. 유효한 타겟 객체(206)는 선택된 객체 둘레(210)에 의해 둘러싸여 있다. 선택된 객체 둘레(210)는 유효한 타겟 객체(206)의 중심에 있다. 선택된 객체 둘레의 크기 및 형상(210)은 캐릭터(202)와 관련된 스킬 또는 속성에 따라 달라질 수 있거나(예를 들어, 밀리 기반 캐릭터(melee-based characters)는 제1 크기를 가질 수 있고 범위 기반 캐릭터는 제2 크기를 가질 수 있음), 또는 미리 정의될 수 있다. 선택된 객체 둘레(210)는 특정 스킬을 실행한 후 캐릭터(202)의 잠재적인 위치의 범위를 나타낸다. 추가로, 일부 양태에서, 선택된 객체 둘레(210)는 타겟팅 프로토콜이 유효한 타겟 객체(206)에 현재 고정되어 있다는 시각적 표시를 제공할 수 있다.
추가적으로, 예시적인 예(200)는 초점 벡터(212)를 따라 초점 십자선(208)을 포함한다. 일부 양태에서, 초점 벡터(212)는 캐릭터(202)로부터 타겟팅 영역(204)의 모서리로 연장된다. 초점 십자선(208)은 초점 벡터(212)를 따른 특정 지점이다. 초점 벡터(212)의 방향 및 초점 십자선(208)의 위치는 스킬 조준 도구(묘사되지 않음)를 이동시키는 사용자 입력을 통해 동적으로 이동가능하다. 다시 말해서, 플레이어가 스킬 조준 도구를 움직일 때(예를 들어, 가상 조이스틱을 끌거나 제어기의 아날로그 스틱을 조작할 때), 초점 벡터(212)는 타겟팅 영역(204)을 통해 대응하는 방향으로 이동할 수 있다. 유사하게, 초점 십자선(208)은 초점 벡터(212)를 따라 이동할 수 있다. 초점 십자선(208)은 임의의 모양, 크기 또는 디자인을 가질 수 있다.
예시적인 예(200)는 또한 타겟 표시자(216) 및 타겟 벡터(214)를 포함한다. 타겟 벡터(214)는 초점 십자선(208)을 선택된 객체 둘레(210)에 연결하는 가장 짧은 직선이다. 타겟 표시자(216)는 타겟 벡터(214)가 선택된 객체 둘레(210)와 교차하는 지점에 위치한다. 따라서, 타겟 벡터(214) 및 타겟 표시자(216)는 초점 십자선(208)의 동적 이동에 응답하여 동적으로 이동한다. 즉, 사용자가 스킬 조준 도구와 상호 작용할 때, 입력은 초점 십자선(208)의 움직임으로 변환된다. 초점 십자선(208)이 타겟팅 영역(204) 내에서 이동함에 따라, 초점을 선택된 객체 둘레(210)에 연결하는 가장 짧은 직선이 이동할 수 있다. 따라서, 타겟 표시자(216)는 선택된 객체 둘레(210)의 모서리 주위에서 동적으로 이동된다.
계속해서 도 3을 구체적으로 참조하면, 초점 십자선이 선택된 타겟 둘레 내에 위치될 때 선택적으로 활성화된 타겟팅 지원 프로토콜의 예시적인 예(300)가 본 명세서에 설명된 양태에 따라 묘사된다. 즉, 위에서 언급한 바와 같이, 초점 십자선은 스킬 조준 도구의 사용자 조작을 통해 동적으로 움직일 수 있다. 도 3은 초점 십자선이 선택된 타겟 경계 내에 위치하는 순간에 선택적으로 활성화된 타겟팅 지원 프로토콜의 묘사이다.
도 2와 유사하게, 예시적인 예(300)는 캐릭터(302), 타겟팅 영역(304), 유효 타겟 객체(306), 초점 십자선(308), 선택된 객체 둘레(310), 초점 벡터(312) 및 타겟 표시자(316)를 포함한다. 그러나, 도 3에서, 초점 십자선(308)은 선택된 객체 둘레(310) 내에 위치한다. 이와 같이, 초점 십자선(308) 및 타겟 표시자(316)는 선택된 객체 둘레(310) 내의 동일한 지점에 함께 위치한다. 다시 말해, AOTC 컴포넌트(예를 들어, 도 1의 AOTC 컴포넌트(128))의 선택적으로 활성화된 타겟팅 지원 프로토콜은 초점 십자선(308)의 선택된 객체 둘레(310) 내 위치로의 이동에 대응하는 입력 명령을 검출하는 것에 응답하여 객체 둘레 내의 스킬 조준을 용이하게 할 수 있다. 예를 들어, 초점 십자선(308)이 선택된 객체 둘레(310) 내에 존재할 때, AOTC 컴포넌트는 선택된 객체 둘레(310) 외부에서 시작하는 벡터가 존재하지 않는다는 것을 검출할 수 있다. 이와 같이, AOTC 컴포넌트는 타겟 표시자(316)로서 초점 십자선(308)의 위치를 자동으로 정의할 수 있다.
일반적으로 도 4 및 도 5를 참조하면, 예시적인 스크린 뷰는 공유 게임 환경 내에서 다양한 게임플레이 순간에 묘사된다. 도 4에 도시된 순간은 타겟팅 지원 프로토콜을 사용하여 스킬을 조준하는 동안의 순간을 나타낸다. 도 5에 도시된 순간은 도 4에서 목표로 하는 스킬을 성공적으로 수행한 직후의 순간이다. 스크린 뷰에는 게임 공간의 특정 부분, 그 안의 객체 및 사용자 인터페이스(UI) 요소(예컨대, 아이콘, 텍스트 또는 버튼)가 포함될 수 있다. 스크린 뷰에 표시되는 공유 게임 환경 부분에 UI 요소를 오버레이할 수 있다. 당업자는 플레이어 UI가 게임 또는 플랫폼(예를 들어, 모바일 장치 대 콘솔)에 따라 크게 다를 수 있고 따라서 일부 플레이어 UI가 더 많거나 적거나 다른 아이콘, 텍스트 또는 버튼을 포함한다는 것을 이해할 것이다. 또한, 당업자는 UI의 아이콘, 텍스트 또는 버튼의 디자인(가령, 모양, 크기, 시각적 표현, 색상, 시각적 효과)이 게임에 따라 크게 다를 수 있음을 이해할 것이다.
구체적으로 도 4를 참조하면, 본 명세서에 설명된 양태에 따라, 초점 십자선로부터 오프셋된 타겟팅 표시자를 포함하는 선택적으로 활성화된 타겟팅 지원 프로토콜을 갖는 예시적인 스크린 뷰(400)가 묘사된다. 스크린 뷰(400)는 스킬 선택 아이콘(402), 스킬 조준 도구(404), 타겟팅 영역(408), 초점 벡터(416)를 따른 초점 십자선(414), 및 타겟팅 표시기(418)와 같은 플레이어 UI 요소를 포함한다. 스크린 뷰는 또한 캐릭터(406) 및 유효 타겟 객체(410)를 포함한다.
스킬 선택 아이콘(402)은 텔레포트 동작과 같은 동작을 개시하기 위해 사용될 수 있는 아이콘의 그래픽 표현이다. 이 동작은 고정된 오프셋 위치를 선택하고 플레이어의 캐릭터를 해당 위치로 재배치하는 데 사용될 수 있다. 스킬 선택 아이콘(402)은 일부 양태에서 터치 제스처를 통해 선택 가능할 수 있다. 터치 제스처는 예를 들어 하나 이상의 손가락, 하나 이상의 엄지손가락, 스타일러스 또는 기타 이러한 선택 도구로 터치스크린을 두드리는 것을 포함할 수 있다. 추가로 또는 대안적으로, 터치 제스처는 손가락, 엄지손가락, 스타일러스 또는 기타 이러한 선택 도구를 터치스크린을 가로질러 연속 방식으로 누르고 드래그하는 것을 포함할 수 있다. 터치 제스처는 또한 터치 제스처의 끝을 표시하는 해제 위치에서 터치스크린으로부터 손가락, 엄지, 스타일러스 또는 다른 그러한 선택 도구를 해제하는 것을 포함할 수 있다.
스킬 조준 도구(404)는 스킬 선택 아이콘(402)의 선택에 응답하여 AOTC 컴포넌트(128)에 의해 생성될 수 있는 그래픽 표현이다. 스킬 조준 도구(404)의 위치는 사용자 입력의 변동(예를 들어 사용자의 손가락을 화면 주위로 드래그함)에 기초하여 동적으로 바뀔 수 있다. 일부 양태에서, 스킬 조준 도구의 움직임은 특정 스킬 선택 아이콘 주위의 미리 결정된 영역에 바인딩(즉, 제한)될 수 있다. 초점 십자선(414)의 위치는 스킬 조준 도구(404)를 움직이는 사용자 입력을 통해 동적으로 이동할 수 있다. 다시 말해, 플레이어가 스킬 조준 도구를 움직일 때(예를 들어, 가상 조이스틱을 드래그하거나 제어기의 아날로그 스틱을 조작함), 초점 십자선(414)은 타겟팅 영역(408)을 통해 해당 방향으로 이동할 수 있다.
캐릭터(406)는 공유 게임 환경의 게임 공간에서 로컬 게임 클라이언트(예를 들어, 도 1의 게임 클라이언트(120))와 관련된 플레이어 캐릭터의 현재 위치를 나타낸다. 타겟팅 영역(408)은 캐릭터(406)의 중앙에 위치하도록 배치된다. 타겟팅 영역(408)의 크기와 모양은 일부 양태에서 특정 스킬의 타겟팅 규칙에 따라 달라질 수 있다. 유효 타겟 객체(410)는 특정 스킬과 관련된 임의의 적용 가능한 객체 클래스 규칙을 충족시키는 공유 게임 환경 내의 객체의 위치를 나타낸다. 도시된 바와 같이, 유효 타겟 객체(410)는 타겟팅 영역(408) 내에 있다. 유효 타겟 객체(410)는 선택된 객체 둘레(412)에 의해 둘러싸여 있다. 선택된 객체 둘레(412)는 유효 타겟 객체(410)의 중심에 있다.
타겟 표시자(418)는 타겟 벡터(미도시)가 선택된 객체 둘레(412)와 교차하는 지점에 위치한다. 타겟 벡터(미도시)는 초점 십자선(414)과 선택된 객체 둘레(412)를 연결하는 최단 직선이다. 따라서, 타겟 벡터 및 타겟 표시자(418)는 초점 십자선(414)의 위치를 결정하는 스킬 조준 도구(404)의 이동에 응답하여 동적으로 이동한다.
도 5를 참조하면, 도 4에서 활성화된 스킬의 실행 후 순간의 예시적인 스크린 뷰(500)가 본 명세서에 기술된 양태에 따라 묘사된다. 스크린 뷰(500)는 스킬 선택 아이콘(502), 캐릭터(506) 및 유효 타겟 객체(508)를 포함한다.
캐릭터(506)는 공유 게임 환경의 게임 공간에서 로컬 게임 클라이언트(예를 들어, 도 1의 게임 클라이언트(120))와 관련된 플레이어 캐릭터의 현재 위치를 나타낸다. 캐릭터(506)의 위치는 도 4에 도시된 캐릭터 위치로부터의 재배치를 나타낸다. 이러한 재배치는 사용자의 터치 제스처 종료(예컨대, 화면에서 스킬 조준 도구를 조작하는 손가락의 제거)의 결과일 수 있다. 예를 들어, 터치 제스처의 종료는 타겟 표시자의 현재 위치를 원하는 스킬 수행 위치로 선택하기 위해 사용될 수 있다. 이에 응답하여, 캐릭터(506)는 자신의 초기 위치에서 선택된 위치로 재배치할 수 있다. 즉, 사용자는 스킬 조준 도구에서 손가락을 떼고 캐릭터(406)는 도 4에 도시된 캐릭터의 위치에서 캐릭터(506)의 위치로 재배치된다. 캐릭터(506)의 위치는 도 4에서 설명한 바와 같이 타겟 표시자(418)의 위치에 대응한다.
이제 도 6을 참조하면, 방법(600)의 각 블록은 하드웨어, 펌웨어, 소프트웨어 또는 이들의 임의의 조합을 사용하여 수행될 수 있는 컴퓨팅 프로세스에 의해 실행될 수 있다. 예를 들어, 프로세서가 메모리에 저장된 명령을 실행함으로써 다양한 기능이 수행될 수 있다. 일부 양태에서, 방법(600)은 모바일 장치 또는 콘솔과 연관된 게임 클라이언트(예를 들어, 도 1의 게임 클라이언트(120 또는 150))에 의해 수행된다. 이 방법은 또한 컴퓨터 저장 매체에 저장된 컴퓨터 사용 가능한 명령어로 구현될 수 있다. 방법(600)은 예를 들면 독립 실행형 애플리케이션, 서비스 또는 호스팅되는 서비스(독립 실행형 또는 다른 호스팅되는 서비스와 결합) 또는 다른 제품에 대한 플러그인에 의해 제공될 수 있다. 예를 들어, 본 명세서에 기술된 바와 같이, 방법(600)은 가상 게임과 같은 다른 소프트웨어 내의 가상 도구이다. 또한, 방법(600)은 예를 들어, 도 4 및 도 5의 터치스크린 상의 스크린 뷰(400 및 500)에 대해 설명된다. 그러나, 이들 방법은 본 명세서에 기술된 것을 포함하지만 이에 제한되지 않는 임의의 하나의 시스템 또는 시스템의 임의의 조합에 의해 추가적으로 또는 대안적으로 실행될 수 있다.
일반적으로, 방법(600)은 본 개시의 일부 양태에 따라 공유 게임 환경 내에서 정확한 고정 오프셋 위치 선택을 용이하게 한다. 다양한 양태에 따라, 방법(600)은 타겟 앵커 및 타겟으로부터 오프셋된 초점 십자선을 사용하여 캐릭터 스킬을 정확하게 조준하기 위해 사용될 수 있다. 방법(600)의 일부 양태는 블록(602)에서 시작한다. 블록(602)에서, 공유 게임 환경의 스크린 뷰가 표시된다. 위에서 설명한 것처럼, 스크린 뷰에는 게임 공간의 일부와 고정 및 이동 가능한 객체를 갖는 기타 동적 이미지가 포함될 수 있다. 예를 들어, 이러한 동적 이미지는 플레이어 캐릭터(예를 들어, 도 4의 캐릭터(406)) 및 적어도 하나의 객체(예를 들어, 도 4의 유효 타겟 객체(410))를 포함할 수 있다.
계속해서, 사용자는 플레이어 캐릭터와 관련된 특정 스킬을 활성화할 수 있다. 스킬의 활성화는 일부 양태에서 스킬 아이콘(예를 들어, 도 4의 스킬 선택 아이콘(402))과의 터치 기반 상호작용을 통해 이루어질 수 있다. 이에 대한 응답으로, 게임 클라이언트의 AOTC 컴포넌트는 타겟팅 지원 프로토콜을 자동으로 활성화한다. 일부 양태에서, AOTC 컴포넌트는 스킬 조준 도구(예를 들어, 도 4의 스킬 조준 도구(404))를 생성하고 표시한다. 대안적으로, AOTC 컴포넌트는 게임 클라이언트와 통신가능하게 결합된 제어기와 연관된 아날로그 조이스틱으로부터의 입력을 모니터링할 수 있다. 추가로, AOTC 컴포넌트는 활성화된 스킬과 연관된 타겟팅 규칙에 기초하여 타겟팅 영역(예를 들어, 도 4의 타겟팅 영역(408))을 생성 및 표시할 수 있다. 블록(602)의 일부 양태에서, AOTC 컴포넌트는 적용 가능한 타겟팅 규칙을 충족시키는 객체에 대한 타겟팅 영역을 자동으로 스캔할 수 있다. 유효 객체를 검출하는 것에 응답하여, AOTC는 유효 객체에 타겟팅 지원 프로토콜을 고정시키고 유효 객체와 관련된 선택 둘레(예를 들어, 도 4의 선택된 객체 둘레(412))를 표시할 수 있다. 여러 유효 객체가 타겟팅 영역 내에 있는 경우, AOTC는 규칙을 구현하여 초기 앵커를 자동으로 선택할 수 있다. 예를 들어, AOTC는 초점 십자선에서 가장 가깝거나 가장 먼 유효 객체에 타겟팅 지원 프로토콜을 고정할 수 있다. 대안적으로, 일 양태에서, AOTC는 플레이어의 캐릭터에 가장 가깝거나 가장 먼 유효 객체에 타겟팅 지원 프로토콜을 고정할 수 있다. 그러나, 당업자는 도 1 내지 도 3과 관련하여 논의된 것을 포함하지만 이에 국한되지 않는 임의의 수의 다른 초기 고정 규칙이 구현될 수 있음을 이해할 것이다.
블록(604)에서, 타겟팅 영역 내에서 초점 십자선의 위치가 결정된다. 예를 들어, 초점 십자선(예를 들어, 초점 십자선(414))의 위치는 초기에 타겟팅 영역 내의 미리 결정된 위치에 위치할 수 있다. 초기 배치 후, AOTC 컴포넌트는 스킬 조준 도구의 움직임에 대응하는 입력 명령을 모니터링할 수 있다. 스킬 조준 도구의 움직임에 따라, 초점 십자선의 위치가 동적으로 수정된다.
블록(606)에서, 초점 십자선의 위치에 기초하여 유효 객체가 앵커로서 선택된다. 즉, AOTC 컴포넌트는 초점 십자선의 현재 위치를 기반으로 타겟팅 영역 내의 모든 유효 객체에 타겟팅 프로토콜을 고정할 수 있다. 예를 들어, 도 1의 AOTC 컴포넌트(128)와 관련하여 논의된 바와 같이, 선택된 객체는 타겟 영역 내에서 선택 가능한 복수의 객체의 초점 십자선에 가장 가까운 객체일 수 있다.
일부 양태에서, 블록(608)에서, 초점 십자선으로부터 선택 둘레까지의 벡터가 계산된다. 예를 들어, AOTC 컴포넌트는 초점 십자선으로부터 선택 둘레를 교차하는 유효 객체까지의 가장 짧은 직선을 구성하는 타겟팅 벡터를 계산할 수 있다. 또는, AOTC 컴포넌트는 선택 둘레의 외부에서 시작하는 타겟팅 벡터가 존재하지 않는 경우 타겟 표시자와 같은 위치에 있는 초점 십자선을 정의할 수 있다.
블록(610)의 일부 양태에서, 타겟 표시자가 생성되고 타겟팅 벡터가 선택 둘레를 교차하는 지점에 표시된다. 플레이어 캐릭터의 미래 위치(예를 들어, 도 4의 캐릭터(406)의 목적지)를 나타내는, 선택 둘레를 따른 지점에서의 디스플레이를 위해 타겟 표시자가 제공될 수 있다. 대안적으로, 타겟 표시자는 초점 십자선과 함께 표시되거나 AOTC 컴포넌트가 초점 십자선을 타겟 표시자와 같은 위치에 있는 것으로 정의하는 디스플레이로부터 생략될 수 있다. 다시 말해, 초점 십자선이 선택 둘러 내에 있는 경우, 타겟 표시자는, 초점과 타겟 표시자가 적어도 일시적으로 동일하다는 시각적 표시를 제공하기 위해 제거되거나 수정될 수 있다. 일부 양태에서, 타겟 표시자 및 초점 십자선의 공동 위치는 미리 결정된 방식으로 초점 십자선의 디자인을 변경함으로써 스크린 뷰를 통해 시각적으로 전달될 수 있다. 예를 들어, 색 구성표를 변경하거나 글로우 또는 마스킹 효과를 추가한다.
일부 양태에서, 블록(610)은 또한 활성화된 스킬을 실행하는 것을 포함한다. 예를 들어, 미리 결정된 입력 명령(예를 들어, 잡고 있는 손가락의 제거 또는 버튼의 해제)에 응답하여, AOTC 컴포넌트는 활성화된 스킬을 실행하기 위한 명령을 게임 실행 컴포넌트(122)에 전달할 수 있다. AOTC 컴포넌트는 또한 실행시 타겟 표시자의 위치를 통신할 수 있다.
대안적으로, 블록(610)의 일부 양태는 활성화된 스킬을 포기하는 것(예를 들어, 스킬 캐스팅을 취소하는 것)을 포함한다. 예를 들어, AOTC 컴포넌트는 사전 결정된 입력 명령 또는 사전 결정된 시간 경과에 응답하여, AOTC 컴포넌트는 게임 실행 컴포넌트에 활성화된 스킬을 실행하라는 명령을 제공하지 않고 타겟팅 프로토콜을 비활성화할 수 있다. 마찬가지로, AOTC 컴포넌트는 활성화된 스킬을 비활성화할 수 있다.
본 개시의 양태들을 설명하였지만, 본 개시의 다양한 양태에 대한 일반적인 맥락을 제공하기 위해 본 개시의 실시예가 구현될 수 있는 예시적인 운영 환경이 아래에서 설명된다. 특히 먼저 도 8을 참조하면, 본 개시의 실시예를 구현하기 위한 예시적인 운영 환경이 도시되고 일반적으로 컴퓨팅 장치(800)로서 지정된다. 컴퓨팅 장치(800)는 적절한 컴퓨팅 환경의 일례일 뿐이며, 개시된 실시예의 사용 또는 기능의 범위에 대하여 임의의 제한을 제안하려는 것은 아니다. 컴퓨팅 장치(800)가 예시된 컴포넌트 중 어느 하나 또는 조합과 관련된 임의의 종속성 또는 요구사항을 갖는 것으로 해석되어서도 안 된다.
본 명세서에서 실시예는 컴퓨터 또는 다른 머신, 예컨대, 개인 데이터 어시스턴트 또는 기타 휴대용 장치에 의해 실행되는 프로그램 모듈과 같은 컴퓨터 실행가능 명령어를 포함하는 컴퓨터 코드 또는 머신 사용가능 명령어의 일반적인 맥락에서 설명될 수 있다. 일반적으로, 루틴, 프로그램, 객체, 컴포넌트, 데이터 구조 등을 포함하는 프로그램 모듈은 특정 태스크를 수행하거나 특정 추상적 데이터 유형을 구현하는 코드를 지칭한다. 설명된 실시예는 휴대용 장치, 가전 제품, 범용 컴퓨터, 보다 전문적인 컴퓨팅 장치 등을 포함하는 다양한 시스템 구성에서 실행될 수 있다. 설명된 실시예는 태스크가 통신 네트워크를 통해 연결된 원격 처리 장치에 의해 수행되는 분산 컴퓨팅 환경에서도 실행될 수 있다.
도 7을 참조하면, 컴퓨팅 장치(700)는 다음 장치, 즉 메모리(712), 하나 이상의 프로세서(714), 하나 이상의 프리젠테이션 컴포넌트(716), 입출력(I/O) 포트(718), 입/출력(I/O) 컴포넌트(720) 및 예시적인 전원(722)을 직접 또는 간접적으로 연결하는 버스(710)를 포함한다. 일부 예시적인 실시예에서, 컴퓨팅 장치(700)는 스마트폰, 태블릿, 터치스크린 랩톱 등과 같은 모바일 전자 장치일 수 있거나 이를 포함할 수 있다. 버스(710)는 (어드레스 버스, 데이터 버스 또는 이들의 조합과 같은) 하나 이상의 버스일 수 있는 것을 나타낸다. 도 7의 다양한 블록이 명확성을 위해 선으로 표시되었지만, 실제로는 다양한 컴포넌트를 구분하는 것은 명확하지 않고, 비유를 하자면, 선은 더 정확하게 말하면 회색이고 흐릿할 것이다. 예를 들어, 디스플레이 장치와 같은 프레젠테이션 컴포넌트를 I/O 컴포넌트라고 간주할 수 있다. 또한, 프로세서는 메모리를 갖는다. 발명자는 이것이 기술의 본질임을 인식하고, 도 7의 다이어그램이 본 개시의 하나 이상의 실시예와 관련하여 사용될 수 있는 예시적인 컴퓨팅 장치의 예시일 뿐임을 반복한다. "워크스테이션", "서버", "랩톱", "휴대용 장치" 등으로서의 그러한 카테고리 간에는 구별이 이루어지지 않으며, 그러한 이유는 이들 모두는 도 7의 범위 내에서 그리고 "컴퓨팅 장치"로 고려되기 때문이다.
컴퓨팅 장치(700)는 전형적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터 판독가능 매체는 컴퓨팅 장치(700)에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있고 휘발성 및 비휘발성 매체, 및 착탈식 및 비착탈식 매체를 모두 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 착탈식 및 비착탈식 매체를 모두 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다목적 디스크(DVD) 또는 다른 광학 디스크 저장소, 자기 카세트, 자기 테이프, 자기 디스크 저장소 또는 다른 자기 저장 장치, 또는 원하는 정보를 저장하는 데 사용될 수 있고 컴퓨팅 장치(700)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이에 제한되지 않는다. 컴퓨터 저장 매체는 신호 그 자체를 포함하지 않는다. 통신 매체는 전형적으로 반송파 또는 다른 전송 메커니즘과 같은 변조된 데이터 신호로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터를 구현하고 임의의 정보 전달 매체를 포함한다. "변조된 데이터 신호"라는 용어는 신호 내에 정보를 인코딩하는 방식으로 설정되거나 변경된 특성 중 하나 이상을 갖는 신호를 의미한다. 제한이 아닌 예로서, 통신 매체는 유선 네트워크 또는 직접 유선 연결과 같은 유선 매체 및 음향, RF, 적외선 및 기타 무선 매체와 같은 무선 매체를 포함한다. 위의 것 중 임의의 것의 조합도 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
메모리(712)는 휘발성 및/또는 비휘발성 메모리 형태의 컴퓨터 저장 매체를 포함한다. 메모리는 착탈식, 비착탈식 또는 이들의 조합일 수 있다. 예시적인 하드웨어 장치는 솔리드 스테이트 메모리, 하드 드라이브, 광학 디스크 드라이브 등을 포함한다. 컴퓨팅 장치(700)는 메모리(712) 또는 I/O 컴포넌트(720)와 같은 다양한 엔티티로부터 데이터를 읽는 하나 이상의 프로세서를 포함한다. 프리젠테이션 컴포넌트(들)(716)는 사용자 또는 다른 장치에 데이터 표시를 제시한다. 예시적인 프리젠테이션 컴포넌트는 디스플레이 장치, 스피커, 인쇄 컴포넌트, 진동 컴포넌트 등을 포함한다.
I/O 포트(718)는 컴퓨팅 장치(700)가 I/O 컴포넌트(720)를 포함하는 다른 장치에 논리적으로 연결되도록 하며, 그 중 일부는 내장될 수 있다. 예시적인 컴포넌트는 마이크, 조이스틱, 게임 패드, 위성 방송 수신 안테나, 스캐너, 프린터, 무선 장치 등을 포함한다. I/O 컴포넌트(720)는 허공 제스처, 목소리, 또는 사용자에 의해 생성된 다른 생리학적 입력을 처리하는 내추럴 사용자 인터페이스(natural user interface: NUI)를 제공할 수 있다. 일부 경우, 추가 처리를 위해 입력이 적절한 네트워크 요소로 전송될 수 있다. NUI는 음성 인식, 스타일러스 인식, 얼굴 인식, 생체 인식, 화면 상에 및 화면에 인접한 제스처 인식, 허공 제스처, 머리 및 안구 추적, 및 컴퓨팅 장치(700)의 디스플레이와 연관된 터치 인식(아래에서 더 자세히 설명됨)의 임의의 조합을 구현할 수 있다. 컴퓨팅 장치(700)에는 제스처 검출 및 인식을 위해 입체 카메라 시스템, 적외선 카메라 시스템, RGB 카메라 시스템, 터치스크린 기술 및 이들의 조합과 같은 깊이 카메라가 장착될 수 있다. 추가적으로, 컴퓨팅 장치(700)에는 모션의 검출을 가능하게 하는 가속도계 또는 자이로스코프가 장착될 수 있다. 가속도계 또는 자이로스코프의 출력은 컴퓨팅 장치(700)의 디스플레이에 제공되어 몰입형 증강 현실 또는 가상 현실을 렌더링할 수 있다.
컴퓨팅 장치(700)의 일부 실시예는 하나 이상의 라디오(들)(724)(또는 유사한 무선 통신 컴포넌트)를 포함할 수 있다. 라디오(724)는 라디오 또는 무선 통신을 송수신한다. 컴퓨팅 장치(700)는 다양한 무선 네트워크를 통해 통신 및 미디어를 수신하도록 적응된 무선 단말일 수 있다. 컴퓨팅 장치(700)는 다른 장치와 통신하기 위해, "LTE"(long term evolution), "CDMA"(code division multiple access), "GSM"(global system for mobiles) 또는 "TDMA"(time division multiple access) 등과 같은 무선 프로토콜을 통해 통신할 수 있다. 무선 통신은 단거리 연결, 장거리 연결 또는 단거리 무선 통신 연결과 장거리 무선 통신 연결의 조합일 수 있다. "단거리" 및 "장거리" 유형의 연결을 언급할 때, 두 장치 간의 공간적 관계를 의미하지는 않는다. 대신, 우리는 일반적으로 단거리 및 장거리를, 연결의 다른 범주 또는 유형(즉, 기본 연결 및 보조 연결)으로 지칭한다. 근거리 연결은 제한이 아닌 예로서, 802.11 프로토콜을 사용하는 WLAN 연결과 같은 무선 통신 네트워크에 대한 액세스를 제공하는 장치(예컨대, 모바일 핫스팟)에 대한 Wi-Fi® 연결, 단거리 연결의 제2 예시인 다른 컴퓨팅 장치에 대한 Bluetooth® 연결, 또는 근거리 통신 연결을 포함할 수 있다. 장거리 연결은 제한이 아닌 예로서 CDMA, LTE, GPRS, GSM, TDMA 및 802.16 프로토콜 중 하나 이상을 사용하는 연결을 포함할 수 있다.
이해할 수 있는 바와 같이, 본 개시의 실시예는 무엇보다도 터치스크린 상에서의 정확한 포지셔닝을 위한 시스템 및 방법을 제공한다. 본 개시는 모든 면에서 제한적이기보다는 예시적인 것으로 의도된 특정 실시예와 관련하여 설명되었다. 대안적인 실시예는 본 발명의 범위를 벗어나지 않고 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 자명할 것이다. 예를 들어, 일반적으로 터치스크린이 장착된 모바일 장치에서 플레이되는 모바일 게임의 맥락에서 설명되지만, 본 개시의 양태는 다른 장치에서 플레이되는 비디오 게임에서 타겟으로부터 오프셋된 초점 십자선을 사용하여 선택적으로 활성화된 타겟팅을 용이하게 할 수 있다. 예를 들어 특정 양태에서, 게임 클라이언트는 콘솔(예컨대, 소니사의 ® 플레이스테이션 ® 콘솔 라인, 마이크로소프트사의 ® Xbox ® 콘솔 라인, 닌텐도의 ® 스위치 ® 콘솔 라인, 구글의 ® 스타디아(Stadia) ® 콘솔 라인 등)에 의해 실행될 수 있다. 당업자는 그러한 양태에서, 디스플레이가 전통적인 텔레비전 또는 컴퓨터 디스플레이를 포함할 수 있음을 이해할 것이다. 마찬가지로, 터치 기반 입력 인터페이스를 유선 또는 무선 제어기 기반 입력 인터페이스로 교체할 수 있다. 이러한 양태에서, 플레이어 UI는 임의의 수의 다른 UI 요소와 함께 스킬 조준 도구(예를 들어, 도 4의 스킬 조준 도구(404))의 그래픽 표현을 생략할 수 있다. 유리하게는, 콘솔 게임에서 본 명세서에 기술된 양태의 구현은 콘솔 제어기와 관련된 상대적으로 제한된 입력 옵션과 연관된 일부 제한을 해결할 수 있다.
또한, 본 명세서에 기술된 양태 중 일부는 MOBA, MMORPG, RTS 게임 또는 임의의 다른 장르의 게임과 같은 크로스 플랫폼(예를 들어, 전통적인 게임 시스템, 모바일 장치 및 임의의 조합의 콘솔)에서 구현될 수 있음이 고려된다. 다른 방식으로 말하면, 본 명세서에 설명된 선택적으로 활성화된 타겟팅 지원 프로토콜은 동일한 공유 게임 환경에서 여러 게임 플랫폼에 걸쳐 플레이되는 비디오 게임의 호환성을 향상시킬 수 있다. 이와 같이, 본 명세서에 기술된 양태 중 일부는 데스크탑 또는 랩탑 기반 MOBA(예를 들어, League of Legends®), MMORPG, 실시간 전략(RTS) 게임, 또는 임의의 다른 장르의 게임에서 구현될 수 있음이 고려된다.
전술한 것으로부터, 본 발명의 실시예는 시스템 및 방법에 명백하고 고유한 다른 장점과 함께 위에 제시된 모든 목표 및 목적을 달성하도록 잘 적응된 것임을 알 수 있을 것이다. 특정 특징 및 하위 조합은 유용하고 다른 특징 및 하위 조합을 참조하지 않고 채용될 수 있음을 이해할 것이다. 이것은 청구범위에 의해 고려되고 청구범위 내에 있다.
본 개시의 주제는 법적 요건을 충족시키면서 본 명세서에서 구체적으로 설명된다. 그러나, 설명 자체는 이 특허의 범위를 제한하려는 의도가 아니다. 오히려, 발명자들은 기타의 현재 또는 미래의 기술과 함께, 본 문서에 기술된 것과 유사한 다른 단계 또는 단계들의 조합을 포함하기 위해 청구된 주제가 다른 방식으로 구현될 수도 있다고 생각했다. 또한, 사용된 방법의 상이한 요소를 내포하기 위해 본 명세서에서 "단계" 및/또는 "블록"이라는 용어가 사용될 수 있지만, 이들 용어는 개개의 단계들의 순서가 명시적으로 기술된 경우를 제외하고는, 본 명세서에 개시된 다양한 단계들 사이의 임의의 특정 순서를 암시하는 것으로 해석되어서는 안 된다.

Claims (20)

  1. 컴퓨터 사용가능 명령어를 저장하는 비일시적 컴퓨터 저장 매체로서,
    상기 컴퓨터 사용가능 명령어는 하나 이상의 컴퓨팅 장치에 의해 사용될 때 상기 하나 이상의 컴퓨팅 장치로 하여금 동작들을 수행하게 하고,
    상기 동작들은,
    캐릭터 및 객체의 디스플레이를 제공하는 동작- 상기 캐릭터는 적어도 제1 타겟팅 영역과 연관되고 상기 객체는 선택 둘레(selection perimeter)와 연관됨 -과,
    상기 제1 타겟팅 영역 내에서 초점 십자선(focus point reticle)의 위치를 정의하는 동작과,
    상기 초점 십자선의 위치에 기초하여 그리고 상기 객체가 상기 제1 타겟팅 영역 내에 있다는 결정에 기초하여 상기 객체를 선택하는 동작과,
    상기 초점 십자선의 위치로부터 상기 객체로의 벡터를 계산하는 동작- 상기 벡터는 교차 지점에서 상기 선택 둘레와 교차하며, 상기 교차 지점은 상기 선택 둘레를 따라 상기 초점 십자선의 위치에 가장 가까운 지점임 -과,
    상기 선택 둘레를 따라 상기 교차 지점에 오프셋 타겟 표시자의 디스플레이를 제공하는 동작을 포함하는,
    비일시적 컴퓨터 저장 매체.
  2. 제1항에 있어서,
    상기 캐릭터는 적어도 상기 제1 타겟팅 영역의 중앙에 있는,
    비일시적 컴퓨터 저장 매체.
  3. 제2항에 있어서,
    상기 제1 타겟팅 영역은 상기 캐릭터로부터 상기 객체의 위치로의 방향에 기초하여 배치되는 반원형 영역인,
    비일시적 컴퓨터 저장 매체.
  4. 제1항에 있어서,
    상기 지점의 선택에 응답하여 상기 선택 둘레를 따라 상기 지점을 오프셋 타겟팅 위치로 정의하는 동작을 더 포함하는,
    비일시적 컴퓨터 저장 매체.
  5. 제4항에 있어서,
    상기 초점 십자선의 위치는 터치 입력에 기초하여 정의되고, 상기 지점은 상기 터치 입력의 검출된 종료에 응답하여 선택되는,
    비일시적 컴퓨터 저장 매체.
  6. 제4항에 있어서,
    상기 오프셋 타겟팅 위치가 정의되는 것에 응답하여, 상기 캐릭터를 상기 교차 지점으로 재배치하는 동작을 더 포함하는,
    비일시적 컴퓨터 저장 매체.
  7. 제4항에 있어서,
    상기 오프셋 타겟팅 위치가 정의되는 것에 응답하여, 상기 오프셋 타겟팅 표시자의 색상을 변경하는 동작을 더 포함하는,
    비일시적 컴퓨터 저장 매체.
  8. 제1항에 있어서,
    상기 벡터는 상기 초점 십자선의 위치가 상기 선택 둘레의 외부에 있다는 결정에 기초하여 계산되는,
    비일시적 컴퓨터 저장 매체.
  9. 제1항에 있어서,
    상기 초점 십자선의 위치가 상기 제1 타겟팅 영역 내에서 정의되는 동안, 상기 초점 십자선과 상기 캐릭터 사이에 선이 그려지는,
    비일시적 컴퓨터 저장 매체.
  10. 사용자 인터페이스에서 객체에 대한 오프셋 타겟팅 위치를 정의하기 위한 컴퓨터 구현 방법으로서,
    컴퓨팅 장치에 의해, 상기 사용자 인터페이스 내에 캐릭터 및 객체의 디스플레이를 제공하는 단계- 상기 캐릭터는 적어도 제1 타겟팅 영역과 연관되고 상기 객체는 선택 둘레와 연관됨 -와,
    상기 컴퓨팅 장치에 의해, 상기 컴퓨팅 장치에 결합된 터치스크린으로부터 수신된 제1 신호에 기초하여 상기 사용자 인터페이스에서 상기 제1 타겟팅 영역 내에 디스플레이되는 초점 십자선의 위치를 정의하는 단계- 상기 제1 신호는 터치 제스처의 수신을 나타냄 -와,
    상기 컴퓨팅 장치에 의해, 상기 초점 십자선의 위치에 기초하여 그리고 상기 객체가 상기 제1 타겟팅 영역 내에 있다는 결정에 기초하여 상기 객체를 선택하는 단계와,
    상기 컴퓨팅 장치에 의해, 상기 초점 십자선의 위치로부터 상기 객체의 위치로의 벡터를 계산하는 단계- 상기 벡터는 상기 선택 둘레를 따른 지점에서 상기 선택 둘레와 교차하며, 상기 지점은 상기 선택 둘레를 따라 상기 초점 십자선의 위치에 가장 가까운 지점임 -와,
    상기 컴퓨팅 장치에 의해, 상기 터치스크린으로부터의 제2 신호에 응답하여 상기 선택 둘레를 따라 상기 지점을 상기 오프셋 타겟팅 위치로서 정의하는 단계- 상기 제2 신호는 상기 터치 제스처의 종료를 나타냄 -를 포함하는
    컴퓨터 구현 방법.
  11. 제10항에 있어서,
    상기 오프셋 타겟팅 위치가 상기 사용자 인터페이스에서 상기 선택 둘레를 따라 디스플레이되는 것을 포함하는,
    컴퓨터 구현 방법.
  12. 제10항에 있어서,
    상기 초점 십자선의 위치는 터치 입력에 기초하여 정의되고, 상기 지점은 상기 터치 입력의 검출된 종료에 응답하여 선택되는,
    컴퓨터 구현 방법.
  13. 제10항에 있어서,
    상기 캐릭터는 적어도 상기 제1 타겟팅 영역의 중앙에 있는,
    컴퓨터 구현 방법.
  14. 제13항에 있어서,
    상기 제1 타겟팅 영역은 원형 영역인,
    컴퓨터 구현 방법.
  15. 제10항에 있어서,
    상기 벡터는 상기 초점 십자선의 위치가 상기 선택 둘레 밖에 있다는 결정에 기초하여 계산되는,
    컴퓨터 구현 방법.
  16. 제10항에 있어서,
    상기 초점 십자선의 위치가 상기 제1 타겟팅 영역 내에서 정의되는 동안, 상기 초점 십자선과 상기 캐릭터 사이에 선이 그려지는,
    컴퓨터 구현 방법.
  17. 컴퓨터화된 시스템으로서,
    하나 이상의 프로세서와,
    컴퓨터 사용가능 명령어를 저장하는 하나 이상의 컴퓨터 저장 매체를 포함하되,
    상기 컴퓨터 사용가능 명령어는 상기 하나 이상의 프로세서에 의해 사용될 때 상기 하나 이상의 프로세서로 하여금:
    캐릭터 및 객체의 디스플레이를 제공하고- 상기 캐릭터는 적어도 제1 타겟팅 영역과 연관되고 상기 객체는 선택 둘레와 연관됨 -,
    상기 제1 타겟팅 영역 내에서 초점 십자선의 위치를 정의하고,
    상기 초점 십자선의 위치에 기초하여 그리고 상기 객체가 상기 제1 타겟팅 영역 내에 있다는 결정에 기초하여 상기 객체를 선택하고,
    상기 초점 십자선의 위치가 상기 선택 둘레 밖에 있다는 결정에 기초하여, 상기 초점 십자선의 위치로부터 상기 객체로의 벡터를 계산하며- 상기 벡터는 상기 선택 둘레를 따른 지점과 교차하며, 상기 지점은 상기 선택 둘레를 따라 상기 초점 십자선의 위치에 가장 가까운 지점임 -,
    상기 선택 둘레를 따라 상기 지점에 오프셋 타겟 표시자의 디스플레이를 제공하게 하는
    컴퓨터화된 시스템.
  18. 제17항에 있어서,
    상기 캐릭터는 적어도 상기 제1 타겟팅 영역의 중앙에 있는,
    컴퓨터화된 시스템.
  19. 제18항에 있어서,
    상기 제1 타겟팅 영역은 상기 캐릭터로부터 상기 객체의 위치로의 방향에 기초하여 배치되는 반원형 영역인,
    컴퓨터화된 시스템.
  20. 제17항에 있어서,
    상기 지점의 선택에 응답하여 상기 선택 둘레를 따라 상기 지점을 오프셋 타겟팅 위치로 정의하는 것을 더 포함하는
    컴퓨터화된 시스템.
KR1020237012131A 2020-09-11 2021-09-13 고정된 오프셋 타겟팅 위치를 선택하는 기법 KR102559288B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020237024736A KR20230116071A (ko) 2020-09-11 2021-09-13 고정된 오프셋 타겟팅 위치를 선택하는 기법

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/018,801 2020-09-11
US17/018,801 US11351457B2 (en) 2020-09-11 2020-09-11 Selecting an anchored offset targeting position
PCT/US2021/050082 WO2022056389A1 (en) 2020-09-11 2021-09-13 Title selecting an anchored offset targeting position

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020237024736A Division KR20230116071A (ko) 2020-09-11 2021-09-13 고정된 오프셋 타겟팅 위치를 선택하는 기법

Publications (2)

Publication Number Publication Date
KR20230053713A KR20230053713A (ko) 2023-04-21
KR102559288B1 true KR102559288B1 (ko) 2023-07-24

Family

ID=80626084

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020237012131A KR102559288B1 (ko) 2020-09-11 2021-09-13 고정된 오프셋 타겟팅 위치를 선택하는 기법
KR1020237024736A KR20230116071A (ko) 2020-09-11 2021-09-13 고정된 오프셋 타겟팅 위치를 선택하는 기법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020237024736A KR20230116071A (ko) 2020-09-11 2021-09-13 고정된 오프셋 타겟팅 위치를 선택하는 기법

Country Status (5)

Country Link
US (2) US11351457B2 (ko)
EP (1) EP4192591A4 (ko)
KR (2) KR102559288B1 (ko)
CN (2) CN116600866B (ko)
WO (1) WO2022056389A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111991800A (zh) * 2019-02-22 2020-11-27 网易(杭州)网络有限公司 游戏角色控制方法、装置、设备和存储介质
JP7270008B2 (ja) * 2020-09-08 2023-05-09 カムツス コーポレーション ゲーム提供方法、コンピュータプログラム、コンピュータ読取可能な記録媒体、およびコンピュータ装置
EP4112143A4 (en) * 2021-05-14 2023-01-11 Tencent Technology (Shenzhen) Company Limited METHOD AND APPARATUS FOR CONTROL DISPLAY, DEVICE, MEDIA, AND PROGRAM PRODUCT
CA3160509A1 (en) * 2021-05-14 2022-11-14 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium
CN113457132B (zh) * 2021-06-23 2024-03-01 北京达佳互联信息技术有限公司 对象投放方法、装置、电子设备及存储介质
CN117298578A (zh) * 2022-06-21 2023-12-29 网易(杭州)网络有限公司 技能指示器的显示控制方法、装置和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180292952A1 (en) 2017-04-05 2018-10-11 Riot Games, Inc. Methods and systems for object selection
US20190057531A1 (en) 2017-08-16 2019-02-21 Microsoft Technology Licensing, Llc Repositioning user perspectives in virtual reality environments

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4209832A (en) * 1978-06-13 1980-06-24 Chrysler Corporation Computer-generated display for a fire control combat simulator
US4475132A (en) * 1982-01-22 1984-10-02 Rodesch Dale F Interactive video disc systems
US6761632B2 (en) * 2000-08-31 2004-07-13 Igt Gaming device having perceived skill
US6780103B2 (en) * 2000-08-31 2004-08-24 Igt Gaming device having skill/perceived skill bonus round
US7594847B1 (en) * 2002-10-11 2009-09-29 Microsoft Corporation Squad command interface for console-based video game
US7559834B1 (en) * 2002-12-02 2009-07-14 Microsoft Corporation Dynamic join/exit of players during play of console-based video game
US7470195B1 (en) * 2003-01-28 2008-12-30 Microsoft Corporation Camera control for third-person console video game
US7510477B2 (en) * 2003-12-11 2009-03-31 Argentar Eric J Control apparatus for use with a computer or video game system
US20050197178A1 (en) * 2004-03-03 2005-09-08 Villegas Ariel P. Gun-shaped game controller
US8277316B2 (en) * 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
JP4399472B2 (ja) * 2007-03-13 2010-01-13 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
US8834245B2 (en) * 2007-08-17 2014-09-16 Nintendo Co., Ltd. System and method for lock on target tracking with free targeting capability
US20110092290A1 (en) * 2009-10-16 2011-04-21 Huebner Richard D Wireless video game controller
US9180365B2 (en) * 2010-05-10 2015-11-10 Sony Computer Entertainment America Llc Polymorphic firearm controller
US8419541B2 (en) * 2010-11-17 2013-04-16 Sony Computer Entertainment Inc. Smart shell to a game controller
JP4977248B2 (ja) * 2010-12-10 2012-07-18 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲーム制御プログラム
US9370713B2 (en) * 2011-01-17 2016-06-21 Sony Corporation Game device, game control method, and game control program for controlling game in which character is moved in three dimensional space
US8827784B2 (en) * 2011-06-03 2014-09-09 Sony Corporation Game device, game control program, and method for controlling golf game
US9694277B2 (en) * 2013-03-14 2017-07-04 Microsoft Technology Licensing, Llc Client side processing of character interactions in a remote gaming environment
KR101377010B1 (ko) * 2013-05-15 2014-09-03 김신우 다중조준점 적용 방법 및 이를 구현하기 위한 프로그램이 저장된 기록 매체
US10373431B2 (en) * 2013-07-26 2019-08-06 Blue Calypso, Llc System and method for advertising distribution through mobile social gaming
US20190355016A1 (en) * 2013-07-26 2019-11-21 Blue Calypso, Llc System and method for advertising distribution through mobile social gaming
US11465040B2 (en) * 2013-12-11 2022-10-11 Activision Publishing, Inc. System and method for playing video games on touchscreen-based devices
US9004997B1 (en) * 2014-03-12 2015-04-14 Wargaming.Net Llp Providing enhanced game mechanics
US9764226B2 (en) * 2014-03-12 2017-09-19 Wargaming.Net Limited Providing enhanced game mechanics
WO2016005921A1 (en) * 2014-07-08 2016-01-14 Misra Chetan A visual training system and a method thereof
US20170296909A1 (en) * 2015-12-03 2017-10-19 Joseph Codi Starship Chess
US20170157501A1 (en) * 2015-12-03 2017-06-08 Joseph Codi Chess-Like Board Game
US10518172B2 (en) * 2016-03-07 2019-12-31 Htc Corporation Accessory management of virtual reality system
US9773324B1 (en) * 2016-03-23 2017-09-26 Disney Enterprises, Inc. Systems and methods for identifying targets on a display
US20180043263A1 (en) * 2016-08-15 2018-02-15 Emmanuel Brian Cao Augmented Reality method and system for line-of-sight interactions with people and objects online
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN106730827B (zh) * 2016-12-06 2018-10-19 腾讯科技(深圳)有限公司 一种对象显示的方法以及终端设备
AU2018277842A1 (en) * 2017-05-31 2019-12-19 Magic Leap, Inc. Eye tracking calibration techniques
CN107648847B (zh) * 2017-08-22 2020-09-22 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107741818A (zh) * 2017-09-01 2018-02-27 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
CN107648848B (zh) * 2017-09-01 2018-11-16 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107913515B (zh) * 2017-10-25 2019-01-08 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
US10788290B2 (en) * 2018-01-22 2020-09-29 Hvrt Corp. Systems and methods for shooting simulation and training
CN108465240B (zh) * 2018-03-22 2020-08-11 腾讯科技(深圳)有限公司 标记点位置显示方法、装置、终端及计算机可读存储介质
CN108671545B (zh) * 2018-05-24 2022-02-25 腾讯科技(深圳)有限公司 控制虚拟对象与虚拟场景交互的方法、装置及存储介质
US20200111385A1 (en) * 2018-10-05 2020-04-09 Gamers Net, Inc. Training program for assessment and improvement of interaction with video game interfaces
CN109224439B (zh) * 2018-10-22 2022-07-29 网易(杭州)网络有限公司 游戏瞄准的方法及装置、存储介质、电子装置
CN109513209B (zh) * 2018-11-22 2020-04-17 网易(杭州)网络有限公司 虚拟对象处理方法及装置、电子设备以及存储介质
JP7145753B2 (ja) * 2018-12-28 2022-10-03 株式会社バンダイナムコエンターテインメント ゲームシステム及びプログラム
US11033813B2 (en) * 2019-06-07 2021-06-15 Microsoft Technology Licensing, Llc Latency erasure
US11097189B2 (en) * 2019-07-30 2021-08-24 Electronic Arts Inc. Contextually aware communications system in video games
US11406905B2 (en) * 2020-05-26 2022-08-09 Dell Products L.P. System and method for communicating target information to users

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180292952A1 (en) 2017-04-05 2018-10-11 Riot Games, Inc. Methods and systems for object selection
US20190057531A1 (en) 2017-08-16 2019-02-21 Microsoft Technology Licensing, Llc Repositioning user perspectives in virtual reality environments

Also Published As

Publication number Publication date
EP4192591A1 (en) 2023-06-14
US11351457B2 (en) 2022-06-07
WO2022056389A1 (en) 2022-03-17
US20220080316A1 (en) 2022-03-17
EP4192591A4 (en) 2024-01-24
CN117732035A (zh) 2024-03-22
CN116600866B (zh) 2024-01-02
KR20230116071A (ko) 2023-08-03
CN116600866A (zh) 2023-08-15
US20220249951A1 (en) 2022-08-11
KR20230053713A (ko) 2023-04-21

Similar Documents

Publication Publication Date Title
KR102559288B1 (ko) 고정된 오프셋 타겟팅 위치를 선택하는 기법
JP7477671B2 (ja) プログラム、コンピュータシステム及びゲーム装置
CN112691366B (zh) 虚拟道具的显示方法、装置、设备及介质
JP2020522298A (ja) コンピューティング装置のユーザインターフェースを制御する装置および方法
JP2009101061A (ja) 操作制御装置、この操作制御装置を実現するためのプログラム、及び、このプログラムを記録した記録媒体
JP7272765B2 (ja) ゲームプログラム
KR102495259B1 (ko) 온라인 게임에서 대상체를 정밀하게 타겟팅하는 방법 및 장치
JP6559766B2 (ja) ゲームプログラム、コンピュータの制御方法およびコンピュータ
JP2018057414A (ja) ゲームプログラム、方法、および情報処理装置
JP2008237372A (ja) ゲームプログラム、ゲーム装置及びゲーム制御方法
KR101819441B1 (ko) 게임 인터페이스 제공 장치 및 방법
JP6270789B2 (ja) ゲームプログラム、コンピュータの制御方法およびコンピュータ
JP7194894B2 (ja) ゲーム装置、ゲーム処理方法およびプログラム
US11395967B2 (en) Selective indication of off-screen object presence
JP2020089492A (ja) ゲームプログラム、ゲーム処理方法及びゲーム端末
JP2019208920A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP7080524B1 (ja) コンピュータプログラム、それに用いるゲームシステム、及び制御方法
US11911699B2 (en) Processing device having spectating and match information storage and transmission
JP7321692B2 (ja) ゲームプログラム
JP6754805B2 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
KR102463571B1 (ko) 게임 제어 장치 및 방법
JP2023059208A (ja) コンピュータプログラム、それに用いるゲームシステム、及び制御方法
JP2020080878A (ja) ゲームプログラム、方法、および情報処理装置
JP2020028652A (ja) ゲームプログラム、方法、および情報処理装置
JP2020089494A (ja) ゲームプログラム、ゲーム表示方法及びゲーム端末

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant