KR102413266B1 - 비디오 게임 내의 상황 인식 커뮤니케이션 시스템 - Google Patents

비디오 게임 내의 상황 인식 커뮤니케이션 시스템 Download PDF

Info

Publication number
KR102413266B1
KR102413266B1 KR1020200012669A KR20200012669A KR102413266B1 KR 102413266 B1 KR102413266 B1 KR 102413266B1 KR 1020200012669 A KR1020200012669 A KR 1020200012669A KR 20200012669 A KR20200012669 A KR 20200012669A KR 102413266 B1 KR102413266 B1 KR 102413266B1
Authority
KR
South Korea
Prior art keywords
user
communication
unit
player
game
Prior art date
Application number
KR1020200012669A
Other languages
English (en)
Other versions
KR20210014558A (ko
Inventor
케빈 토드 알더만
존 프레스톤 글렌
브렌트 트라비스 맥레오드
카를로스 엠마뉴엘 레에스 피네다
라이메 크리스토퍼 빈슨
Original Assignee
일렉트로닉 아트 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 일렉트로닉 아트 아이엔씨. filed Critical 일렉트로닉 아트 아이엔씨.
Publication of KR20210014558A publication Critical patent/KR20210014558A/ko
Priority to KR1020220075599A priority Critical patent/KR102606017B1/ko
Application granted granted Critical
Publication of KR102413266B1 publication Critical patent/KR102413266B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/307Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying an additional window with a view from the top of the game field, e.g. radar screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/537Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for exchanging game data using a messaging service, e.g. e-mail, SMS, MMS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/572Communication between players during game play of non game information, e.g. e-mail, chat, file transfer, streaming of audio and streaming of video

Abstract

상황 인식 커뮤니케이션을 전송하기 위한 사용자 입력 명령을 수신하는 것에 응답하여, 컴퓨터 시스템은 게임 상태 데이터를 사용하여 비디오 게임 내 가상 환경 내에서 플레이어가 주시하고 있는 목표 위치를 결정하고, 유닛 유형들의 우선 순위들 및 유닛들의 목표 위치에 대한 근접성들 중 적어도 하나에 기초하여 플레이어가 통신하고자 하는 유닛을 식별하고, 수행을 위한 커뮤니케이션 액션을 선택하도록 구성된다. 게임 상태 데이터가 다른 게임 상태들을 지시하는 경우, 동일한 사용자 입력 명령에 응답하여 다른 커뮤니케이션 액션들이 수행될 수 있다.

Description

비디오 게임 내의 상황 인식 커뮤니케이션 시스템{CONTEXTUALLY AWARE COMMUNICATIONS SYSTEM IN VIDEO GAMES}
아래 실시예들은 컴퓨터 네트워크 시스템을 통한 커뮤니케이션에 관한 것이다. 보다 구체적으로, 실시예들은 컴퓨터 네트워크를 통한 비디오 게임 플레이어들 간의 커뮤니케이션에 관한 것이다.
멀티 플레이어 비디오 게임은 점점 더 대중화되고 복잡해지고 있다. 팀원 간의 협력을 위해 일부 비디오 게임에서는 플레이어가 음성 커뮤니케이션 및/또는 텍스트 메시지를 이용하여 서로 통신할 수 있다. 컴퓨터 시스템은 플레이어가 다른 플레이어에게 전달하고자 하는 내용을 파악할 수 없기 때문에, 플레이어들 간 커뮤니케이션을 지원하기 위한 컴퓨터 시스템은 플레이어가 직접 입력한 음성 메시지 및/또는 텍스트 메시지에 의존했다.
일 측에 따른 비디오 게임 내에서 상황 인식 커뮤니케이션들(contextually aware communications)을 전송하기 위한 컴퓨터로 구현되는 방법은 제1 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여, 가상 환경(virtual environment) 내 제1 목표 위치(target location)를 획득하는 단계; 상기 제1 목표 위치로부터 제1 임계 거리(threshold distance) 내에 있는 제1 유닛 유형(unit type)의 제1 인-게임 유닛(in-game unit)을 검출(detecting)하는 단계; 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 상기 제1 인-게임 유닛의 검출; 및 상기 제1 유닛 유형과 관련되고 제1 커뮤니케이션 액션(communication action)과 관련된(associated with) 제1 우선 순위(priority)에 적어도 부분적으로 기초하여, 상기 제1 커뮤니케이션 액션을 선택하는 단계; 및 상기 제1 사용자가 상황 인식 커뮤니케이션을 전송하기 위하여 처음으로(first time) 제1 사용자 입력을 제공함에 응답하여, 상기 제1 커뮤니케이션 액션이 제2 사용자에게 통신(communicate)되도록 하는 데이터를 전송하는 단계를 포함한다.
상기 제1 사용자에 의해 제공된 후속 입력들(subsequent inputs)에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계; 상기 제2 목표 위치로부터 제2 임계 거리 내에 있는 제2 유닛 유형의 제2 인-게임 유닛을 검출하는 단계 - 인-게임 유닛의 상기 제2 유형(second type of in-game unit)은 인-게임 유닛의 상기 제1 유형(first type of in-game unit)과 상이함 -; 상기 제2 목표 위치로부터의 상기 제2 임계 거리 내에 있는 상기 제2 유닛 유형의 상기 제2 인-게임 유닛의 검출; 및 상기 제2 유닛 유형과 관련되고 제2 커뮤니케이션 액션과 관련된 제2 우선 순위에 적어도 부분적으로 기초하여, 상기 제2 커뮤니케이션 액션을 선택하는 단계; 및 상기 제1 사용자가 두번째로(second time) 상기 제1 사용자 입력을 제공함에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제2 사용자에게 유발하는 데이터를 전송하는 단계를 더 포함할 수 있다. 상기 제2 커뮤니케이션 액션은 상기 제1 커뮤니케이션 액션과 상이하다.
상기 제1 목표 위치는 상기 제1 사용자에 의하여 제어되는 시작점(starting point)에서 시작되는(originating from) 가상 환경을 통한(through) 자취(trace) 또는 시선(line of sight); 또는 상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 상기 가상 환경을 통한 발사체 경로(projectile path) 중 하나 이상에 적어도 부분적으로 기초하여 결정될 수 있다.
상기 제1 임계 거리는 상기 비디오 게임 내의 에임 어시스트(aim-assist) 또는 오토 에임(auto-aim) 모듈에 의해 사용되는 제2 임계 거리에 적어도 부분적으로 기초할 수 있다.
상기 제1 커뮤니케이션 액션을 선택하는 단계는 상기 제1 인-게임 유닛과 상기 제1 목표 위치 사이의 제1 거리가 제2 인-게임 유닛과 상기 제1 목표 위치 사이의 제2 거리보다 짧다고 결정하는 것에 적어도 부분적으로 기초하고, 상기 제2 인-게임 유닛은, 상기 제1 유닛 유형에 해당하고(is of), 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있고(is within), 상기 제1 커뮤니케이션 액션은, 상기 제1 유닛의 위치를 시각적으로 마킹하는 것을 포함할 수 있다.
상기 제1 커뮤니케이션 액션은 상기 비디오 게임이 이루어지는(take place) 가상 환경 내의 유닛으로써 제1 시각적 마커(visual marker)를 생성하는 것을 포함하고, 상기 제1 시각적 마커는 상기 가상 환경 내의 상기 제1 유닛의 위치를 지시할 수 있다.
상기 제2 사용자에게 표시되는 상기 제1 시각적 마커의 크기는 상기 제1 유닛의 제1 위치 및 상기 제1 사용자에 의해 제어되는 캐릭터(character)의 제2 위치 사이의 거리와 무관할(independent of) 수 있다.
상기 제 1 시각적 마커는 상기 제2 사용자의 시야(field of view) 내에 있고, 상기 제1 시각적 마커를 시야의 중심에 두는 상기 제2 사용자의 시야에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 감소시키는 단계; 및 상기 제 1 시각적 마커가 상기 제2 사용자의 주변 시야(periphery)로 이동하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 증가시키는 단계를 더 포함할 수 있다.
상기 제2 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계; 상기 제2 목표 위치로부터 제2 임계 거리 내에서 상기 시각적 마커를 검출하는 단계; 상기 제2 목표 위치로부터 상기 제2 임계 거리 내에서 상기 시각적 마커의 검출; 및 시각적 마커들의 우선 순위에 적어도 부분적으로 기초하여, 제2 커뮤니케이션 액션을 선택하는 단계; 및 상기 제2 사용자의 제2 사용자 입력을 누르는 것에 응답하여, 상기 제2 커뮤니케이션 액션- 상기 제2 커뮤니케이션 액션은 상기 제1 커뮤니케이션 액션에 대한 응답을 포함함 -을 상기 제1 사용자에게 유발하는 데이터를 전송하는 단계를 더 포함할 수 있다.
상기 제1 시각적 마커는 상기 제2 사용자에게 정해진 수명(timed lifespan)과 함께 보여지도록 구성되고, 상기 정해진 수명은 상기 제2 커뮤니케이션 액션에 적어도 부분적으로 기초하여 연장될 수 있다.
일 측에 따른 비디오 게임 내에서 상황 인식 커뮤니케이션들을 전송하기 위한 컴퓨터 시스템은 컴퓨터에서 실행 가능한 명령어들을 저장하는 하나 또는 그 이상의 데이터 저장소들; 및 동작들(operations)을 수행하기 위해 상기 컴퓨터에서 실행 가능한 명령어들을 실행하는 하나 또는 그 이상의 프로세서들을 포함하고, 상기 동작들은 제1 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여, 가상 환경 내 제1 목표 위치를 획득하는 단계; 상기 제1 목표 위치로부터 제1 임계 거리 내에 있는 제1 유닛 유형의 제1 인-게임 유닛을 검출하는 단계; 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 상기 제1 인-게임 유닛의 검출; 및 상기 제1 유닛 유형과 관련되고 제1 커뮤니케이션 액션과 관련된 제1 우선 순위에 적어도 부분적으로 기초하여, 상기 제1 커뮤니케이션 액션을 선택하는 단계; 및 상기 제1 사용자가 상황 인식 커뮤니케이션을 전송하기 위하여 처음으로 제1 사용자 입력을 제공함에 응답하여, 상기 제1 커뮤니케이션 액션이 제2 사용자에게 통신(communicate)되도록 하는 데이터를 전송하는 단계를 포함한다.
상기 동작들은 상기 제1 사용자에 의해 제공된 후속 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계; 상기 제2 목표 위치로부터 제2 임계 거리 내에 있는 제2 유닛 유형의 제2 인-게임 유닛을 검출하는 단계 - 상기 제2 유형의 인-게임 유닛은 상기 제1 유형의 인- 게임 유닛과 상이함 -; 상기 제2 목표 위치로부터의 상기 제2 임계 거리 내에 있는 상기 제2 유닛 유형의 상기 제2 인-게임 유닛의 검출; 및 상기 제2 유닛 유형과 관련되고 제2 커뮤니케이션 액션과 관련된 제2 우선 순위에 적어도 부분적으로 기초하여, 상기 제2 커뮤니케이션 액션을 선택하는 단계; 및 상기 제1 사용자가 두번째로 상기 제1 사용자 입력을 제공함에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제2 사용자에게 유발하는 데이터를 전송하는 단계를 더 포함할 수 있다. 상기 제2 커뮤니케이션 액션은 상기 제1 커뮤니케이션 액션과 상이하다.
상기 제1 목표 위치는 상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 상기 가상 환경을 통한 자취 또는 시선; 또는 상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 상기 가상 환경을 통한 발사체 경로 중 하나 이상에 적어도 부분적으로 기초하여 결정될 수 있다.
상기 제1 임계 거리는 상기 비디오 게임 내의 에임 어시스트 또는 오토 에임 모듈에 의해 사용되는 제2 임계 거리에 적어도 부분적으로 기초할 수 있다.
상기 제1 커뮤니케이션 액션을 선택하는 단계는, 상기 제1 인-게임 유닛과 상기 제1 목표 위치 사이의 제1 거리가 제2 인-게임 유닛과 상기 제1 목표 위치 사이의 제2 거리보다 짧다는 결정에 적어도 부분적으로 더 기초하고, 상기 제2 인-게임 유닛은, 상기 제1 유닛 유형에 해당하고, 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있고, 상기 제1 커뮤니케이션 액션은, 상기 제1 유닛의 위치를 시각적으로 마킹하는 것을 포함할 수 있다.
상기 제1 커뮤니케이션 액션은 상기 비디오 게임이 이루어지는 가상 환경 내의 유닛으로써 제1 시각적 마커를 생성하는 것을 포함하고, 상기 제1 시각적 마커는 상기 가상 환경 내의 상기 제1 유닛의 위치를 지시할 수 있다.
상기 제2 사용자에게 표시되는 상기 제1 시각적 마커의 크기는 상기 제1 유닛의 제1 위치 및 상기 제1 플레이어에 의해 제어되는 캐릭터의 제2 위치 사이의 거리와 무관할 수 있다.
상기 제1 시각적 마커는 상기 제2 사용자의 시야 내에 있고, 상기 동작들은 상기 제1 시각적 마커를 시야의 중심에 두는 상기 제2 사용자의 시야에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 감소시키는 단계; 및 상기 제 1 시각적 마커가 상기 제2 사용자의 주변 시야로 이동하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 증가시키는 단계를 더 포함할 수 있다.
상기 동작들은 상기 제2 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계; 상기 제2 목표 위치로부터 제2 임계 거리 내에서 상기 시각적 마커를 검출하는 단계; 상기 제2 목표 위치로부터 상기 제2 임계 거리 내에서 상기 시각적 마커의 검출; 및 시각적 마커들의 우선 순위에 적어도 부분적으로 기초하여, 제2 커뮤니케이션 액션을 선택하는 단계; 및 상기 제2 사용자의 제2 사용자 입력을 누르는 것에 응답하여, 상기 제2 커뮤니케이션 액션- 상기 제2 커뮤니케이션 액션은 상기 제1 커뮤니케이션 액션에 대한 응답을 포함함 -을 상기 제1 사용자에게 유발하는 데이터를 전송하는 단계를 더 포함할 수 있다.
상기 제1 시각적 마커는 상기 제2 사용자에게 정해진 수명과 함께 보여 지도록 구성되고, 상기 정해진 수명은 상기 제2 커뮤니케이션 액션에 적어도 부분적으로 기초하여 연장될 수 있다.
도 1은 일실시예에 따른 상황 인식 커뮤니케이션을 전송하기 위한 멀티 플레이어 비디오 게임의 컴퓨팅 환경을 도시한 도면.
도 2는 일실시예에 따른 상황 인식 커뮤니케이션 액션을 선택, 전송 및 수행하기 위한 프로세스의 예시적인 흐름도를 도시한 도면.
도 3a 및 도 3b는 일실시예에 따른 유닛들의 우선 순위 계층 및 관련 커뮤니케이션 액션을 나타내는 테이블을 도시한 도면들.
도 4는 일실시예에 따른 통신 대상 유닛을 결정하기 위한 프로세스의 흐름도를 도시한 도면.
도 5a는 일실시예에 따른 목표 위치가 결정될 수 있는 플레이어의 시야에 대한 스크린 샷을 도시한 도면.
도 5b는 일실시예에 따른 2D 및 3D 임계 거리들 및 플레이어의 시야에 대한 스크린 샷들을 도시한 도면.
도 6은 일실시예에 따라 통신 대상이 플레이어의 시야에 따라 동적으로 선택되는 것을 설명하기 위한 플레이어의 시야에 대한 스크린 샷들을 도시한 도면.
도 7은 일실시예에 따른 "enemy spotted"의 상황에 따른 커뮤니케이션을 할 때의 플레이어의 시야에 대한 스크린 샷을 도시한 도면.
도 8은 일실시예에 따른 통신 대상이 될 수 있는 시간에 따라 변형되는 유닛들을 포함한 플레이어의 시야에 대한 스크린 샷을 도시한 도면.
도 9는 일실시예에 따른 다양한 항목의 위치를 나타내는 핑 아이콘들을 포함한 플레이어의 시야에 대한 스크린 샷을 도시한 도면.
도 10은 일실시예에 따른 두 명의 다른 플레이어의 관점에서 동시에 본 바디 실드의 두 스크린 샷들을 도시한 도면.
도 11a는 일실시예에 따른 비디오 게임에서 플레이어1이 승인 응답(acknowledgement ping)을 보내기 전의 플레이어2의 시야에 대한 스크린 샷을 도시한 도면.
도 11b는 일실시예에 따른 비디오 게임에서 플레이어1이 승인 응답을 보낸 후의 플레이어2의 시야에 대한 스크린 샷을 도시한 도면.
도 12a는 일실시예에 따른 비디오 게임에서 플레이어1이 승인 응답을 보내기 전의 플레이어1의 시야에 대한 스크린 샷을 도시한 도면.
도 12b는 일실시예에 따른 비디오 게임에서 플레이어1이 확인 응답을 보낸 후의 플레이어1의 시야에 대한 스크린 샷을 도시한 도면.
도 13a 및 도 13b는 일실시예에 따른 마크된 아이템에 접근하는 제1 플레이어에 의해 보여지는 게임 플레이의 스크린 샷을 도시한 도면들.
도 14a는 일실시예에 따른 플레이어가 주시하고 있는 위치 및 마커에 대한 캐릭터의 위치에 기초하여 마커가 변경될 수 있는 다양한 방식을 도시한 3개의 스크린 샷을 도시한 도면.
도 14b는 일실시예에 따른 플레이어가 주시하고 있는 위치로부터의 거리에 기초하여 마커 아이콘이 변화하는 것을 설명하기 위한 스크린 샷을 도시한 도면.
도 15는 일실시예에 따른 중간에 끼어있는 불투명한 객체(intervening object) 위에 마킹된 문이 표시된 스크린 샷을 도시한 도면.
도 16은 일실시예에 따른 상황 인식 커뮤니케이션 메뉴들을 도시한 도면.
도 17은 일실시예에 따른 비디오 게임에서 인벤토리 메뉴를 도시한도면.
도 18은 일실시예에 따른 컴퓨팅 시스템을 도시한 도면.
서론
멀티 플레이어 비디오 게임은 개선된 플레이어 대 플레이어 통신에 대한 해결되지 않은 오래된 과제를 안고 있다. 멀티 플레이어 비디오 게임의 많은 플레이어들은 팀 플레이 경험을 향상시키기 위한 협력의 개선으로 인해 혜택을 받을 수 있다. 비디오 게임에서 구현할 수 있는 다양한 커뮤니케이션 시스템이 존재한다. 예를 들어, 일부 시스템은 텍스트를 이용한 커뮤니케이션을 지원한다. 많은 플레이어들의 다양한 타이핑 속도와 느린 타이핑 속도는 텍스트 커뮤니케이션의 속도를 제한할 수 있으며, 비디오 게임에 플레이어의 손이 다른 입력을 제공하는 것을 제한할 수 있다. 일부 시스템에서는 미리 결정된 제1 메시지를 발송하는 제1 버튼 및 다른 제2 메시지를 발송하는 제2 버튼과 같이, 각 유형의 커뮤니케이션 액션에 대해 전용 버튼을 누르도록 하는 커뮤니케이션 기능을 지원할 수 있다. 이러한 시스템은 서로 다른 커뮤니케이션 액션에 대응하여 사용 가능한 버튼의 수에 의해 제한될 수 있으며, 플레이어는 어느 버튼이 어떤 커뮤니케이션 액션에 매핑되는지 기억해야하는 어려움이 있다. 일부 시스템에서는 플레이어가 커뮤니케이션 메뉴의 첫번째 페이지를 열기 위해 첫 번째 버튼을 누르고, 첫 번째 페이지에 표시된 커뮤니케이션 메시지의 카테고리를 선택한 다음, 해당 카테고리에서 특정 메시지를 선택하는 등 일련의 입력을 제공해야한다. 그러나 메뉴를 탐색하기 위해 일련의 여러 입력이 필요하고, 플레이어가 커뮤니케이션 메뉴의 옵션을 읽고 탐색하는 데 시간이 소요되고, 메뉴 창은 비디오 게임 화면을 가릴 수 있으며, 메뉴 창이 열려있는 동안 사용자는 비디오 게임에서 다른 상호작용을 하지 못하게 될 수도 있다.
일부 시스템은 음성을 통한 커뮤니케이션 기능을 지원할 수 있다. 음성을 통한 커뮤니케이션은 오디오 전송을 위해 추가 네트워크 대역폭을 사용해야 하고, 마이크 등 기타 음성 입력 하드웨어를 요구하며, 플레이어가 모욕적이고 공격적인 언어를 말할 수 있는 가능성이 있고, 원치 않는 배경 잡음이 입력될 수 있으며, 추가적인 민감도 및 볼륨 변수에 대한 문제를 야기할 수 있다.
핑(ping) 시스템은 핑 위치에 설정된 핑 지시자를 생성할 수 있다. 설정된 핑 지시자는 원하는 메시지를 전달하기에 충분하지 않을 수 있다. 예를 들어, 설정된 핑 지시자가 핑 위치에서 생성되면, 다른 플레이어가 핑 위치로 이동하거나 핑 위치에서 위험을 인식하는 것이 제한될 수 있다. 일부 핑 시스템은 핑 플레이어의 추가적인 선택 시퀀스에 응답하여, 다른 시각적 마커들(예를 들어, "go here"의 녹색 마커 및 "danger"의 빨간색 마커)을 만들 수 있다. 예를 들어, 플레이어는 버튼을 길게 눌러 옵션 메뉴를 열고 생성하려는 핑 마커의 유형을 메뉴에서 선택할 수 있다. 특정 핑 마커의 유형을 선택하는 추가적인 기능은 위에서 설명한 일반 메뉴의 추가적인 복잡성을 야기할 수 있다.
일실시예에 따른 커뮤니케이션 시스템은 전술한 커뮤니케이션 시스템들의 특징들 중 적어도 하나 또는 임의의 조합을 포함할 수 있다.
또한, 일실시예에 따른 커뮤니케이션 시스템은 상황을 인식하는 커뮤니케이션 시스템인 것을 특징으로 하며, "스마트 핑(smart ping)" 시스템으로 지칭될 수 있다. 이하에서 비디오 게임 플레이어는 플레이어 또는 사용자로 지칭될 수 있다.
일실시예에 따른 커뮤니케이션 시스템은 플레이어로부터 커뮤니케이션의 의도를 나타내는 입력을 수신하고, 비디오 게임에서 상황을 결정하고, 결정된 상황에 기초하여 복수의 가능한 커뮤니케이션 액션들 중에서 하나의 커뮤니케이션 액션을 선택하고, 다른 플레이어가 선택된 커뮤니케이션 액션을 수행하도록 구성될 수 있다. 다른 시스템들은 서로 다른 커뮤니케이션 액션을 수행하기 위하여, 서로 다른 사용자 입력들 및/또는 서로 다른 사용자 입력 시퀀스들을 이용하는 반면, 일실시예에 따른 스마트 핑 커뮤니케이션 시스템은 다른 사용자 입력을 사용하거나 다른 사용자 입력을 추가하지 않고, 동일한 사용자 입력을 반 직관적으로 사용하여 서로 다른 커뮤니케이션 액션을 수행할 수 있다. 일실시예에 따른 사용자 입력은 커뮤니케이션을 위해 단일 버튼을 누르는 등의 버튼과의 상호 작용을 포함할 수 있다. 일실시예에 따른 플레이어는 동일한 단일 버튼과 동일한 상호 작용을 통하여 비디오 게임에서의 현재, 최근 및/또는 실시간 상황에 기초한 다양한 커뮤니케이션 액션들 중 하나를 다른 플레이어에게 전송할 수 있다. 일실시예에 따른 상황은 특정 게임 상태의 모든 측면을 포함할 수 있다. 예를 들어, 플레이어의 캐릭터가 비디오 게임에서 적의 위치를 바라보고 있거나, 플레이어의 캐릭터가 적의 위치 근처에 있는 제1 상황의 경우, 플레이어는 커뮤니케이션 버튼을 눌러 "적군을 발견했습니다. 공격하십시오."라는 텍스트 또는 오디오를 같은 팀의 다른 플레이어에게 전달하고, 적의 위치에 제1 유형의 시각적 마커를 생성하여 다른 플레이어에게 경고의 메시지를 전달할 수 있다. 또 다른 예를 들어, 플레이어의 캐릭터가 플레이어의 팀원 캐릭터가 수집할 수 있는 게임 아이템을 바라보고 있는 제2 상황의 경우, 플레이어는 동일한 커뮤니케이션 버튼을 눌러 "당신이 수집할 수 있는 아이템이 여기에 있습니다."라는 텍스트 또는 오디오를 같은 팀의 다른 플레이어에게 전달하고, 픽업 가능한 아이템 유형임을 표시하기 위해 아이템 위치에 제2 유형의 시각적 마커를 생성할 수 있다.
일실시예에 따른 상황 인식 커뮤니케이션 시스템은 이하에서 설명하는 구성들 중 적어도 하나 또는 구성들의 임의의 조합을 포함할 수 있다.
일실시예에 따른 상황 인식 커뮤니케이션 시스템은 플레이어가 하나의 버튼을 눌러 다양한 커뮤니케이션 액션을 실행할 수 있는 구성을 포함할 수 있다. 이러한 구성은 플레이어가 사용 가능한 커뮤니케이션 액션의 메뉴를 읽거나 탐색하는 데에 시간을 소요하거나, 타이핑으로 인하여 시간을 소요할 필요없이 실시간으로 빠르게 커뮤니케이션 액션을 실행할 수 있는 효과가 있다. 또한, 플레이어는 복수의 상이한 버튼들 중 어떤 버튼이 어떤 커뮤니케이션 액션에 매핑되어 있는지를 기억할 필요없이 단일 버튼만을 사용하여 다양한 커뮤니케이션 액션을 실행할 수 있다.
일실시예에 따른 복수의 커뮤니케이션 액션을 위한 오디오, 비디오, 그래픽 및/또는 기타 상당한 크기의 데이터는 각 플레이어의 게임 콘솔 또는 컴퓨터 장치와 같은 로컬 네트워크 위치에 캐시되거나 저장되는 구성을 포함할 수 있다. 이러한 구성으로 인해 복수의 커뮤니케이션 액션 중 어느 하나를 선택하기 위하여 더 적은 양의 데이터를 전송함으로써, 오디오, 비디오, 그래픽 및/또는 다른 상당한 크기의 데이터를 전송하는 것에 비해 네트워크 대역폭을 절약할 수 있다.
일실시예에 따른 시스템은 플레이어가 게임의 다양한 상황에 대응하여 플레이어 간의 협력 및 팀 플레이 경험을 향상시킬 수 있는 충분한 양의 다양한 커뮤니케이션 액션들을 포함할 수 있다. 따라서 플레이어들은 마이크 등 기타 오디오 입력 하드웨어를 구매하지 않고도 다양한 커뮤니케이션 액션을 수행할 수 있으며, 플레이어는 콘솔 컨트롤러와 같은 입력 장치에 포함된 사용 가능한 버튼들의 수를 초과하는 여러 가지 다른 커뮤니케이션 액션을 신속하게 실행할 수 있다. 또한 플레이어는 비디오 게임 화면 일부를 가릴 수 있는 메뉴가 팝업되지 않으며, 메뉴를 탐색하는 데에 시간을 소요할 필요없이 다양한 커뮤니케이션 액션을 수행할 수 있다. 뿐만 아니라, 이러한 구성을 통해 플레이어는 메뉴를 선택하기 위해 추가적인 입력 액션(예를 들어, 방향 이동, 버튼 누르기 등)없이 다양한 커뮤니케이션 액션을 수행할 수 있으며, 공격적인 메시지의 전송이 제어될 수 있다. 일실시예에 따른 커뮤니케이션은 오디오 데이터로 기록되어 선명하게 재생될 수 있어, 플레이어가 전송된 오디오 데이터를 명확하게 이해할 수 있다.
이하에서 일실시예에 따른 커뮤니케이션 시스템에 대하여 설명한다. 일실시예에 따른 상황 인식 커뮤니케이션 시스템에 대한 추가적인 세부 사항 및 예는 도면과 관련하여 설명한다.
정의
"플레이어"는 비디오 게임에 가상으로 존재하는 캐릭터와 구분되며, 비디오 게임을 하는 실제 사용자(예를 들어, 사람들)를 의미한다.
"캐릭터"는 실제 사용자, 사람 또는 플레이어와 구분되며, 비디오 게임에 가상으로 존재하는 개체를 의미한다.
멀티 플레이어 비디오 게임 컴퓨팅 환경의 개요
도 1은 일실시예에 따른 상황 인식 커뮤니케이션을 전송하기 위한 멀티 플레이어 비디오 게임 컴퓨팅 환경(100)을 도시한다. 도 1을 참조할 때, 환경(100)은 네트워크(108), 복수의 사용자 컴퓨팅 시스템(102A, 102B) 및 서버 컴퓨팅 시스템(130)을 포함한다. 사용자 컴퓨팅 시스템들(102A, 102B)은 각각 컴퓨팅 자원들(104A, 104B) 및 애플리케이션 데이터 저장소(106A, 106B)를 갖는다. 서버 컴퓨팅 시스템(130)은 컴퓨팅 자원들(104C) 및 호스트 애플리케이션 데이터 저장소(134)를 갖는다. 사용자 컴퓨팅 시스템들(102A, 102B)은 네트워크(108)를 통해 서로 통신할 수 있고, 추가적으로 또는 대안적으로(additionally or alternatively) 대화형 컴퓨팅 시스템(130)과도 통신할 수 있다.
도 1은 2개의 사용자 컴퓨팅 시스템들(102A, 102B) 및 하나의 서버 컴퓨팅 시스템(130)을 포함한다. 그러나, 본 명세서에 개시된 기술은 다른 많은 양의 사용자 컴퓨팅 시스템과 함께 사용될 수 있다. 본 명세서에 개시된 기술은 또한 더 많은 양의 서버 컴퓨팅 시스템을 사용하여 구현될 수 있다. 일실시예에 따를 때, 하나 또는 그 이상의 사용자 컴퓨팅 시스템들(102A, 102B)은 서버 기능을 수행할 수 있고, 서로 직접 통신할 수 있으며, 서버 컴퓨팅 시스템(130)은 선택적으로 생략될 수 있다. 일실시예에서 컴퓨터 기능은 서버(130) 및 사용자 컴퓨팅 시스템들(102A, 102B)에 분배될 수 있다. 도 1에는 하나의 네트워크(108)만이 도시되어 있지만, 다수의 개별 및/또는 분산 네트워크들(108)이 존재할 수 있다.
컴퓨팅 시스템들
일실시예에 따른 컴퓨팅 시스템들(102A, 102B)은 각각의 컴퓨팅 자원들(104A, 104B) 및 어플리케이션 데이터 저장소들(106A, 106B)을 포함한다. 사용자 컴퓨팅 시스템들(102A, 102B)은 중앙 처리 장치 및 구조(architecture), 메모리, 대용량 저장 장치, 그래픽 처리 장치, 통신 네트워크 가용성 및 대역폭 등과 같은 다양한 로컬 컴퓨팅 자원들(104A, 104B)을 가질 수 있다. 어플리케이션 데이터 저장소들(106A, 106B)은 로컬 컴퓨팅 자원들(104A, 104B)이 실행할 비일시적(non-transitory)이며, 컴퓨터 판독 가능(computer-readable)한 명령어들을 저장할 수 있다. 또한, 사용자 컴퓨팅 시스템들(102A, 102B)은 데스크탑, 랩탑, 비디오 게임 플랫폼/콘솔, 텔레비전 셋톱 박스, 텔레비전(예를 들어, 인터넷 TV), 네트워크 이용이 가능한 키오스크(network-enabled kiosk), 자동차 콘솔 장치, 컴퓨터 기기, 웨어러블 장치(예를 들어, 컴퓨팅 기능이 있는 스마트 워치 및 안경) 및 무선 모바일 장치(예를 들어, 스마트 폰, PDA, 태블릿 등) 등을 포함할 수 있다.
일실시예에 따른 사용자 컴퓨팅 시스템들(102A, 102B)은 게임 어플리케이션들(110A, 110B)을 실행하기 위해 컴퓨팅 자원들(104A, 104B)을 사용할 수 있다. 사용자 컴퓨팅 시스템들(102A, 102B)은 각각의 플레이어들로부터 게임 어플리케이션들(110A, 110B) 및/또는 서버 컴퓨터 시스템(130)에 의해 실행될 사용자 입력들을 수신하고, 사용자 컴퓨팅 시스템들(102A, 102B)은 비디오 게임의 응답 및 진행을 나타내는 비디오 출력들을 생성한다. 일실시예에 따른 컴퓨팅 시스템에 대한 보다 상세한 설명은 이하의 도 18과 관련하여 상술한다.
서버 컴퓨팅 시스템(130)은 컴퓨팅 자원들(104C) 및 호스트 어플리케이션 데이터 저장소(134)를 포함한다. 서버 컴퓨팅 시스템(130)은 중앙 처리 장치 및 구조(architecture), 메모리, 대용량 저장 장치, 그래픽 처리 장치, 통신 네트워크 가용성 및 대역폭 등과 같은 다양한 로컬 컴퓨팅 자원들(104C)을 가질 수 있다. 호스트 애플리케이션 데이터 저장소(134)는 컴퓨팅 자원들(104C)이 실행할 비일시적이며 컴퓨터 판독 가능한 명령어들을 저장할 수 있다. 또한, 서버 컴퓨팅 시스템(130)은 임의의 유형의 컴퓨팅 시스템을 포함할 수 있다.
서버 컴퓨팅 시스템(130)은 게임 어플리케이션들(110A, 110B)과 동일하거나 상이할 수 있는 게임 호스트 어플리케이션(110C)을 실행하기 위해 컴퓨팅 자원들(104C)을 사용할 수 있다. 일실시예에 따를 때, 게임 호스트 어플리케이션(110C)은 게임 어플리케이션들(110A, 110B)의 하나 또는 그 이상의 인스턴스들의 일부를 호스팅 및/또는 실행할 수 있는 서버 및 데이터베이스와 같은 하나 또는 그 이상의 컴퓨팅 장치들에 의해 실행될 수 있다. 일실시예에 따른 컴퓨팅 시스템에 대한 보다 상세한 설명은 도 18과 관련하여 상술한다.
달리 명시되지 않는 한, "하나 또는 그 이상의 데이터 저장소들"은 사용자 컴퓨팅 시스템들 및/또는 서버 컴퓨팅 시스템들에 포함된 데이터 저장소들(106A, 106B, 134) 중 어느 하나 또는 데이터 저장소들(106A, 106B, 134)의 임의의 조합을 지칭할 수 있다. 달리 명시되지 않는 한, "하나 또는 그 이상의 프로세서들"은 사용자 컴퓨팅 시스템들 및/또는 서버 컴퓨팅 시스템들에 포함된 컴퓨팅 자원들(104A, 104B, 104C) 중 어느 하나 또는 컴퓨팅 자원들(104A, 104B, 104C)의 임의의 조합에 포함된하나 또는 그 이상의 프로세서들을 지칭할 수 있다.
게임 호스트 어플리케이션
일실시예에 따른 서버 컴퓨팅 시스템(130)은 다수의 사용자들 또는 컴퓨팅 시스템들이 서버 컴퓨팅 시스템(130)에 의해 실행되거나 호스팅되는 게임 호스트 어플리케이션(110C)의 일부에 액세스(access)하게 할 수 있다. 서버 컴퓨팅 시스템(130)은 커뮤니케이션 모듈(120C)을 포함할 수 있다. 일실시예에 따를 때, 게임 호스트 어플리케이션(110C)은 게임 환경의 다양한 측면들(aspects)을 실행하기 위한 호스팅 시스템을 실행할 수 있다. 예를 들어, 게임 호스트 어플리케이션(110C)은 게임 환경 내의 캐릭터들 및 다른 유닛들의 위치를 기록할 수 있다. 게임 호스트 어플리케이션(110C)은 서버 컴퓨팅 시스템(130)이 게임 어플리케이션들(110A, 110B)의 인스턴스에 연결되는 경우 추가적인 기능을 제공하는 멀티 플레이어 게임일 수 있다. 예를 들어, 서버 컴퓨팅 시스템(130)은 게임의 상황에 기초하여 커뮤니케이션 액션의 선택을 용이하게 하고, 선택된 커뮤니케이션 액션의 한 플레이어에서 다른 플레이어로의 실행을 용이하게 할 수 있다. 일실시예에 따를 때, 게임 호스트 시스템(110C)은 멀티 플레이어 게임 인스턴스들을 호스팅하기 위한 전용 호스팅 서비스를 제공할 수 있고, 또는 사용자 컴퓨팅 장치들(102A, 102B)에 의해 호스팅되는 게임 인스턴스들의 생성을 용이하게 할 수 있다. 일실시예에 따를 때, 게임 호스트 어플리케이션(110C)은 사용자들이 사실적으로 서로 상호 작용하도록 로비(lobby) 또는 다른 환경을 제공할 수 있다.
게임 어플리케이션
일실시예에 따른 사용자 컴퓨팅 시스템들(102A, 102B)은 어플리케이션 데이터 저장소들(106A, 106B)에 적어도 부분적으로 저장된 소프트웨어 코드에 기초하여 각각의 게임 어플리케이션(110A, 110B)을 실행할 수 있다. 게임 어플리케이션(110A, 110B)은 비디오 게임, 게임, 게임 코드 및/또는 게임 프로그램으로 지칭될 수 있다. 게임 애플리케이션(110A, 110B)은 컴퓨팅 장치(102A, 102B)가 사용자에게 게임을 제공하기 위해 사용할 수 있는 소프트웨어 코드를 포함하는 것으로 이해되어야 한다. 게임 애플리케이션(110)은 컴퓨팅 자원들(104A, 104B)에 프로세서 명령어들을 실행할 것을 알리는 소프트웨어 코드를 포함할 수 있으나, 이미지와 관련된 데이터, 게임 상태 데이터(game state data), 오디오 데이터 및 기타 데이터 구조 등 게임 플레이에 사용되는 데이터를 포함할 수도 있다. 일실시예에 따른 게임 어플리케이션(110A, 110B)은 게임 엔진들(112A, 112B), 게임 데이터(114A, 114B), 게임 상태 정보(116A, 116B) 및 커뮤니케이션 모듈(120A, 120B)을 포함한다.
서버 컴퓨팅 시스템(130)은 호스트 어플리케이션 데이터 저장소들(134)의 적어도 일부에 저장된 소프트웨어 코드에 기초하여 게임 호스트 어플리케이션(110C)을 실행할 수 있다. 게임 호스트 어플리케이션(110C)은 사용자 컴퓨팅 시스템들(102A, 102B)의 게임 애플리케이션들(110A, 110B)을 위한 서비스들을 수행할 수 있다. 게임 호스트 어플리케이션(110C)은 서버 컴퓨팅 시스템(130)이 사용자의 비디오 게임 플레이를 위한 호스팅 서비스를 수행하기 위해 사용할 수 있는 소프트웨어 코드를 포함하는 것으로 이해되어야 한다. 게임 호스트 애플리케이션(110C)은 컴퓨팅 자원들 (104C)에 프로세서 명령어들을 실행할 것을 알리는 소프트웨어 코드를 포함할 수 있으나, 이미지와 관련된 데이터, 게임 상태 데이터, 오디오 데이터 및 기타 데이터 구조 등 게임 서비스에 사용되는 데이터를 포함할 수도 있다. 일실시예에 따른 게임 호스트 어플리케이션(110C)은 게임 엔진(112C), 게임 데이터 (114C), 게임 상태 정보 (116C) 및 커뮤니케이션 모듈(120C)을 포함한다.
사용자 컴퓨팅 시스템들(102A, 102B)은 분산된 환경에서 저장 및/또는 실행될 수 있는 게임 어플리케이션들(110A, 110B)을 실행할 수 있다. 예를 들어, 제1 사용자 컴퓨팅 시스템(102A)은 게임의 일부를 실행할 수 있고, 서버 컴퓨팅 시스템(130)과 같은 네트워크 기반 컴퓨팅 시스템 또는 제2 사용자 컴퓨팅 시스템(102B) 은 게임의 다른 부분을 실행할 수 있다. 예를 들어, 게임은 대규모 다중 사용자 온라인 롤플레잉 게임(MMORPG; Massively Multiplay Online Role-Playing Game), 1인칭 슈팅 게임(FPS; First-Person Shooter), 멀티 플레이어 온라인 배틀 아레나 게임(MOBA; Multiplayer Online Battle Arena), 실시간 전략 게임(RTS; Real Time Strategy), 전략 게임, 어드벤처 게임, 전술 게임, 보드 게임, 카드 게임, 액션 게임, 배틀 로얄 게임, 사이드 스크롤 게임, 퍼즐 게임, 스포츠 게임, 격투 게임, 캐주얼 게임, 도시 건설 게임 또는 사용자 컴퓨팅 시스템들(102A, 102B)에 의해 실행되는 클라이언트 부분 및 하나 또는 그 이상의 서버 컴퓨팅 시스템들(130)에 의해 실행되는 서버 부분을 포함하는 유형의 게임에 해당할 수 있다.
게임 엔진
일실시예에 따른 게임 엔진들(112A, 112B)은 각각의 사용자 컴퓨팅 장치 (102A, 102B) 내에서 게임 어플리케이션들(110A, 110B)의 동작들(operations)의 측면들(aspects)들을 실행하도록 구성될 수 있다. 게임 엔진(112C)은 게임 호스트 어플리케이션(110C)의 동작의 측면을 실행하도록 구성될 수 있다. 게임 어플리케이션 내에서의 게임 플레이의 측면들의 실행은 수신된 사용자 입력, 게임 데이터(114A, 114B, 114C) 및 게임 상태 정보 (116A, 116B, 116C)에 적어도 부분적으로 기초할 수 있다. 게임 데이터(114A, 114B, 114C)는 게임 규칙, 환경 설정, 제약, 모델, 오디오, 시각적 표시, 유닛, 데이터베이스 및/또는 기타 게임 어플리케이션 정보를 포함할 수 있다.
게임 엔진들(112A, 112B, 112C) 중 어느 하나 또는 임의의 조합은 게임 규칙에 따라 게임 내에서 게임 플레이를 실행할 수 있다. 예를 들어, 게임 규칙은 점수(scoring)에 관한 규칙, 가능한 입력들, 액션/이벤트, 입력에 대응하는 움직임 등을 포함할 수 있다. 다른 구성 요소는 어떤 입력을 받아들일지, 게임 진행을 어떻게 할 것인지 등의 게임 플레이의 측면들을 제어할 수 있다. 게임 엔진들(112A, 112B, 112C)은 사용자 입력들을 수신 및/또는 처리하고, 게임 어플리케이션들(110A, 110B, 110C)에 적합한 액션, 점프, 런, 던지기, 공격 및 기타 이벤트 등의 인-게임 이벤트를 결정할 수 있다. 동작의 실행 시간(runtime operation) 동안, 게임 엔진들(112A, 112B, 112C)은 게임 데이터 (114A, 114B, 114C) 및 게임 상태 정보(116A, 116B, 116C)를 읽어 적절한 인-게임 이벤트들을 결정할 수 있다.
하나 또는 그 이상의 게임 엔진들(112A, 112B, 112C)이 캐릭터 이벤트를 결정한 후, 캐릭터 이벤트는 이벤트에 응답하여 캐릭터가 해야 하는 적절한 모션을 결정하고, 결정된 모션을 물리 엔진(physics engine)으로 전달하는 이동 엔진(movement engine)으로 전달될 수 있다. 물리 엔진은 캐릭터에 대한 새로운 포즈를 결정하고 스키닝 및 렌더링 엔진(skinning and rendering engine)에 새로운 포즈를 제공할 수 있다. 스키닝 및 렌더링 엔진은 생물체, 무생물체 및 배경 객체를 전체 장면(a full scene)으로 결합하기 위해 캐릭터 이미지들을 객체 결합기(object combiner)에 제공할 수 있다. 전체 장면은 사용자에게 표시할 새 프레임을 생성하는 렌더러(renderer)로 전달될 수 있다. 게임 어플리케이션을 실행하는 동안 각 프레임을 렌더링하기 위한 프로세스를 반복할 수 있다. 상기에서 프로세스를 캐릭터와 관련하여 설명하였으나, 일실시예에 따른 프로세스는 이벤트를 처리하고, 출력을 사용자에게 표시하기 위해 렌더링하는 모든 프로세스에 적용될 수 있다.
게임 데이터
게임 데이터(114A, 114B, 114C)는 게임 규칙, 미리 기록된 모션 캡처 포즈/경로, 환경 설정, 환경 객체(environmental objects), 제약, 골격 모델, 오디오, 시각적 표시, 데이터베이스 및/또는 기타 게임 애플리케이션 정보를 포함할 수 있다. 게임 데이터(114A, 114B, 114C)의 적어도 일부는 각각의 어플리케이션 데이터 저장소들(106A, 106B, 106C)에 저장될 수 있다. 일실시예에 따를 때, 게임 데이터(114A, 114B, 114C)의 일부는 원격으로 수신 및/또는 저장될 수 있고, 게임 애플리케이션의 런타임 동안 네트워크(108)를 통해 수신될 수 있다. 이하에서 도 3a 및 도 3b와 관련하여 상술하겠으나, 게임 데이터는 유닛 유형들의 우선 순위들 및 유닛 유형들과 관련된 커뮤니케이션 액션들을 포함할 수 있다.
게임 상태 정보
런타임 동안, 게임 애플리케이션들(110A, 110B, 110C)은 게임 상태 정보 (116A, 116B, 116C)를 저장할 수 있으며, 게임 상태 정보(116A, 116B, 116C)는 게임 상태, 캐릭터 상태들, 환경 상태들, 장면 객체 저장소 및/또는 비디오 게임의 런타임 상태와 관련된 기타 정보를 포함할 수 있다. 예를 들어, 게임 상태 정보(116A, 116B, 116C)는 특정 시점에서 캐릭터의 위치, 캐릭터의 방향, 캐릭터의 액션, 게임 레벨 속성, 유닛 위치, 아이템 위치 및 게임 상태에 기여하는 기타 정보 등의 게임 어플리케이션들(110A, 110B, 110C)의 상태를 개별적으로 또는 집합적으로 식별할 수 있다. 게임 상태 정보는 캐릭터의 이동 위치들과 같이 지속적으로 변하는 동적 상태 정보 및 게임 내에서 게임 레벨의 식별과 같은 정적 상태 정보를 포함할 수 있다.
커뮤니케이션 모듈
커뮤니케이션 모듈들(120A, 120B, 120C)은 게임 애플리케이션(110A, 110B, 110C) 내에서 상황 인식 커뮤니케이션을 전송하기 위한 다양한 기능을 수행할 수 있고, 게임 애플리케이션(110)의 런타임 동안 액션할 수 있다. 커뮤니케이션 모듈(120A, 120B, 120C)은 다양한 커뮤니케이션 기능을 수행하기 위하여, 게임 데이터(114A, 114B, 114C) 및 게임 상태 데이터(116A, 116B, 116C)의 임의의 조합을 사용할 수 있다. 일실시예에 따른 커뮤니케이션 모듈(120A)은 런타임 동안 제1 사용자 컴퓨팅 시스템 (102A) 상에서 비디오 게임을 하는 제1 플레이어로부터 사용자 입력을 수신할 수 있다. 이에 응답하여, 커뮤니케이션 모듈(120A)은 제1 플레이어가 제2 사용자 커뮤니케이션 시스템(102B) 상에서 비디오 게임을 하고 있는 제2 플레이어에게 어떤 커뮤니케이션을 전송하기를 원하는지를 동적으로 결정하기 위하여, 게임의 상황(context)을 사용할 수 있다. 커뮤니케이션 모듈(120C)에 의해 선택적으로 촉진되는 커뮤니케이션 모듈(120A)은 커뮤니케이션 모듈(120B)이 제2 플레이어를 위해 액션하도록 네트워크(108)를 통해 커뮤니케이션 액션들을 전송할 수 있다. 커뮤니케이션 모듈(120B)은 상황에 따라 결정된 커뮤니케이션 액션을 실행할 수 있다. 실시예에 따를 때, 커뮤니케이션 기능은 커뮤니케이션 모듈들(120A, 120B, 120C) 중 어느 하나 또는 임의의 조합에 의해 구현될 수 있다. 커뮤니케이션 모듈들(120A, 120B, 120C)의 동작의 다양한 측면들(aspects)은 이하에서 상술한다.
상황에 따라 결정된 커뮤니케이션 액션 및/또는 상황에 따라 결정된 커뮤니케이션 액션의 식별은 네트워크(108)를 통해 다른 플레이어들에게 전송될 수 있다. 상황에 따라 결정된 커뮤니케이션 액션의 식별이 제1 사용자 컴퓨팅 시스템(102A) 및/또는 서버 컴퓨팅 시스템(130)으로부터 제2 사용자 컴퓨팅 시스템(102B)으로 전송되면, 제2 사용자 컴퓨팅 시스템(102B)은 로컬에 저장된 임의의 오디오 또는 시각적 컨텐츠에 액세스하고, 이를 전송 대상으로 식별된 제2 플레이어에게 전달(communicate)할 수 있다. 상황에 따라 결정된 커뮤니케이션 액션의 오디오 및/또는 비디오 데이터가 제1 사용자 컴퓨팅 시스템(102A) 및/또는 서버 컴퓨팅 시스템(130)으로부터 제2 사용자 컴퓨팅 시스템(102B)으로 네트워크(108)를 통해 전송되면, 제2 사용자 컴퓨팅 시스템(102B)은 오디오 및/또는 비디오 데이터를 수신하여 제2 플레이어에게 전달할 수 있다.
네트워크
네트워크(108)는 임의의 유형의 통신 네트워크를 포함할 수 있다. 예를 들어, 네트워크(108)는 하나 또는 그 이상의 광역 네트워크(WAN), 근거리 네트워크(LAN), 셀룰러 네트워크, 애드혹 네트워크(ad-hoc network), 위성 네트워크, 유선 네트워크, 무선 네트워크 등을 포함할 수 있다. 일실시예에 따른 네트워크(108)는 인터넷을 포함할 수 있다.
프로세스 예
도 2는 일실시예에 따른 상황 인식 커뮤니케이션 액션을 선택, 전송 및 수행하기 위한 프로세스(200)의 예시적인 흐름도를 도시한다. 도 2를 참조할 때, 커뮤니케이션 액션은 플레이어가 주시하고 있는 목표 위치에 근접한 인-게임 유닛들의 유형들의 우선 순위에 적어도 부분적으로 기초하여 결정될 수 있다. 프로세스(200)는 실시간으로 수행될 수 있고, 플레이어들이 직접 자연스럽게 소통하는 것 같이 커뮤니케이션 액션이 수행될 수 있다.
블록(201)에서, 사용자 입력은 상황 인식 커뮤니케이션을 전송하려는 의도를 표시하는 제1 플레이어로부터 수신될 수 있다. 예를 들어, 사용자는 상황 인식 커뮤니케이션을 보내려고 할 때마다 컨트롤러의 버튼, 키보드의 키, 마우스의 버튼, 터치 스크린의 일부의 탭 등을 누를 수 있다. 사용자 입력에 응답하여, 시스템은 실시간 응답으로 블록들(203-239) 각각에 기술된 바와 같이 게임의 현재 상황에 기초하여 상황 인식 커뮤니케이션 액션을 결정하고, 이를 다른 플레이어들에게 수행할 수 있다. 동일한 사용자 입력(예를 들어, 동일한 버튼 또는 동일한 키를 누름)은 제1 플레이어에 의해 후속하여 다시 수신되어, 게임의 후속 상황들에 기초하여 다양한 후속 커뮤니케이션 액션들을 결정하고 수행할 수 있다.
블록(202)에서, 게임 상태 데이터가 획득될 수 있다. 게임 상태 데이터로부터 도출된 상황은 제1 플레이어가 수행하고자 하는 커뮤니케이션 액션을 추론하거나, 결정하거나 또는 선택하는데 사용될 수 있다. 게임 상태 데이터는, 제1 플레이어가 주시하고 있는 목표 위치(205), 목표 위치에 근접한 유닛들(207), 목표 위치에 근접한 유닛들의 유형들(209), 유닛들과 목표 위치 간 거리들(211), 제1 플레이어에 의해 제어되어 커뮤니케이션 액션을 수행하는 캐릭터(213), 게임 내 최근 이벤트들(215), 캐릭터들과 목표 위치 간 거리들(217), 이전 커뮤니케이션 액션들(219), 및/또는 기타 상황 유추에 유용한 게임 상태 데이터(221)를 포함할 수 있다.
블록(203)에서, 게임 데이터가 획득될 수 있다. 게임 데이터에는 수행할 커뮤니케이션 액션을 결정하기 위하여 게임 상태 데이터를 사용하는 방법에 대한 명령어들을 포함할 수 있다. 게임 데이터는 유닛 유형들의 우선순위들(223), 다양한 유닛 형들과 관련된 커뮤니케이션 액션들(225), 및 기타 커뮤니케이션 액션 유추에 유용한 게임 데이터(227)를 포함할 수 있다.
블록(230)에서, 게임 상태 데이터 및 게임 데이터는 인-게임 유닛 또는 위치를 통신 대상으로 결정하기 위해 사용될 수 있다. 예를 들어, 게임 상태 데이터는 플레이어가 주시하고 있는 위치 및 그 위치에 근접한 유닛들을 결정하기 위해 사용될 수 있다. 우선 순위가 가장 높은 유닛이 통신 대상 유닛으로 선택될 수 있다. 이에 대한 실시예들 및 세부 사항들은 도 4, 도 5a 및 도 5b와 관련하여 이하에서 상술한다.
블록(231)에서, 커뮤니케이션 액션들이 저장된 데이터베이스가 액세스 될 수 있다. 데이터베이스는 다른 플레이어들에게 오디오 또는 시각적 커뮤니케이션들을 보내는 것 등의 제1 플레이어가 수행하고자 하는 커뮤니케이션 액션들과 유닛 유형들 간의 연결 관계(associations)들을 포함한다. 일실시예에 따른 유닛 유형들과 관련된 시각적 및 청각적 커뮤니케이션 액션들 및 관련된 유닛 유형들을 보여주는 데이터베이스는 이하에서 도 3a 및 도 3b와 관련하여 상술한다. 일실시예에서는 이해를 돕기 위해 관계들을 표시하기 위하여 데이터베이스가 사용되지만, 관계들은 코드, 키와 값의 쌍들, 객체들 및 속성들 등 임의의 유형의 데이터를 사용하여 표시될 수 있다.
블록(233)에서, 통신 대상 유닛의 유형과 관련된 하나 또는 그 이상의 커뮤니케이션 액션들이 데이터베이스에 표시된 연결 관계에 따라 선택된다. 커뮤니케이션 액션들은 이미지들, 아이콘들, 마커들, 애니메이션들, 텍스트들, 색상들, 심볼들 등과 같은 시각적 표시들을 표시하는 것(displaying)을 포함할 수 있다. 커뮤니케이션 액션들은 오디오를 재생하는 것도 포함할 수 있다.
도 7에서 상술하겠으나, 예를 들어 적 유닛 유형(209)이 목표 위치(205)에 근접한 경우, 십자선(crosshair) 또는 다른 마커가 목표 위치에 표시될 수 있고, "적군을 발견했습니다."이라는 메시지가 다른 플레이어들에게 공지될 수 있다. 도 5a, 도 5b, 도 9, 도 10, 도 13a, 도 13b, 도 14a 및 도 14b에서 상술하겠으나, 예를 들어 아이템 유닛 유형(209)이 목표 위치(205) 근접한 경우, 아이콘이 아이템 위에 표시될 수 있고, 아이템의 발견은 다른 플레이어들에게 청각적으로 공지될 수 있다. 도 11a, 도 11b, 도 12a 및 도 12B에서 상술하겠으나, 예를 들어 목표 위치 근처에 유닛이 없다면, 목표 위치 자체는 목적지로서 표시될 수 있고, 다른 플레이어들에게 목표 위치를 향하여 이동하도록 청각적으로 제안될 수 있다.
일실시예에 따른 프로세스(200)는 게임이 플레이되는 동안 게임 상태가 동적으로 진행됨에 따라 플레이어가 수행할 상황에 따른 커뮤니케이션 액션들을 결정하기 위해 블록들(230-233)을 연속적으로 수행함으로써 게임 엔진이 시작되도록 변경될 수 있다. 상황에 따른 커뮤니케이션을 전송하기 위한 사용자 입력이 수신될 때마다, 블록(233)은 앞으로 진행될 수 있고, 선택된 커뮤니케이션 액션은 블록들(235-239)과 관련하여 상술한 바와 같이 커스터마이징(customizing, 또는 사용자 정의)되고, 수행될 수 있다.
블록(235)에서, 선택적으로 커뮤니케이션 액션들은 게임 상태 데이터(203)에 기초하여 보다 구체적으로 커스터마이징 될 수 있다. 예를 들어, 특정 오디오는 말하는 대상 캐릭터(217)에 따라 다른 음성 및 다른 단어 선택을 반영하여 선택될 수 있다. 다른 예로서, 커뮤니케이션 액션들은 도 8에 도시된 바와 같이 이벤트가 얼마나 최근에 발생했는지를 지시하거나 최근 이벤트의 발생을 지시하는 게임 내 최근 이벤트들(215)에 기초하여 커스터마이징 될 수 있다. 최근 이벤트들의 다른 예로는 문 열기, 아이템 사용, 캐릭터와 환경 간의 최근 상호 작용, 최근 사용한 특정 능력, 최근 수행한 특정 임무, 최근 중립(neutral) 또는 환경의 변화, 발차기, 달리기, 승리, 패배, 상대의 활동 등이 있다. 또 다른 예로서, 캐릭터들과 목표 위치 간 거리들(221)은 시각적으로 표시 및/또는 청각적으로 언급될 수 있는데, 예를 들어 목표 위치가 멀리 떨어져 있는 경우 "서두르자. 꽤 멀어", 대상 위치가 가까워진 경우 “여기로 가자”고 알릴 수 있다. 캐릭터의 커뮤니케이션 액션은 이전 커뮤니케이션 액션들(219)의 시퀀스에 기초하여, 이전 커뮤니케이션 액션을 취소하거나 이전 커뮤니케이션 액션에 답장하는 등의 응답으로 변경될 수 있다. 다른 게임 상태 데이터(221)는 다양한 방식으로 커뮤니케이션 액션들을 커스터마이징하는데 사용될 수 있다. 일실시예에서, 블록(233)에서의 선택 및 블록(235)에서의 커스터마이징은 선택 프로세스(233)의 일부로 병합되고, 같이 수행될 수 있다.
블록(237)에서, 제1 플레이어 컴퓨팅 시스템 및/또는 서버 컴퓨팅 시스템은 다른 컴퓨팅 시스템들로 데이터를 전송하여 커뮤니케이션 액션(들)이 다른 플레이어들에게 전달되게 할 수 있다. 예를 들어, 제2 플레이어의 컴퓨팅 시스템은 "플레이어1이 여기에 가자고 제안했습니다"라는 텍스트를 표시하고, 목표 위치에 마커를 표시하며, 제1 플레이어의 캐릭터의 목소리로 "여기로 가자"라는 단어들을 큰 소리로 읽을 수 있다. 전송된 데이터는 다른 플레이어들에게 전달되기 위해 다른 플레이어들의 컴퓨팅 시스템들 상에 로컬로 저장된 오디오 및/또는 시각적 데이터를 식별할 수 있다. 전송된 데이터는 추가적으로 또는 대안적으로 전달될 실제 오디오 및/또는 시각 데이터를 포함할 수 있다.
블록(239)에서, 커뮤니케이션 액션의 버전이 제1 플레이어에게 표시될 수 있다. 예를 들어, 문자 알림은 제1 플레이어에게 제1 플레이어가 다른 플레이어들에게 특정 커뮤니케이션 액션을 수행했음을 나타낼 수 있다. 다른 예로, “당신은 여기에 가기를 제안했습니다”라는 텍스트가 제1 플레이어에게 표시되고, 시각적 마커는 제1 플레이어가 제안한 목표 위치를 표시할 수 있다.
상황 인식 커뮤니케이션 액션을 선택, 전송 및 수행하기 위한 프로세스(200)는 제1 플레이어가 후속 상황 인식 커뮤니케이션을 전송하려는 의도를 나타내는 사용자 입력을 제공할 때 후속적으로 다시 개시될 수 있다. 동일한 버튼의 누르기와 같은 동일한 사용자 입력이 사용자 입력으로 수신될 수 있다. 이에 응답하여, 이전 커뮤니케이션 액션과 다른 후속 커뮤니케이션 액션은 이전의 게임 상태와 상이할 수 있는 후속 게임 상태에 기초하여 결정될 수 있다. 그런 다음 후속 커뮤니케이션 액션은 다른 플레이어들에게 전달될 수 있다.
유닛 유형에 대한 커뮤니케이션 액션의 예
도 3a 및 도 3b는 일실시예에 따른 유닛들의 우선 순위 계층 및 관련 커뮤니케이션 액션을 나타내는 테이블을 도시한다. 도 3a 및 도 3b를 참조할 때, 유닛 유형들과 커뮤니케이션 액션들 간의 연결 관계들은 코드, 데이터베이스, 객체의 속성 또는 기타 유형의 구조로 설정될 수 있다. 테이블들(300, 350)은 우선 순위 계층(301), 각각의 우선 순위 계층에 포함된 유닛 유형들의 종류(303), 각 우선 순위 계층에 포함된 유닛 유형(305)의 예, 각 유닛 유형과 관련된 시각적 액션(309) 및 오디오(311)를 포함하는 커뮤니케이션 액션(307), 각 유닛 유형과 관련된 목표위치로부터의 임계 거리(313), 시각적 액션의 사용자 정의(315), 및 오디오 액션의 사용자 정의(317)를 포함한다. 도 3a 및 도 3b에 도시된 연결 관계들은 예를 들어, 도 2의 블록(230), 블록(231), 블록(233) 및 블록(235)을 수행하기 위해 사용될 수 있다.
우선 순위
도 3a 및 도 3b를 참조할 때, 우선 순위 계층(301)은 1에서 6까지의 범위에 해당하며, 1이 가장 높은 우선 순위, 6이 가장 낮은 또는 기본 우선 순위이다. 실시예에 따를 때, 다른 우선 순위 시스템들은 더 많거나 더 적은 우선 순위 계층들이 사용될 수 있다. 우선 순위 계층(301)은 플레이어가 가장 통신하고 싶어하는 것을 순위화한 것이다. 플레이어가 근처에 서로 다른 계층의 복수의 유닛들을 포함하는 목표 위치를 주시하고 있다면, 플레이어는 가장 높은 우선 순위 계층에 있는 유형의 유닛과 통신하기를 원할 것으로 추론될 수 있다. 커뮤니케이션 액션(307)은 시각적 액션(309) 또는 오디오 액션(311) 중 적어도 하나를 포함할 수 있다.
우선 순위의 종류(303)는 예를 들어, 플레이어가 게임에서 다른 유닛과 통신하는 것보다 팀을 위해 위험한 유닛들을 발견하는 것을 우선 순위로 할 가능성이 높으므로, 위험 유닛 종류는 우선 순위 계층 1에 할당될 수 있다. 위험 유닛은 적군 캐릭터, 폭발물, 덫 등의 유닛 유형을 포함할 수 있다. 발자국, 탄환, 쓰러진 캐릭터, 피 및 기타 전투의 증거 등의 최근 액션은 다음 우선 순위 계층 2에 해당될 수 있다. 도 3a에 도시된 테이블의 열(309)에 기술된 시각적 액션과 같이 플레이어가 다른 플레이어들에게 전달하는 시각적 마커는 우선 순위 계층 3에 해당할 수 있다. 포털(portals), 문, 사다리, 운송수단, 아이템 컨테이너, NPC(Non-Player Characters) 등의 중립적인 상호작용 유닛은 우선 순위 계층 4에 해당할 수 있다. 무기, 탄약, 체력, 방패, 에너지, 갑옷, 업그레이드 등의 픽업 아이템은 다음 우선 순위 계층 5에 해당할 수 있다. 마지막 또는 기본 우선 순위 계층에는 영토로 이동하기, 아이템 컨테이너 열기, 캐릭터 스킬 사용 등이 포함될 수 있다.
도 3a 및 도 3b에 기재된 우선 순위 계층(301) 및 종류(303)는 하나의 예시일 뿐, 이에 제한되는 것은 아니다. 다른 실시예에서, 유닛 유형들의 우선 순위 계층은 상이할 수 있다. 일실시예에 따르면, 다른 유닛 유형들은 최근 유닛, 이동 유닛, 고정 유닛, 상호작용 유닛, 비활성 유닛, 구조물, 다양한 클래스의 아이템 및 객체 등을 포함할 수 있다.
시각적 커뮤니케이션 액션들
게임 데이터는 통신 대상이 될 수 있는 각각의 유닛의 유형(305)에 대한 하나 또는 그 이상의 시각적 커뮤니케이션 액션(309)들을 지시할 수 있다. 제 1 유형의 유닛이 통신 대상으로 선택된 경우, 제1 유형의 시각적 커뮤니케이션 액션이 수행될 수 있다. 제2 유형의 유닛이 통신 대상으로 선택된 경우, 제2 유형의 시각적 커뮤니케이션 액션이 수행될 수 있다.
예를 들어, 통신 대상 유닛의 위치에 마커 또는 아이콘이 표시될 수 있다. 경우에 따라, 아이콘은 적군에 대한 십자선 아이콘 표시, 폭발물에 대한 폭발 아이콘, 덫에 대한 덫 아이콘, 기타 통신 대상의 유닛을 상징하는 기타 아이콘 등의 유닛 유형을 구별하기 위해 사용자 정의(customize, 또는 커스터마이징)될 수 있다. 문, 사다리 및 아이템 컨테이너 등의 일부 유닛들에 대한 시각적 액션은 유닛의 윤곽 표시 및/또는 강조 표시가 포함될 수 있다. 아이템의 경우, 아이템의 유형, 양 및 질에 기초하여 아이템의 위치에 특정 크기 또는 색상의 아이콘이 표시될 수 있다.
일부 시각적 액션들은 위치에 표준 마커 또는 아이콘을 표시하는 것을 포함할 수 있다. 일부 시각적 액션들은 각 캐릭터와 통신 대상 유닛 또는 위치 사이의 거리를 표시하는 것을 포함할 수 있고, 각 캐릭터에 의해 보이거나 들리는 거리는 각각의 캐릭터와 유닛 또는 위치 사이의 거리에 따라 특정될 수 있다. 예를 들어, 제1 플레이어가 팀을 위한 목표 위치에 가려는 경우, 가상 환경에서 목표 위치 및 제1 플레이어의 캐릭터로부터 목표 위치까지의 제1 거리를 지시하는 제1 마커가 제1 플레이어에게 표시될 수 있고, 가상 환경에서 목표 위치 및 제2 플레이어의 캐릭터로부터 목표 위치까지의 제2 거리를 지시하는 제2 마커가 제2 플레이어에게 표시될 수 있다.
플레이어에 의해 주시되고 있는 영역 근처에 특정 유닛이 없다면, 가상 환경 내의 목표 위치에서 영토 위치에 대한 마커가 표시될 수 있다. 마커는 가상 환경 내에서 보이는 통신 대상 유닛 위에 표시될 수 있고, 추가적으로 또는 대아적으로 미니맵 또는 기타 가상 환경의 대안적인 표시 위에 추가적으로 또는 대안적으로 표시될 수도 있다. 데이터베이스(300) 또는 다른 자료 구조는 각각의 유형의 목표 유닛들(305)에 표시되기 위한 복수의 시각적 표시들(309)을 포함할 수 있다.
시각적 액션은 게임 상태에 기초하여 선택적으로 더 커스터마이징될 수 있다. 시각적 액션은 유닛 유형, 양, 질, 최근 액션 등을 표시하는 크기, 색상 또는 아이콘 등을 변경함으로써, 커스터마이징될 수 있다. 예를 들어, 적군 캐릭터를 위해 만들어진 마커는 플레이어가 주시하고 있는 목표 위치에 정적으로 배치되거나, 목표 위치에 근접한 적군 캐릭터의 위치에 정적으로 배치되거나, 가상 환경에서의 적군 캐릭터의 이동에 따라 적군 캐릭터의 위치를 동적으로 움직이며 표시될 수 있다. 아이콘들은 게임 상태에 따라 동적으로 변경될 수 있는데, 예를 들어 게임에서 최근에 발생한 일을 표시하기 위하여 페이딩 또는 카운트 다운하는 방법으로 아이콘들이 동적으로 변경될 수 있다. 페이딩 및 아이콘을 변경하는 예시들은 도 8에 도시되어 있다. 다른 예는 열린 문 및 닫힌 문을 다른 아이콘으로 보여주는 것을 포함한다. 또 다른 예는 열지 않은 컨테이너의 윤곽을 표시하는 것, 플레이어의 팀 내의 다른 플레이어에 의해 열린 컨테이너들은 표시하지 않는 것 및 다른 팀의 플레이어에 의해 열린 컨테이너들을 표시하는 것을 포함한다. 또 다른 예는 커뮤니케이션 액션을 만든 플레이어 또는 캐릭터에 아이콘을 표시하는 것을 포함한다. 또 다른 예는 게임 플레이의 특정 부분에서 팀의 리더가 커뮤니케이션 액션을 생성한 경우, 팀 리더를 포함하는 위치 아이콘을 표시하는 것을 포함한다. 또 다른 예는 캐릭터가 나는 경우, 걷는 경우와 다른 아이콘을 표시하는 것을 포함한다. 시각적 아이콘은 플레이어의 컴퓨팅 시스템의 게임 데이터에 이미지 데이터로 저장될 수 있으며, 커뮤니케이션 액션이 표시하기 위해 탐색될 수 있다.
커스터마이징의 또 다른 예는 플레이어의 캐릭터 또는 최근에 공격을 수행한 적군 캐릭터의 접근에 대한 응답 등의 긴급 신호를 다른 시각적 표시를 사용하여 표시하는 것을 포함한다. 또 다른 예는 플레이어의 캐릭터와 표시된 위치 간의 거리가 동적으로 변하는 등의 경우에 거리들을 나타내기 위해 서로 다른 시각적 표시를 사용하는 것이 포함된다. 또 다른 예는 크기를 늘리거나 더욱 긴급함을 나타내기 위하여 시각적 표시를 움직이는 등 커뮤니케이션이 반복되어 생성되는 경우 다른 시각적 표시들을 사용하는 것을 포함한다.
시각적 표시(309)는 반복했거나 응답했을 때 시각적 표시를 변경함으로써 이전의 커뮤니케이션 액션에 기초하여 커스터마이징될 수 있다. 예를 들어, 목표 위치와 처음으로 통신할 때, 목표 위치에 제1 크기 및 제1 색상의 마커가 다른 플레이어들에게 표시될 수 있고, 동일한 캐릭터가 동일한 목표 위치에 대해 곧바로 두 번째의 통신을 할 때, 마커의 크기가 늘어나거나 색상이 변경되어 표시될 수 있다. 다른 예로, 제1 플레이어의 시각적 위치 마커는 깜빡이는 불빛을 적용하고, 확인 커뮤니케이션을 생성한 다른 플레이어들의 이름을 나열하도록 업데이트될 수 있다.
데이터베이스(300)는 유형의 목표 유닛(305)들의 유형들에 대한 복수의 시각적 액션의 사용자 정의(315) 옵션들을 포함할 수 있다. 도 3a 및 도 3b는 제한된 수의 시각적 액션의 예를 도시하지만, 다른 실시예에서 게임 상태에 기초하여 임의의 유형의 사용자 정의 옵션을 가진 임의의 수의 시각적 액션들은 임의의 순서의 우선 순위 계층들을 갖는 임의의 유형의 인-게임 유닛과 통신하는데 사용될 수 있다.
시각적 유닛들의 구현
다른 플레이어들에게 표시되는 시각적 마커 또는 아이콘은 비디오 게임 내 인터페이스 유닛으로써 생성될 수 있다. 이러한 인터페이스 유닛들은 고유한 속성들을 가지며 다른 유형의 인-게임 유닛들과 다르게 작동할 수 있다.
예를 들어, 인터페이스 유닛들은 다른 팀의 플레이어들에게는 보이지 않고 커뮤니케이션을 생성하거나 받는 특정 팀의 플레이어들에게 보일 수 있다. 도 10에서 상술한 바와 같이, 인터페이스 유닛은 동시에 인터페이스 유닛을 바라보는 각각의 플레이어를 마주 보는 것처럼 나타나도록 구성될 수 있다. 인터페이스 유닛은 다른 유닛들과 겹치거나 충돌하지 않을 수 있다.
인터페이스 유닛들은 정해진 수명을 갖도록 생성될 수 있으며, 정해진 수명이 다한 후에 인터페이스 유닛은 사라질 수 있다. 일실시예에서, 정해진 수명은 하나 또는 그 이상의 플레이어들이 승인 또는 확인의 커뮤니케이션 액션을 전송하는 것에 응답하여 연장될 수 있다. 일부 인터페이스 유닛들은 이하 도 9에서 상술한 바와 같이 선입선출(FIFO; first-in-first-out) 큐(queue)에 기초하여 제거될 수 있다. 일부 인터페이스 유닛들은 인터페이스 유닛을 사용하는 커뮤니케이션을 생성한 플레이어에 의해 취소될 수 있다. 위치를 제안하는 마커와 같은 일부 인터페이스 유닛들은 위치 마커를 생성한 플레이어가 후속적으로 대안적인 위치를 제안하는 것에 응답하여 취소될 수 있다. 위치 마커와 같은 일부 인터페이스 유닛들은 플레이어의 인-게임 캐릭터가 위치에 도달하면 사라지도록 구성될 수 있다. 일부 인터페이스 유닛들은 다른 플레이어들의 반응형 커뮤니케이션들에 기초하여 시각적으로 수정될 수 있다.
인터페이스 유닛들은 도 15에 도시된 바와 같이, 플레이어의 관점에서 볼 때 중간에 끼어있는 불투명한 객체 위에 시각적으로 노출될 수 있다. 인터페이스 유닛은 마킹된 유닛의 상태에 기초하여 사라지도록 구성될 수 있다. 예를 들어, 아이템을 표시하는 시각적 아이콘은 아이템이 획득된 경우 사라질 수 있고, 적군을 표시하는 시각적 아이콘은 적군을 물리친 경우 사라질 수 있다. 인터페이스 유닛은 도 14a 및 도 14b에서 상술한 바와 같이, 플레이어에 의해 주시된 영역과 관련된 인터페이스 유닛의 위치에 기초하여, 크기 또는 세부 정보 등의 외관이 변하도록 구성될 수 있다.
오디오 커뮤니케이션 액션들
게임 데이터는 통신 대상이 될 수 있는 각각의 유형의 유닛(305)에 대한 하나 또는 그 이상의 오디오 커뮤니케이션 액션(311)들을 지시할 수 있다. 오디오는 "핑" 사운드, 다양한 노이즈, 음성 대사, 음향 효과, 음악 등을 포함할 수 있다. 제1 유형의 유닛이 통신 대상으로 선택된 경우, 제1 오디오 커뮤니케이션 액션이 수행될 수 있다. 제2 유형의 유닛이 통신 대상으로 선택된 경우, 제2 유형의 오디오 커뮤니케이션 액션이 수행될 수 있다. 오디오 대사(311)들은 플레이어가 커뮤니케이션 액션을 수행하고자 할 때에 주시하는 대상에 기초하여, 인-게임 캐릭터에 의해 발화되거나 공지될 수 있다.
예를 들어, 플레이어가 커뮤니케이션을 생성하고자 할 때, 적군 캐릭터가 목표 위치의 제1 자동 조준(auto aim) 거리 내에 있거나 목표 위치에 근접한 경우, 인-게임 캐릭터는 팀에게 "적이 여기에 있습니다", 적을 발견했습니다.”, “적을 조심하십시오.” 또는 캐릭터마다 다양할 수 있는 기타 유사한 문장을 발화하여 알릴 수 있다.
일부 커뮤니케이션의 경우, 통신 대상이 되는 특정 명칭 또는 유형의 유닛이 공지될 수 있다. 예를 들어, 플레이어가 커뮤니케이션을 생성하려고 할 때 플레이어의 캐릭터가 샷건을 보고 있는 경우, 플레이어의 캐릭터는 “샷건이 여기 있습니다.”라고 말할 수 있다. 예를 들어, 플레이어가 커뮤니케이션을 생성하려고 할 때, 플레이어의 캐릭터가 기관총을 보고 있는 경우, 플레이어의 캐릭터는 "기관총이 여기 있습니다."라고 말할 수 있다. 예를 들어, 플레이어가 커뮤니케이션을 생성하려고 할 때, 플레이어의 캐릭터가 방탄복을 보고 있는 경우, 플레이어의 캐릭터는 "레벨 1의 방탄복이 여기 있습니다."라고 말할 수 있다. 예를 들어, 플레이어가 커뮤니케이션을 생성하려고 할 때, 플레이어의 캐릭터가 업그레이드된 방탄복을 보고 있는 경우, 플레이어의 캐릭터는 "레벨 3의 방탄복이 여기 있습니다."라고 말할 수 있다. 기본적으로 플레이어의 유닛이 언급될 수 있는 유닛 근처의 목표 위치를 주시하고 있지 않으면, 플레이어의 캐릭터는 "여기로 가자"라고 말할 수 있다.
데이터베이스는 플레이어가 주시하고 있는 것과 통신하고자 할 때 수행하는 임의의 수의 오디오 커뮤니케이션 액션들을 지시할 수 있다. 예시적인 문구들은 제한적이지 않으며, 유사한 메시지를 전달할 수 있는 다른 문구들이 이용될 수 있다. 오디오는 플레이어의 로컬 컴퓨팅 시스템의 게임 데이터에 데이터로 저장될 수 있으며, 커뮤니케이션 액션을 위해 검색될 수 있다.
오디오는 게임 상태에 기초하여 다양한 방식으로 커스터마이징 될 수 있다. 오디오 대사를 읽는 음성은 발화하는 인-게임 캐릭터에 따라 달라질 수 있다. 발화되는 문구들은 인-게임 캐릭터의 말하는 스타일에 따라 달라질 수 있다. 음성 오디오는 주시되고 있는 유닛의 이름 또는 속성을 식별할 수 있다. 일부 캐릭터들은 보다 상세하거나 덜 상세한 정보를 제공할 수 있다. 예를 들어, 제1 캐릭터는 같은 총에 대해 말하는 제2 캐릭터와 비교할 때, 어떤 총이 찾기가 더 쉬운지 또는 더 어려운지 등 총에 대하여 더 상세한 내용을 말할 수 있다. 대신 제2 캐릭터는 갑옷을 전문으로 할 수 있고, 갑옷에 대해 더 상세한 내용을 공지할 수 있다.
오디오는 더 긴급하게 말하는 것, 더 빨리 말하는 것, 목소리의 높이를 변경하는 것, 강조를 변경하는 것, 및/또는 적에 대해 말하거나, 발화하는 플레이어의 캐릭터가 최근에 적군 유닛의 공격을 받았거나, 건강 상태가 좋지 않은 경우 등의 특정 상황들에 따라 다른 단어들을 사용하는 것에 의해 변경될 수 있다. 예를 들어, 플레이어가 적군을 주시하고 있는 경우, 플레이어의 캐릭터는 “적군이 여기 있습니다.”라고 말할 수 있지만, 최근에 플레이어가 적군에게 공격을 받은 경우, 플레이어는 “적군에게 발포하십시오”라고 말할 수 있다.
캐릭터는 제안된 목적지가 하나 또는 그 이상의 팀원들로부터 임계 거리보다 멀리 있는 경우 또는 상황 인식 커뮤니케이션을 전송할 때 특정 위치에 도달하기 위한 시간이 제한되어 있는 경우, "서두르자 - 우리는 움직여야 한다!"라고 말하거나, 다른 변형으로 "여기로 가자"라고 말함으로써, 제안된 목적지에 대한 발화를 다르게 변경할 수 있다. 다른 예로, 목표 위치에 근접한 적군이 하나 또는 그 이상의 팀원들로부터 임계 거리보다 멀리 있는 경우, "원거리에서 적을 발견했습니다."라고 말하거나, 다른 변형으로 "적을 발견했습니다"라고 말함으로써, 적에 대한 발화를 다르게 변경할 수 있다.
데이터베이스(300)는 목표 유닛(305)들의 유형들에 대한 복수의 오디오 액션의 사용자 정의 옵션들을 포함할 수 있다. 도 3a 및 도 3b는 제한된 수의 오디오 액션들의 예를 도시하지만, 다른 실시예에서 게임 상태에 기초하여 임의의 유형의 사용자 정의 옵션을 가진 임의의 수의 오디오 액션들은 임의의 순서의 우선 순위 계층들을 갖는 임의의 유형의 인-게임 유닛과 통신하는데 사용될 수 있다. 예를 들어, 오디오 커뮤니케이션 액션들은 목표 유닛을 식별하는 것, 목표 유닛의 이름을 알리는 것, 목표 유닛까지의 거리를 알리는 것, 목표 유닛에 대하여 수행할 액션을 알리는 것, 목표 유닛이 방금 한 것을 알리는 것, 목표 유닛의 상태 또는 속성을 알리는 것, 목표 유닛이 사용되거나 설계된 것을 알리는 것 등을 포함할 수 있다.
다른 커뮤니케이션 액션의 세부 사항
도 3a 또는 도 3b에는 별도로 도시되지 않았지만, 제1 플레이어가 각각의 유닛 유형을 주시하고 있으며 통신하고자 할 때, 다른 텍스트 통지가 추가적으로 또는 대안적으로 다른 플레이어에게 시각적으로 표시될 수 있다. 텍스트 커뮤니케이션은 소리내어 재생되지 않고 텍스트로 표시된다는 점을 제외하고, 오디오 커뮤니케이션과 동일하거나 유사할 수 있다. 예를 들어, 제1 플레이어가 먼 위치를 주시하고 있고, 통신하기 위해 버튼을 누르는 경우, 제1 플레이어와 제2 플레이어의 화면에 마커가 표시될 수 있고, 제1 플레이어가 제어하는 제1 캐릭터는 제1 플레이어 및 제2 플레이어에게 "여기로 가자"라고 발화하여 알릴 수 있으며, 제1 플레이어 및 제2 플레이어의 스크린에 "플레이어 1이 위치를 제안했습니다."라는 텍스트 메시지가 나타날 수 있다.
도 3a 또는 도 3b의 정적인 도면에는 개별적으로 도시되지 않았지만, 시각적 커뮤니케이션은 또한 상이한 유닛 유형에 대한 상이한 동적 애니메이션들을 포함할 수 있다. 커뮤니케이션 액션(307)들은 반복될 때 변경함으로써 이전의 커뮤니케이션 액션에 기초할 수 있다. 예를 들어, 목표 위치와 처음으로 통신할 때, 캐릭터는 "여기에 가자"라고 말할 수 있고, 동일한 캐릭터가 곧바로 동일한 목표 위치와의 두번째 통신을 할 때, 캐릭터는 더 긴급하게 "지금 이동하자!"라고 말할 수 있다. 또 다른 예로, 적과 처음으로 통신할 때 캐릭터는 "적을 발견했습니다"라고 말할 수 있으며, 동일한 캐릭터가 곧바로 동일한 목표 위치와의 두번째 통신을 할 때, 캐릭터는 "적에게 불을 지르십시오!”라고 소리칠 수 있다.
게임 내에서 다른 캐릭터들에 대해 다른 커뮤니케이션 액션이 이용 가능할 수 있다. 일실시예에 따른 게임에서, 플레이어가 목표물 추적 능력을 가진 특정 캐릭터를 선택한 경우에만 플레이어는 발자국을 보고 발자국에 대해 통신할 수 있고, 다른 캐릭터로 플레이하는 플레이어는 발자국을 보거나 발자국에 대해 통신할 수 없을 수 있다. 일부 플레이어들은 다른 음성 대사를 잠금 해제하거나 사용자 정의할 수 있다. 예를 들어, 플레이어는 인-게임 메뉴에서 옵션을 선택하여 "여기로 가자"에서 "여기로 이동해라"로 음성 대사를 변경할 수 있다. 마찬가지로 플레이어들 다양한 시각적 커뮤니케이션 액션들을 잠금 해제하거나 사용자 정의할 수 있다.
임계 거리
도 3a는 또한 목표 위치로의 임계 거리들과 유닛 유형들 간의 연결 관계들을 도시한다. 도 2, 도 4, 도 5a 및 도 5b에서 상술한 바와 같이, 목표 위치, 우선 순위 계층 및 임계 거리는 플레이어가 어떤 유닛을 주시하고 있고, 어떤 유닛과 통신하고 싶은지를 결정하는데 사용될 수 있다. 도 3a에 도시된 테이블 내의 임계 거리 열(313)은 다양한 유닛의 유형(305)들에 대한 상이한 임계 거리를 나타낸다. 유닛이 목표 위치로부터 임계 거리(313)를 넘으면, 플레이어는 그 유닛을 통신 대상으로 고려하지 않는 것으로 결정될 수 있다. 각 유닛 유형에 대한 목표 위치로부터 임계 거리 내에 있는 유닛들 중에서, 플레이어는 목표 위치에서 가장 가까우며, 우선 순위가 가장 높은 유닛과 통신하고자 하는 것으로 결정될 수 있다. 임계 거리는 미터, 픽셀, 가상 환경에서 사용되는 거리 단위, 2D 타일, 3D 블록 등의 임의의 측정 단위일 수 있다.
임계 거리(313)는 상이한 유닛 유형들에 따라 달라질 수 있다. 예를 들어, 제1 유닛 유형의 유닛은 그 유닛이 플레이어가 주시하고 있는 목표 위치로부터 제1 임계 거리 내에 있으면 통신 대상으로 고려될 수 있고, 제2 유닛 타입의 제2 유닛은 그 유닛이 플레이어가 주시하고 있는 목표 위치로부터 제2 임계 거리 내에 있으면 통신 대상으로 고려될 수 있다. 일부 유닛 유형들에 대한 일부 거리들은 0일 수 있다. 예를 들어, 해당 임계 거리 내에 있는 유닛이 없는 경우, 플레이어는 플레이어가 주시하고 있는 목표 위치로부터 거리가 0인 위치를 대상으로 통신하기를 원하는 것으로 결정될 수 있다. 플레이어는 히트 박스(hitbox)가 플레이어가 주시하고 있는 목표 위치와 겹치는 특정 유형의 유닛을 대상으로 통신하기를 원하는 것으로 결정될 수 있다. 일실시예에 따를 때, 더 적은 수의 임계 거리가 사용될 수 있으며, 단일 임계 거리가 모든 유형의 유닛들에 대해 사용될 수도 있다.
일부 임계 거리들은 자동 조준 거리로 설정될 수 있다. 예를 들어, 비디오 게임은 목표물이 현재 또는 최근에 수동 조준 위치로부터 임계 거리 내에 있(었)다면, 무기 또는 발사체의 조준을 자동으로 조준하거나 조준을 향상시키는 자동 조준 기능을 가질 수 있다. 일부 게임에서, 자동 조준 거리는 캐릭터가 무기를 변경하는 경우 등과 같이 게임 플레이 중에 동적으로 변경될 수 있다. 커뮤니케이션을 위한 임계 거리들의 예로, 플레이어는 자동 조준 중인 적군 유닛에 대해 통신하기를 원하는 것으로 결정될 수 있다.
도 3a 및 도 3b에 도시된 예는 단지 예시적인 것으로 실시예를 제한하는 것은 아니다. 비디오 게임에서 임의의 수 또는 순서를 갖는 우선 순위 계층, 유닛 유형, 시각적 액션들, 오디오 액션들, 커스터마이징 및/또는 임계 거리들이 구현될 수 있습니다. 일부 실시예에서, 활성 유닛들 또는 이동 유닛들에 대한 임계 거리들은 비활성 유닛들 또는 고정 유닛들에 대한 임계 거리들보다 클 수 있다. 일부 실시예에서, 적군들, 이동 유닛들 및/또는 위험 유닛들에 대한 임계 거리는 상대적으로 더 클 수 있다. 일부 실시예에서, 이동 불가능한 아이템 및/또는 영토 위치는 더 짧은 임계 거리를 가질 수 있고/있거나 목표 위치가 아이템의 히트 박스 또는 영토 위치에 적중하도록 요구할 수 있다.
통신 대상 결정
도 4는 일실시예에 따른 통신 대상 유닛을 결정하기 위한 프로세스의 흐름도를 도시한다. 도 4를 참조할 때, 프로세스(400)는 예를 들어, 상술한 도 2의 블록(230) 동안 사용될 수 있다. 프로세스 (400)는 일반적으로 플레이어가 주시하고 있는 위치를 식별하고, 그 영역 내의 임의의 아이템들을 식별하며, 그 아이템들 중 우선 순위가 가장 높은 아이템을 식별한다.
블록(401)에서, 시작점(starting point)이 수신될 수 있다. 시작점은 예를 들어, 커서(cursor), 스크린 내 플레이어의 시야의 중심, 플레이어의 캐릭터에 의해 조준된 무기 또는 아이템 등일 수 있다. 일부 예들은 이하의 도 5a에서 상술한다.
블록(403)에서, 가상 환경을 통해 시작점으로부터 자취(trace) 또는 발사체(projectile)가 생성될 수 있다. 예를 들어, 자취는 플레이어가 주시하는 위치를 결정하기 위하여, 플레이어의 시야 중심으로부터 직선 방향으로 투영될(projected) 수 있다. 다른 예로서, 자취는 플레이어가 주시하고 있는 조준된 위치를 결정하기 위하여, 무기 배럴(barrel)로부터 투영될 수 있다. 대안적으로, 발사체 경로는 무기 배럴로부터 또는 아이템이 던져질 곳으로부터 계산될 수 있다. 발사체 경로는 비선형일 수 있으며 중력, 바람 등의 시뮬레이션 효과를 고려하여 결정될 수 있다.
블록(405)에서, 목표 위치는 자취 또는 발사체 경로의 끝으로 설정될 수 있다. 목표 위치는 플레이어가 주시하고 있는 가상 환경 내의 임의의 위치일 수 있으며, 플레이어가 통신하고자 하는 임의의 위치에 근접한 유닛들을 포함할 수 있다.
일부 경우에, 특히 2D 인터페이스와 함께 사용될 때, 블록(407)은 선택적으로 블록(403, 405) 대신에 시작점을 목표 위치로 설정하는데 사용될 수 있다. 예를 들어, 이하의 도 17에서 상술한 바와 같이, 자취 또는 발사체 없이 커서는 출발점으로 작용할 수도 있고, 목표 위치를 지시할 수도 있다.
블록(408)에서, 목표 위치가 유닛에 적중했는지 여부가 결정될 수 있다. 블록(408)은 선택적으로 목표 위치가 적어도 임계 우선 순위 레벨의 유닛 또는 히트 박스 임계 거리 또는 제로 임계 거리와 관련된 유닛에 적중하는지를 결정할 수 있다. 예를 들어, 블록(408)에서 목표 위치가 우선 순위 레벨이 1 내지 5인 유닛에 적중했는지 여부가 결정될 수 있다. 적중했다면, 블록(408)은 블록(409)으로 진행될 수 있고, 적중하지 않았다면 블록(408)은 블록(410)으로 진행될 수 있다. 블록(411)은 블록(410)에 대한 선택적 대안으로써 사용될 수 있다.
블록(409)에서, 목표 위치에 있는 유닛은 통신 대상 유닛으로 설정될 수 있다.
블록(410)에서, 목표 위치로부터 3D 임계 거리 내에 있는 아이템이 식별될 수 있다. 상이한 유형들의 아이템들 및/또는 상이한 우선 순위들의 아이템들은 이들이 도 3a의 열(313)에 도시된 것과 같이 각각 할당된 임계 거리 내에 있는 경우 식별될 수 있다. 예를 들어, 제1 유형의 아이템들은 목표 위치로부터 제1 임계 거리 내에 있으면 통신 대상으로 고려를 위해 식별될 수 있고, 제2 유형의 아이템들은 목표 위치로부터 제 2 임계 거리 내에 있으면 통신 대상으로 고려를 위해 식별될 수 있다.
블록(415)에서, 각각의 임계 거리 내에 있는 유닛들 중에서, 우선 순위가 가장 높은 유닛이 결정될 수 있다. 상이한 유닛들의 우선 순위는 도 3a에 도시된 바와 같이 본질적으로 또는 명시적으로 할당될 수 있다.
블록(410, 415)들은 다양한 방식으로 결합 및 구현될 수 있고, 때때로 함께 또는 역순으로 결합 및 구현될 수 있다. 일실시예에서, 블록들(410, 415)은 결합될 수 있다. 예를 들어, 목표 위치로부터 각각의 임계 거리 내에 있는 가장 높은 우선 순위의 유닛들에 대해 제1 탐색이 수행될 수 있고, 아무 것도 발견되지 않으면, 적어도 하나의 아이템을 발견할 때까지 목표 위치로부터 각각의 임계 거리 내에 있는 후속 우선 순위의 아이템들에 대해 후속 탐색이 수행될 수 있다. 다른 실시예에서, 모든 아이템들은 먼저 하나 이상의 각각의 임계 거리들 내에서 식별된다. 그런 다음, 식별된 아이템들 중에서, 어느 아이템이 우선 순위가 가장 높은지를 결정하기 위한 제2 검색이 수행될 수 있다.
하나의 유닛이 목표 위치로부터 그들 각각의 임계 거리 내에 있는 다른 유닛들보다 높은 우선 순위를 갖는 것으로 식별되면, 하나의 유닛은 통신 대상 유닛으로 설정될 수 있다.
블록(417)에서, 복수의 유닛들이 식별되고, 식별된 유닛들 중 가장 높은 우선 순위 계층을 갖는 유닛 하나가 존재하지 않는 경우, 하나 또는 그 이상의 타이 브레이커들이 수행될 수 있다. 타이 브레이커의 일례는 어느 유닛이 목표 위치에 가장 가까운지를 결정하는 것을 포함한다. 타이 브레이커의 다른 예는 어느 유닛이 가장 최근에 상호 작용하거나 액션을 수행했는지를 결정하는 것을 포함한다. 타이 브레이커의 또 다른 예는 어느 유닛이 플레이어의 캐릭터에 더 가까운지를 결정하는 것을 포함한다. 블록(417)에서 다른 타이 브레이커 및/또는 타이 브레이커의 임의의 조합이 수행될 수 있다.
블록(410)에 대한 대안으로 블록(411) 및 블록(413)은 2D 구현을 위해 선택적으로 수행될 수 있다. 블록(411)에서, 가상 환경의 2D 뷰가 생성될 수 있다. 일부 메뉴(예를 들어, 도 17에 표시된 메뉴)는 이미 2D로 표시되어 있으며, 블록(411)에 따른 구현에 적합하다. 일부 게임은 블록(411)에서 재사용될 수 있는 2D 뷰에서 플레이된다.
블록(413)에서, 목표 위치로부터 각각의 2D 임계 거리 내에 있는 유닛이 식별될 수 있다.
블록(410) 또는 블록(413)에서, 목표 위치에서 유닛이 식별되지 않는 경우, 가상 환경의 영토 상의 기본 유닛 유형 또는 위치가 통신 대상 유닛으로 사용될 수 있다.
목표 위치 및 임계 거리의 예
도 5a는 일실시예에 따른 목표 위치가 결정될 수 있는 플레이어의 시야에 대한 스크린 샷(500)을 도시한다. 도 5a를 참조할 때, 도면(500)은 플레이어에게 표시되는 게임 내 가상 3D 환경의 1인칭 시점을 도시한다. 도면(500)은 중심(501)을 갖고, 위치(503)를 가리키는 무기(502) 및 커서 팁 위치(505)를 도시한다.
중심(501), 무기(502), 커서(505) 또는 임의의 다른 기준은 도 4의 블록(401)과 관련하여 상술한 시작점으로 사용될 수 있다. 목표 위치는 시작점에서 시작된 자취 또는 발사체의 끝에 해당하는 가상 환경의 임의의 부분일 수 있다. 예를 들어, 목표 위치는 스크린의 중앙으로부터 직선 방향으로 투영된 선형의 자취에 의해 적중된 3D 환경 내 캔버스 상의 위치(501)로 설정될 수 있다. 다른 예로, 목표 위치는 무기(502)에 의해 조준된 캔버스상의 위치(503)로 설정될 수 있다. 조준된 위치는 총알 하강, 바람 또는 다른 효과를 유발하는 중력을 고려한 비선형 발사체 경로로 추적되거나 계산될 수 있다. 다른 예로, 목표 위치는 커서(505)의 끝에 해당하는 캔버스 상의 위치(505)로 설정될 수 있다. 임의의 목표 위치는 플레이어가 통신하고자하는 유닛들 또는 위치들을 결정하기 위해 사용될 수 있다. 플레이어가 게임 내의 다른 목표물들을 주시하기 위하여, 플레이어는 마우스(505)를 제어하고 게임의 3D 환경 내에 있는 인-게임 캐릭터를 이동할 수 있다. 플레이어는 게임 내의 다른 목표물을 주시하기 위하여, 무기(502)를 조준할 수 있으며, 목표 위치는 선택적으로 무기(502)의 반동 및/또는 무기(502)로부터 연장되는 비선형 발사체 경로에 따라 설정될 수 있다.
다른 예는 인-게임 캐릭터가 보고 있는 위치, 발사체(무기에서 발사된 아치형 발사체 경로를 포함)가 착륙할 위치, 최근에 사용자 인터페이스에서 강조된 객체 등에 기초하여 목표 위치를 설정하는 것을 포함할 수 있다. 일부 예에서, 자취 또는 발사체는 다른 방향으로 연장될 수 있다. 예를 들어, 자취 또는 발사체는 2D 횡스크롤 슈팅 게임(2D side scrolling shooter) 또는 3D 게임에서 옆으로 확장될 수 있다. 경우에 따라, 평면 인터페이스를 통해 플레이되는 비디오 게임 또는 3D 게임에서도 커서의 끝이 목표 위치로 사용될 수 있다.
도 5b는 일실시예에 따른 2D 및 3D 임계 거리들 및 플레이어의 시야에 대한 스크린 샷들(550, 560)을 도시한다. 도 5b를 참조할 때, 도면(550)은 목표 위치(501), 권총(511), 권총 아이콘(513), 제1 탄약 상자(515), 제2 탄약 상자(517), 에너지 셀(519), <X, Y, Z> 축에 따라 목표 위치(501)로부터 측정된 3D 거리 R1, R2, R3 및 R4를 포함한다. 도면(560)은 <X, Y> 축에 따라 목표 위치(501)로부터 측정된 대안적인 2D 거리 D1, D2, D3 및 D4를 도시한다.
거리 R1은 3D 환경 내의 목표 위치(501)와 권총(511) 사이의 3D 거리이다. 거리 R2는 3D 환경 내의 목표 위치(501)와 제1 탄약 상자(515) 사이의 3D 거리이다. 거리 R3은 3D 환경 내의 목표 위치(501)와 에너지 셀(519) 사이의 3D 거리이다.
일실시예에 따른 게임에서, 2D 거리 D1-D4는 3D 거리 대신 사용될 수 있다. 게임 환경이 2D 가상 환경에서 일어나거나 이미 2D 좌표계를 사용하여 유닛들이 추적되는 등의 경우에 따라 2D 거리를 계산하는 것이 더 효율적일 수 있다.
컴퓨터 시스템의 커뮤니케이션 모듈은 플레이어가 각각의 임계 거리 내에 있는 아이템들을 잠재적인 통신 대상으로 간주하고 있다고 결정할 수 있다. 도 3a에 도시된 일실시예에 따른 데이터베이스(300)를 참조할 때, 거리 R1, R2, 및 R3가 제5 임계 거리보다 작은 경우, 권총 및 탄약 상자는 잠재적 통신 대상 유닛들로 간주될 수 있고, 에너지 셀(519)은 거리 R4가 제6 임계 거리보다 작은 경우 잠재적 통신 대상 아이템으로 간주될 수 있다.
둘 이상의 후보 아이템들이 각각의 임계 거리 내에 있고, 더 높은 우선 순위를 갖는 아이템이 없다면, 목표 위치(501)에 가장 근접하고/하거나 더 최근에 상호 작용한 아이템이 통신 대상으로 선택될 수 있다. 다른 타이 브레이커들이 추가적으로 또는 대안적으로 사용될 수 있다. 도 5b에 도시된 예를 참조할 때, 권총(511)은 목표 위치(501)에 가장 근접하다. 따라서, 게임이 플레이되는 동안, 아이콘(513)은 플레이어에게 커뮤니케이션 버튼을 누르면 권총에 관한 시각적 또는 청각적 메시지가 다른 플레이어들에게 전달될 것임을 알리기 위해 권총(511) 위에 표시된다. 아이콘(513)은 텍스트 "Ping LALT"를 동반하여, 플레이어가 키보드의 왼쪽 alt 버튼을 눌러 다른 플레이어들에게 권총(511)에 관한 상황 인식 커뮤니케이션을 전송하기 위한 사용자 입력을 제공할 수 있음을 알릴 수 있다.
아이콘(513)은 플레이어가 가상 환경의 다른 부분과 상호 작용하고, 다른 부분을 주시하는 경우 동적으로 변할 수 있다. 예를 들어, 사용자 이동 입력의 수신에 응답하여, 플레이어의 캐릭터가 목표 위치(501)가 다른 아이템들보다 탄약 상자(515)에 더 가깝게 이동하도록 오른쪽으로 약간 회전하면, 거리 R1-R4들은 다시 계산되어, 권총(511) 대신 탄약 상자(515) 위에 아이콘이 나타나서 플레이어에게 커뮤니케이션 버튼을 누르면 탄약 상자(515)에 관한 시각적 또는 청각적 메시지가 다른 플레이어들에게 전달될 수 있음을 알릴 수 있다. 이에 따라서, 사용자가 주시하는 위치를 변경하는 사용자 입력 수신에 응답하여 게임이 진행됨에 따라, 게임 엔진은 목표 위치를 반복적으로 결정하고, 주변 유닛들과의 거리를 계산하고 각각의 임계 거리와 비교하여, 비교 결과 및 우선 순위에 따라 통신 대상 아이템을 실시간으로 업데이트 할 수 있다.
컨테이너 및 아이템의 예
도 6은 일실시예에 따라 통신 대상이 플레이어의 시야에 따라 동적으로 선택되는 것을 설명하기 위한 플레이어의 시야에 대한 스크린 샷들을 도시한다. 도 6을 참조할 때, 상단에 위치한 도면(600)에서 제1 플레이어는 열리지 않은 아이템 컨테이너(603)에 접근하고 있다. 하단에 위치한 도면(620)에서, 제1 플레이어는 아이템 컨테이너(603)에 접근하여 아이템 컨테이너를 열었다.
상단의 도면(600)에서, 스크린의 중심이 목표 위치(601)의 투영(projection)을 추적하는데 사용되면서, 제1 플레이어는 아이템 컨테이너(603)에 접근한다. 투영의 추적에 따른 자취가 열리지 않은 아이템 컨테이너(603)에 적중한다. 도 3a에 도시된 일실시예에 따른 데이터베이스(300)를 참조할 때, 제1 플레이어가 상황 인식 커뮤니케이션을 전송하기 위한 사용자 입력 버튼을 제공하는 경우, 열리지 않은 아이템 컨테이너의 히트 박스를 적중한 목표 위치에 적어도 부분적으로 기초하여 팀의 다른 플레이어들에 대해 아이템 컨테이너의 윤곽이 표시되고, 제1 플레이어의 캐릭터는 다른 플레이어에게 “여기서 아이템을 찾자"라고 발화하여 알릴 수 있다.
하단의 도면(620)에서, 플레이어는 여전히 스크린의 중심 위치를 유지하면서 아이템 컨테이너(603)에 접근하여 이를 열었다. 탄약 상자(611), 백팩(609), 테르밋 수류탄(605) 및 업그레이드 아이템(607)이 아이템 컨테이너(603) 내부에 있다. 목표 위치(601)로 투영된 자취는 열린 컨테이너를 적중한다. 테르밋 수류탄(605)은 목표 위치(601)로부터 거리 R1만큼 떨어져 있고, 업그레이드 아이템(607)은 목표 위치 (601)로부터 제2 거리 R2만큼 떨어져 있다.
도 3a에 도시된 일실시예에 따른 데이터베이스(300)를 참조하면, 열린 아이템 컨테이너(603)는 가장 낮거나 기본 우선 순위를 갖는다. 열린 아이템 컨테이너를 통신 대상 아이템으로 설정하기 전에, 컴퓨터 시스템은 우선 순위가 더 높은 다른 유닛 유형이 각각의 임계 거리 내에 있는지를 먼저 결정할 수 있다. 도 3a에 도시된 일실시예에 따른 데이터베이스(300)를 참조하면, 픽업 아이템은 우선 순위 계층 5를 갖는다. 아이템들(605, 607, 509 및 611) 중에서, 테르밋 수류탄(605) 및 업그레이드 아이템(607)만이 각각의 임계 거리 내에 있어 통신 대상이 될 수 있는 아이템으로 고려될 수 있다. 플레이어가 상황 인식 커뮤니케이션을 전송하기 위한 사용자 입력을 제공하는 경우, 거리 R1이 거리 R2보다 작으면, 테르밋 수류탄이 통신 대상 아이템으로 식별될 수 있다. 목표 위치(601)가 열린 아이템 컨테이너(603)의 히트 박스에 적중되더라도, 열린 아이템 컨테이너는 내부의 아이템들보다 우선 순위가 낮기 때문에 통신 대상 아이템으로 선택되지 않는다.
테르밋 수류탄(605)에 대한 세부 정보를 제공하는 정보 박스(613)는 게임이 플레이되는 동안 유닛으로 생성될 수 있다. 테르밋 수류탄(605)에 대한 아이콘은 플레이어에게 커뮤니케이션 버튼을 누르면 테르밋 수류탄(604)에 관한 시각적 또는 청각적 메시지가 다른 플레이어들에게 전달될 것임을 알리기 위해 표시된다. 아이콘에는 텍스트 "Ping LALT"를 동반하여, 플레이오가 키보드의 왼쪽 alt 버튼을 눌러 다른 플레이어들에게 테르밋 수류탄에 대한 핑(Ping)을 할 수 있음을 알릴 수 있다.
목표 위치의 마커의 예
도 7은 일실시예에 따른 "enemy spotted"의 상황에 따른 커뮤니케이션을 할 때의 플레이어의 시야에 대한 스크린 샷을 도시한 도면이다. 도 7을 참조할 때, 도면(700)에서, 플레이어는 적군 유닛(705) 근처의 스크린의 중심을 주시하고, 상황 인식 커뮤니케이션을 전송하려는 의도를 나타내는 사용자 입력을 제공한다. 컴퓨터 시스템은 적군 유닛(705)이 옆에 있고, 스크린의 중심으로부터의 자취의 끝에 해당하는 목표 위치(701)로부터의 임계 거리에 내에 있다고 결정한다.
상황 인식 커뮤니케이션을 전송하기 위해 사용자 입력을 제공하는 플레이어에 대한 실시간 응답으로써, 다른 팀원들이 볼 수 있도록 마커(703)가 목표 위치 (701)에 표시된다. 추가적으로 또는 대안적으로, 플레이어의 캐릭터는 그의 팀원들에게 "적군 발견" 또는 유사한 대사를 발화할 수 있다. 추가적으로 또는 대안적으로, 스크린의 오른쪽 상단에 있는 텍스트(707)는 플레이어에게 "당신은 적을 발견했습니다."라고 표시될 수 있고, 해당 플레이어가 적을 발견했음을 지시하는 텍스트가 플레이어의 팀원들에게 추가적으로 또는 대안적으로 표시될 수 있다.
일부 실시예들에서, 마커(703)는 목표 위치(701)에 정적으로 표시될 수 있다. 일부 실시예에서, 마커(703)는 대응하는 적군 유닛(705)의 위치에 정적으로 표시될 수 있다. 일부 실시예에서, 마커(703)는 임계 시간 동안, 그리고 선택적으로 적군 유닛(703)이 시선 내에 남아있는 동안 적군 유닛(703)이 환경 내에서 이동함에 따라 적군 유닛(703)과 함께 동적으로 이동할 수 있다.
시간에 따라 변하는 마커의 예
도 8은 일실시예에 따른 통신 대상이 될 수 있는 시간에 따라 변하는 유닛들을 포함한 플레이어의 시야에 대한 스크린 샷들(800, 820)을 도시한다. 도 8을 참조할 때, 스크린 샷들은 스크린의 중앙에서 앞쪽으로 투영된 자취에 의해 적중된 목표 위치(801), 최근의 적군 이동에 대한 제1 마커들(803A, 803B), 최근의 적군 이동에 대한 제2 마커들(805A, 805B) 및 빈 포탄에 대한 제3 마커들(807A, 807B)을 보여준다. 상단 스크린 샷이 먼저 일어나고, 하단 스크린 샷은 플레이어가 상황 인식 커뮤니케이션을 생성하기 위한 사용자 입력을 제공한 후에 일어난다.
상단 스크린 샷에서, 마커들(803A, 805A)은 적군이 최근에 표시된 각 위치에서 점프한 것을 지시한다. 마커들(803A, 805A)은 사용자 인터페이스 유닛으로 생성될 수 있다. 경우에 따라 게임의 특정 캐릭터들만 마커들(803A, 805A, 807)을 볼 수 있다.
마커들(803A, 805A, 807A)은 시간이 경과함에 따라 마킹된 이벤트가 더 오래 전에 발생했음을 지시하록 변경될 수 있다. 예를 들어, 803A의 아이콘은 적군 유닛이 위치(805A)보다 더 최근에 위치(803A)에서 점프했음을 지시하기 위해 805A의 아이콘보다 더 완전한 경계를 갖는다. 또한 805A의 경계는 805B의 경계로 변경될 수 있고, 시간이 경과함에 따라 더 밝은 색으로 희미해질 수 있다. 빈 포탄에 대한 마커(807)는 포탄이 지상에 얼마나 오래 전에 떨어졌는지를 나타내는 타이머를 포함할 수 있다.
마커들(803A, 805A, 807A) 중 임의의 마커는 통신 대상 유닛으로 식별될 수 있다. 마커들(803A, 805A, 807A)은 우선 순위 및 임계 거리를 가질 수 있다. 탄약 포탄(807)의 임계 거리는 목표 위치(801)와 탄약 포탄 사이에서 정해질 수 있거나(can be taken), 목표 위치(801)와 탄약 포탄(807)에 부착된 아이콘, 텍스트 또는 리드라인(lead line) 등의 인터페이스 유닛의 임의의 부분 사이에서 고려될 수 있다.
도 8을 참조할 때, 마커(803A)는 목표 위치(801)에 가장 근접한 유닛이다. 상황 인식 커뮤니케이션을 전송하기 위해 사용자 입력을 제공하는 플레이어에 응답하여, 새로운 마커(803B)는 원래의 803A의 위치를 지시하기 위해 다른 플레이어에게 표시된다. 또한 플레이어의 캐릭터는 "누군가 몇 초 전에 뛰어내렸다."고 다른 플레이어들에게 발화하여 알릴 수 있다. 비슷한 의미의 텍스트 메시지 또한 다른 플레이어들에게 표시될 수 있다. 일부 실시예들에서, 803A와 유사한 시간에 따라 변하는 아이콘이 상황 인식 커뮤니케이션을 전송하는 것의 일부로 다른 플레이어들에게 표시될 수 있다.
아이템의 핑 아이콘의 예
도 9는 일실시예에 따른 다양한 항목의 위치를 나타내는 핑 아이콘들을 포함한 플레이어의 시야에 대한 스크린 샷(900)을 도시다. 도 9는 스크린의 중심으로부터의 투영에 위치한 목표 위치(901), 티어2 바디 쉴드(903), 정보 박스(905), 티어1 바디 쉴드(907), 티어1 바디 쉴드에 대한 아이콘(909), 무거운 탄약 상자(911)의 위치를 마킹하는 아이콘(913), 가벼운 탄약 상자(915)의 위치를 마킹하는 아이콘(917), 샷건의 탄약 상자의 위치를 마킹하는 감소된(diminishing) 아이콘(921), 넉다운 쉴드(knockdown shield)(923)의 위치를 마킹하는 아이콘(925), 스나이퍼 스톡(927) 및 수류탄(929)을 포함한다. 텍스트 박스(931)는 제한된 양의 최근 커뮤니케이션 이력을 기록한다. 미니 맵(933)은 비디오 게임이 이루어지는 가상 환경의 레이아웃을 도시한다.
다양한 아이템들(903, 907, 911, 915, 919, 923, 927, 929)은 플레이어에 의해 주시될 수 있고 상황 인식 커뮤니케이션을 전송하기 위한 사용자 입력을 제공함으로써 통신 대상이 될 수 있다. 도 9에 도시된 예에서, 플레이어는 샷건 탄약(919), 무거운 탄약(913) 및 가벼운 탄약(917)에 대해 순차적으로 상황 인식 커뮤니케이션을 보냈거나 또는 핑했다(pinged). 각각의 아이콘(921, 915, 917)은 플레이어의 팀원들에게 표시된다. 플레이어는 이제 바디 쉴드(903)를 핑하고 있다.
비디오 게임 엔진은 플레이어가 한번에 만들 수 있는 최대 핑 수(3, 4 또는 기타의 수)에 대한 제한을 갖는 선입 선출("FIFO") 큐를 사용하여 각 플레이어의 핑들을 추적하도록 구성될 수 있다. 도시된 예에서, FIFO 큐는 3개의 핑을 허용하므로, 플레이어가 네번째 아이템으로써 바디 쉴드(903)를 핑(ping)하는 경우, 샷건 탄약에 대한 아이콘(921)은 감소되고 사라진다. 일부 실시예에서, 상황 인식 커뮤니케이션이 생성될 때, 마커들은 미니 맵(933) 상의 아이템들 각각의 위치에 나타나거나 사라질 수 있다.
아이템 위치들에서의 아이콘들과 같은 핑된 아이템들(pinged items)의 시각적 마커들은 여러 조건들 하에서 사라질 수 있다. 어떤 마커들은 초과 시간이 지나면 사라질 수 있다. 어떤 마커들은 마커 밑에 있는 유닛이 사라지면 사라질 수 있다. 예를 들어, 아이템이 획득될 때, 아이템을 마킹하는 시각적 아이콘이 사라질 수 있고, 적군을 물리치면 적을 마킹하는 시각적 아이콘이 사라질 수 있다. 제1 플레이어에 의해 배치된 일부 마커들은 제2 플레이어에 의해 승인되거나 제1 플레이어에 의해 취소되거나 제1 플레이어에 의해 대안이 제안될 때 사라질 수 있다.
다양한 방식으로 만료되도록 마커들을 구성하는 것은 플레이어들의 시야를 방해하는 것을 방지하는 것을 도울 수 있다.
다른 팀원들은 티어1 바디 쉴드(907) 및 녹다운 쉴드(923)를 핑(ping) 하였다. 따라서, 각각의 아이콘(909, 925)은 플레이어에게 보여 진다. 또 다른 팀원들은 또한 스크린 외부의 유닛을 오른쪽 방향으로 핑(ping) 하였다. 결과적으로, 핑된 유닛의 방향이 오른쪽을 향하고, 173미터 거리에서 동적으로 커스터마이징된 거리를 지시하는 마커(935)가 플레이어의 화면의 오른쪽에 표시된다.
플레이어를 향하는 아이콘(Player Facing Icons)
도 10은 일실시예에 따른 두 명의 다른 플레이어의 관점에서 동시에 본 바디 쉴드의 두 스크린 샷들(1001, 1003)을 도시한다. 도 10을 참조할 때, 제1 스크린 샷(1001)에서, 제1 플레이어는 제1 관점에서 바디 쉴드(1005A)를 본다. 제2 스크린 샷(1003)에서, 제2 플레이어는 제2 관점에서 바디 쉴드(1005B)를 본다. 바디 쉴드는 비디오 게임의 가상 환경에서 바디 쉴드에 대한 플레이어들 각각의 상대적인 3D 위치에 기초하여 제1 플레이어 및 제2 플레이어에게 보여 진다.
제3 팀원은 바디 쉴드의 위치를 핑하여, 아이콘(1007)이 제1 플레이어 및 제2 플레이어 모두가 볼 수 있도록 바디 쉴드의 위치에 나타나게 했다. 아이콘(1007)은 제1 플레이어 및 제2 플레이어가 아이콘을 관찰하는 각도에 관계없이 지속적으로 플레이어를 향할 수 있다. 따라서, 아이콘(1007)은 플레이어를 지속적으로 직면하는 오버레이(overlay) 또는 인터페이스 디스플레이 구성(interface display element)과 유사하게 액션 할 수 있다.
반응적 및 동적 아이콘(Responsive and Dynamic Icons)
도 11a 및 도 11b는 일실시예에 따른 비디오 게임에서 플레이어2의 관점에서 게임 플레이의 스크린 샷들(1100, 1120)을 도시한다. 도 12a 및 도 12b는 일실시예에 따른 비디오 게임에서 플레이어1의 관점에서 동일한 게임 플레이의 스크린 샷들(1200, 1220)을 도시한 도면이다. 도 11a에 도시된 스크린 샷(1100) 및 도 12a에 도시된 스크린 샷(1200)에서, 플레이어의 캐릭터는 공중을 통해 활공하고, 목표 위치들(1103, 1107)에서의 마커들은 각각 플레이어2 및 플레이어3(플레이어3의 캐릭터는 스크린 밖에 있음)에 의해 해당 팀이 접근할 수 있도록 제안되었다. 플레이어1는 플레이어2에 의해 제안된 목표 위치(1103)를 승인하기 위해 상황 인식 커뮤니케이션에 대한 응답을 전송한다. 도 11b 및 도 12b는 플레이어1가 상황 인식 커뮤니케이션에 대한 응답을 전송한 후의 결과에 해당하는 스크린 샷들(1120, 1220)을 도시한다.
도 11a 및 도 11b에서, 플레이어2의 스크린은 위치(1101)가 중심이 된다. 제1 시각적 아이콘(1103)은 플레이어2에 의해 이전에 전달된 목표 위치를 표시하고, 제2 시각적 아이콘(1107)은 제3 플레이어에 의해 이전에 전달된 목표 위치를 표시하고, 위치(1107)를 제안한 플레이어를 식별하기 위해 "플레이어 3" 레이블을 포함한다. 아이콘들(1109A, 1109B)은 팀 리더를 식별한다.
도 12a 및 도 12b에서, 플레이어1의 스크린은 위치(1201)가 중심이 된다. 제1 시각적 아이콘(1103)은 플레이어2에 의해 이전에 전달된 목표 위치를 표시하고, 제2 시각적 아이콘(1107)은 제3 플레이어에 의해 이전에 전달된 목표 위치를 표시하고, 위치(1107)를 제안한 플레이어를 식별하기 위해 "플레이어 3" 레이블을 포함한다. 아이콘들(1109A, 1109B)은 팀 리더를 식별한다.
승인 전 커뮤니케이션
도 11a는 일실시예에 따를 때, 도 2와 관련하여 설명된 프로세스(200) 및 도 4와 관련하여 설명된 프로세스(400)가 도 2와 관련하여 설명된 이전 커뮤니케이션 액션들(219)에 기초하여 플레이어2에 대한 상황 인식 커뮤니케이션 액션을 결정하는데 어떻게 이용될 수 있는지를 설명하기 위한 도면이다. 도 11a에서, 목표 위치(1101)와 플레이어2가 이전에 나머지 팀원들에게 전달했던 목표 위치(1103)에 있는 시각적 마커 사이의 거리는 플레이어2가 왼쪽 alt 버튼을 누름으로써, 플레이어2의 팀원들에게 취소의 커뮤니케이션 액션을 보내는 상황 인식 커뮤니케이션 액션을 플레이어2에게 제시하도록 결정하는 데에 사용된다. 목표 위치(1103)에 대한 취소 옵션을 제시하는 결정은 이전에 목표 위치(1103)로 가기 위한 커뮤니케이션 액션을 한 플레이어에 부분적으로 응답하여 이루어진다.
취소의 커뮤니케이션 액션은 다른 플레이어들의 뷰에서 대응하는 커뮤니케이션 마커들(예를 들어, 도 12a 및 도 12b에 도시된 커뮤니케이션 마커(1103))를 사라지게 만드는 것, 제안된 목표 위치(1103)가 취소되었음을 지시하는 텍스트를 다른 플레이어들에게 전송하는 것, 또는 제안된 목표 위치(1103)가 취소되었음을 다른 플레이어들에게 청각적으로 발화하여 알리는 것 중 하나 또는 그 이상을 포함할 수 있다.
플레이어2가 제2 위치(도시되지 않음)를 제안한다면, 새로운 마커가 제2 위치에 생성될 수 있고, 플레이어2에 의해 전달된 원래 위치(1103)는 사라질 수 있고, 플레이어2의 캐릭터는 "여기 대신 다른 곳으로 가자." 또는 유사한 의미의 문구를 말할 수 있다. 따라서, 플레이어2에 대한 커뮤니케이션 액션은 플레이어2의 이전 커뮤니케이션 액션에 부분적으로 기초할 수 있다.
도 11a에 도시되고 이하의 도 14a 및 도 14b에서 상술한 바와 같이, 상황 인식 커뮤니케이션 시스템은 플레이어가 주시하고 있는 시각적 마커의 근접성에 적어도 부분적으로 기초하여, 플레이어에게 상이한 시각적 마커들을 변경하여 표시하도록 구성될 수 있다. 예를 들어, 도 11a는 목표 위치(1107)와 비교하여, 스크린 (1101)의 중심을 목표 위치(1103)에 더 가까이 위치시킴으로써 플레이어2가 주시하고 있는 목표 위치(1103)에 적어도 부분적으로 기초하여, 목표 위치(1103)와 관련된 추가적인 상세 정보(1105)가 플레이어2에게 표시된다. 추가적인 세부 정보(1105)는 연장선 및 텍스트를 포함한다. 텍스트는 그 영역 주위의 다른 시각적 정보를 모호하게 하지 않기 위해 스크린(1101)의 중심으로부터 떨어져 위치된다. 연장선은 텍스트가 목표 위치(1103)와 관련되어 있음을 시각적으로 지시한다.
도 11a는 일실시예에 따른 도 2와 관련하여 설명된 프로세스(200) 및 도 4와 관련하여 설명된 프로세스(400)가 게임(215) 내의 최근 이벤트 및/또는 도 2와 관련하여 설명된 다른 게임 상태 데이터(221)에 기초하여, 상황 인식 커뮤니케이션 액션을 결정하기 위해 어떻게 사용될 수 있는지를 설명하기 위한 도면이다. 도 11a에 도시된 게임의 일부에서, 플레이어들의 캐릭터들은 아이콘(1107)에 의해 지시되는 것과 같이 팀 리더인 플레이어2에 의해 주도되는 하나의 그룹으로 공기를 통해 활공한다. 도 12a에 도시된 바와 같이 마커(1103)를 플레이어1에게 표시하는 플레이어2의 시각적 커뮤니케이션 액션은 추가적으로 아이콘(1109B)을 포함하여 커스터마이징된다. 게임 상태 데이터가 플레이어들이 그룹 리더에 의해 주도되는 그룹으로 움직이지 않는 게임의 다른 상태를 지시할 때, 플레이어2의 시각적 커뮤니케이션 액션은 마커(1109B)가 다른 플레이어들에게 표시되게 하지 않을 것이다. 다른 실시예에서, 임의의 다른 유형의 커스터마이징은 임의의 게임 상태에 기초한 커뮤니케이션 액션에 생성될 수 있다.
도 12a는 일실시예에 따른 도 2와 관련하여 설명된 프로세스(200) 및 도 4와 관련하여 설명된 프로세스(400)가 도 2와 관련하여 설명된 이전의 커뮤니케이션 액션들(219)에 기초하여, 플레이어1에 대한 상황 인식 커뮤니케이션 액션을 결정하는 데 어떻게 사용될 수 있는지를 설명하기 위한 도면이다. 도 12a에서, 목표 위치 (1201)와 플레이어2가 이전에 나머지 팀원들에게 전달했던 목표 위치(1103)에 있는 시각적 마커 사이의 거리는 플레이어1가 왼쪽 alt 버튼을 누름으로써, 플레이어1의 팀원들에게 “OK” 유형의 승인을 전송하는 상황 인식 커뮤니케이션 액션을 플레이어1에게 제시하도록 결정하는 데에 사용된다. 목표 위치(1103)에 대한 승인 옵션을 제시하는 결정은 이전에 목표 위치(1103)로 가기 위한 커뮤니케이션 액션을 한 다른 팀원에 부분적으로 응답하여 이루어진다.
승인의 커뮤니케이션 액션은 다른 플레이어들에 의해 보여지도록 색상을 변경하거나 승인을 지시하는 텍스트를 추가함으로써 대응하는 커뮤니케이션 마커들(예를 들어, 도 11a 및 도 11b에 도시된 커뮤니케이션 마커(1103))을 움직이게 하거나 변경하는 것, 플레이어2가 제안한 목표 위치(1103)를 플레이어1가 승인함을 지시하는 텍스트를 다른 플레이어들에게 전송하는 것, 또는 다른 플레이어들에게 목표 위치(1103)가 취소되었다는 것을 청각적으로 알리는 것을 포함 할 수 있다.
승인 커뮤니케이션 후
도 11b는 플레이어2에 의해 인식된, 플레이어2에 의해 제안된 목표 위치(1103)에 대한 플레이어1의 승인의 효과를 도시한다. 플레이어1이 승인의 응답을 전송하는 것에 응답하여, 목표 위치(1103)로의 여정에 대한 플레이어 1의 제안을 승인한 팀원으로 "플레이어1"을 열거함으로써, 목표 위치(1103)와 관련된 추가적인 세부 정보(1105)가 업데이트 될 수 있다. 목표 위치(1103)에 있는 다이아몬드 아이콘은 추가적으로 또는 대안적으로 움직임, 크기의 변화, 색상의 변화, 형태의 변화 또는 기타 시각적 효과를 가질 수 있다. 텍스트(1111B)는 추가적으로 또는 대안적으로 플레이어1이 제안된 목표 위치(1103)로 가기로 동의하였음을 지시할 수 있다. 오디오 대사 "Roger that" 또는 플레이어1의 캐릭터의 목소리로 발화되는 이와 유사한 의미의 다른 문구들과 함께 사운드는 플레이어2의 컴퓨팅 시스템에서 추가적으로 또는 대안적으로 재생될 수 있다. 링(ring), 차임(chime) 또는 기타 효과음 등의 다른 사운드들은 플레이어2의 컴퓨팅 시스템에서 추가적으로 또는 대안적으로 재생될 수 있다.
도 12b는 플레이어1에 의해 인식된, 플레이어2에 의해 제안된 목표 위치(1103)에 대한 플레이어1의 승인의 효과를 도시한다. 플레이어1이 승인의 응답을 전송하는 것에 응답하여, 목표 위치(1103)에 있는 다이아몬드 아이콘은 추가적으로 또는 대안적으로 움직임, 크기의 변화, 색상의 변화, 형태의 변화 또는 기타 시각적 효과를 가질 수 있다. 텍스트(1211B)는 추가적으로 또는 대안적으로 플레이어1이 제안된 목표 위치(1103)로 가기로 동의하였음을 지시할 수 있다. 오디오 대사 "Roger that" 또는 플레이어1의 캐릭터의 목소리로 발화되는 이와 유사한 의미의 다른 문구들과 함께 사운드는 플레이어1의 컴퓨팅 시스템에서 추가적으로 또는 대안적으로 재생될 수 있다. 링(ring), 차임(chime) 또는 기타 효과음 등의 다른 사운드들은 플레이어1의 컴퓨팅 시스템에서 추가적으로 또는 대안적으로 재생될 수 있다. "OK" 유형의 승인을 생성하는 옵션은 제거되고, "never mind" 유형의 응답 옵션으로 대체되거나 다른 유형의 커뮤니케이션을 전송하는 옵션으로 대체될 수 있다.
플레이어1에게 보여지는 플레이어1의 승인의 효과는 플레이어2에게 보여지는 효과와 선택적으로 다를 수 있다. 예를 들어, 텍스트(1211B)는 플레이어 1에게 "You - OK"를 지시하는 반면, 텍스트(1111B)는 플레이어2에게 "Player 1 - OK"를 지시할 수 있다. 추가적인 세부 정보(1205)는, 예를 들어, 플레이어2의 인식을 위하여 추가적인 세부 정보(1105) 내에서 플레이어1을 식별한다는 점에서, 추가적인 세부 정보(1105)와 선택적으로 상이할 수 있다. 그러나, 자신의 승인 액션을 알고 있는 플레이어1은 세부 정보(1205)에 그러한 명시적인 열거를 필요로 하지 않을 수 있다.
일부 대안적인 실시예에서, 플레이어1이 플레이어2에 의해 제안된 위치를 승인하면, 시각적 마커(1103)는 플레이어1의 시야에서 사라져서 시각적 마커(1103)가 플레이어 1의 시야를 모호하게 하지 않을 수 있다.
다른 커뮤니케이션 시퀀스(sequence)의 예
도 2의 블록(219) 및 도 11a, 도 11b, 도 12a 및 도 12b와 관련하여 설명된 바와 같이, 상황 인식 커뮤니케이션은 이전의 커뮤니케이션 액션들에 적어도 부분적으로 기초하여 결정될 수 있다.
상황 인식 커뮤니케이션의 일부 시퀀스는 하나의 플레이어에 의해 수행될 수 있다. 예를 들어, 제1 플레이어는 "여기로 갑시다."라는 오디오 커뮤니케이션을 전송하고, 그 다음에 두 번째 오디오 커뮤니케이션으로 "취소하십시오"를 전송할 수 있다. 다른 예를 들어, 제1 플레이어는 "여기로 갑시다."라는 오디오 커뮤니케이션을 전송하고, 그 다음에 두 번째 오디오 커뮤니케이션으로 "대신 여기로 갑시다."를 전송할 수 있다. 또 다른 예로, 제1 플레이어는 "Enemy spotted"라는 오디오 커뮤니케이션을 전송하고, 그 다음의 연속적인 커뮤니케이션에 대해 볼륨을 증가시켜 "Enemy spotted"라는 오디오 커뮤니케이션을 보낼 수 있다.
제1 플레이어는 팀원들에게 목표 위치에 관한 제1 상황 인식 커뮤니케이션 액션을 수행할 수 있다. 제1 플레이어는 임계 기간의 시간 내에 목표 위치 근처를 계속해서 주시함으로써, 제1 상황 인식 커뮤니케이션 액션을 취소하는 상황 인식 커뮤니케이션을 전송하는 상황 인식 옵션이 제시될 수 있다. 다른 예에서, 제1 플레이어는 제1 목표 위치에 대한 제1 상황 인식 커뮤니케이션 액션을 전송하여, 플레이어의 팀원들에게 "여기로 가자."라고 발화하여 알리고, 제1 목표 위치에 제1 시각적 마커를 생성할 수 있다. 이어서, 제1 플레이어는 임계 기간의 시간 내에 제2 목표 위치에 관한 제2 상황에 따른 액션을 전송하여, 플레이어의 팀원들에게 "대신 여기로 가자."라고 발화하여 알리고, 제2 위치에 제2 시각적 마커를 생성하고, 제1 목표 위치에 있는 제1 시각적 마커를 사라지게 할 수 있다.
상황 인식 커뮤니케이션의 일부 시퀀스는 둘 이상의 플레이어에 의해 수행될 수 있다. 예를 들어, 제1 플레이어는 팀원들에게 목표 위치에 관한 제1 상황 인식 커뮤니케이션 액션을 수행하여, 시각적 마커가 목표 위치에 표시되게 할 수 있다. 제2 플레이어는 임계 기간의 시간 내에 목표 위치 근처를 계속하여 주시함으로써, 전달받은 액션에 동의하는 것, 전달받은 액션을 승인하는 것, 위치에 있는 아이템에 "딥(dibs)"을 호출하는 것 등의 상황 인식 응답 옵션이 제시될 수 있다. 제2 플레이어에 의한 승인 또는 응답은 시각적 마커의 시간 초과 기간이 연장되게 할 수 있고, 시각적 마커가 제2 플레이어의 응답 또는 승인을 지시함으로써 변하게 할 수 있다.
캐릭터 거리의 불변성(invariance)
도 13a 및 도 13b는 일실시예에 따른 제1 플레이어의 시야에 대한 스크린 샷들(1300, 1320)을 도시한다. 제2 플레이어는 제1 플레이어에게 대포 무기 아이템의 위치에 대한 상황 인식 커뮤니케이션을 전송했다. 상황 인식 커뮤니케이션의 일부로서, 아이콘(1303)이 제1 플레이어에게 표시되고, 텍스트 메시지(1307)는 제2 플레이어가 특정 유형의 무기를 핑했다고 제1 플레이어에게 통지한다. 도 13a에서 제1 플레이어의 스크린은 지점(1301)이 중심이 된다. 도 13b에서 제1 플레이어의 캐릭터는 대포 무기 아이템에 더 가까이 이동했으며 제1 플레이어의 스크린은 지점(1311)이 중심이 된다.
도시된 예에서, 제2 플레이어의 상황 인식 커뮤니케이션 액션의 일부로서 제1 플레이어에게 표시되는 아이콘(1303)의 크기는 핑 아이템(대포 무기) 및 제1 플레이어의 캐릭터 사이의 거리에 대해 변하지 않는다. 도 13b에서 제1 플레이어의 캐릭터가 아이템에 더 가깝더라도, 아이콘(1303)의 크기는 일정하게 유지된다. 다른 예에서, 아이콘 크기는 플레이어의 캐릭터에서 핑된 위치까지의 거리에 따라 달라질 수 있다.
도시된 예에서, 도 13a는 무기 아이템이 벽 뒤에, 그리고 방 내부에 있더라도, 아이콘(1303)이 제1 플레이어에게 보일 수 있음을 도시한다. 상황 인식 커뮤니케이션의 일부로 표시되는 시각적 아이콘은 플레이어의 시선을 방해하는 벽 및 기타 불투명한 물체 위에서 보일 수 있다. 일부 실시예들에서, 전달된 아이템은 추가적으로 또는 대안적으로 벽을 통과해서 보일 수 있다. 일부 실시예들에서, 시선을 차단하는 객체들에 의해 아이콘들이 가려질 수 있다.
도 13a에서, 스크린(1301)의 중심을 아이콘에 맞추는 플레이어에 응답하여, 추가적인 세부 정보(1305)가 표시될 수 있다. 추가적인 세부 정보는 플레이어가 주시하고 있는 다른 시각적 표시를 가리는 것을 피하기 위해, 스크린(1301)의 중심으로부터 멀어지며 연장되는 리드라인을 포함할 수 있다. 리드라인으로부터 떨어진 거리에서, 세부 정보(1305)는 무기 아이템의 유형, 플레이어의 캐릭터와 아이템의 인-게임 위치 사이의 거리, 및 플레이어가 상황 인식 커뮤니케이션을 생성하기 위한 사용자 입력-도시된 예에서는 왼쪽 alt 버튼을 누르는 것-을 제공함으로써 생성한 상황 인식 커뮤니케이션의 유형을 나타내는 텍스트를 포함한다. 상황 인식 커뮤니케이션 액션의 도시된 예는 아이템에 “딥(dibs)”을 호출하여 다른 팀원들에게 플레이어가 마크된 아이템에 대한 소유권을 주장하고, 아이템을 획득하고 싶어한다는 것을 알리는 것이다.
대포 무기 아이템에 "딥"을 호출하는 상황 인식 커뮤니케이션 액션은, 예를 들어, 팀원에 의해 이전에 배치된 아이템에 관한 시각적 마커를 주시하는 플레이어의 관점에서 도 2와 관련하여 설명된 프로세스(200) 및 도 4와 관련하여 설명된 프로세스(400)를 사용하여 결정될 수 있다.
상황 인식 커뮤니케이션을 생성하기 위해 버튼을 누르는 것에 응답하여, 플레이어의 캐릭터는 게임을 플레이하는 다른 팀원들에게 "딥"을 청각적으로 호출할 수 있다. 아이콘(1303)은 추가적으로 또는 대안적으로 애니메이션화될 수 있고, 크기 또는 색상이 변화될 수 있으며, 딥을 호출한 제1 플레이어가 열거될 수 있다. 텍스트(1307)는 추가적으로 또는 대안적으로, 제1 플레이어가 제2 플레이어의 핑에 응답하여 딥을 호출했다는 것을 지시할 수 있다. 도 13b에서, 텍스트(1307)는 추가적으로 "You : Dibs"를 제1 플레이어에게 표시하도록 업데이트 되고, "Player1 called dibs" 또는 이와 유사한 메시지를 팀의 다른 플레이어들에게 표시하도록 업데이트 될 수 있다.
마커 변경의 예
도 14a는 일실시예에 따른 플레이어가 주시하고 있는 위치 및 마커에 상대적인 캐릭터의 위치에 기초하여 마커가 변경될 수 있는 다양한 방식들을 도시하는 3개의 스크린 샷들(1400A, 1400B 및 1400C)을 도시한다. 도면들 1400A, 1400B 및 1400C에서, 플레이어의 캐릭터는 무기의 부속 장치 근처에서 접근하고 바라보고 있다. 마커(1403)는 목표 위치(예를 들어, 스크린의 중심을 참조하여 결정된) 및 추가적으로 또는 대안적으로 마킹된 아이템과 플레이어의 캐릭터 사이의 거리에 적어도 부분적으로 기초하여, 선택적으로 시각적 표시(1405) 또는 시각적 표시(1409)로 표시될 수 있다.
도면(1400A)에서, 플레이어의 스크린은 적어도 제1 임계 거리만큼 아이템으로부터 오프셋된 1401A가 중심이 된다. 마커 아이콘(1403)은 팀원에 의한 이전의 상황 인식 커뮤니케이션에 응답하여 플레이어에게 표시된다. 플레이어의 캐릭터는 업그레이드 아이템으로부터 적어도 제2 임계거리만큼 떨어져 있다.
도면(1400B)에서, 플레이어의 스크린은 아이템 위에 있고 최소 임계 거리 내에 있는 1401B가 중심이 된다. 마커 아이콘(1405)은 플레이어에게 표시되며, 리드라인의 끝에 있는 추가적인 세부 정보(1407)를 포함한다. 플레이어의 캐릭터는 업그레이드 아이템으로부터 적어도 제2 임계 거리를 유지한다.
플레이어의 스크린의 위치 및 아이템으로부터의 캐릭터의 거리에 적어도 부분적으로 기초하여, 업그레이드 아이템에 관한 추가적인 세부 정보는 플레이어가 보고 있는 다른 시각적 표시를 가리는 것을 피하기 위해 스크린의 중심으로부터 떨어져 표시될 수 있다. 추가적인 세부 정보(1407)는 플레이어가 수행할 수 있고(예를 들어, "딥"을 호출하는 것), 업그레이드 아이템의 이름 및 수량(예를 들어, 1x digital threat scope)을 식별하고, 업그레이드 아이템 및 플레이어의 캐릭터 사이의 거리(예를 들어, 3미터)를 지시하는 상황 인식 커뮤니케이션 액션을 포함한다.
도면(1400C)에서, 플레이어의 스크린은 여전히 아이템 위에 있고, 최소 임계 거리 내에 있는 1401C가 중심이 된다. 플레이어의 캐릭터는 또한 업그레이드 아이템에 접근했으며, 이제 마커 아이템의 제2 임계 거리 내에 있다. 그 거리에 적어도 부분적으로 기초하여, 마커 아이콘(1409)은 플레이어에게 표시되고, 이제 더 큰 디테일 박스(1409)를 포함한다. 더 큰 디테일 박스(1409)는 어떤 기본 아이템이 업그레이드될 수 있는지 또는 어떤 아이템이 업그레이드 아이템과 같이 사용될 수 있는지, 업그레이드 아이템이 무엇을 하는지, 업그레이드 아이템을 사용하기 위해 어떤 키들을 눌러야 하는지 등의 업그레이드 아이템에 대한 더 많은 세부 정보를 제공한다. 추가적인 세부 정보(1407)는 플레이어가 수행할 수 있고(예를 들어, "딥"을 호출하는 것), 업그레이드 아이템의 이름 및 수량(예를 들어, 1x digital threat scope)을 식별하고, 업그레이드 아이템 및 플레이어의 캐릭터 사이의 거리(예를 들어, 3미터)를 지시하는 상황 인식 커뮤니케이션 액션을 포함한다.
도 14b는 일실시예에 따른 마커 아이콘이 플레이어가 주시하고 있는 위치로부터의 거리에 기초하여 변화하는 스크린 샷들(1420A, 1420B)을 도시한다. 스크린 샷(1420A)에서, 플레이어의 스크린은 제2 플레이어로부터의 상황 인식 커뮤니케이션의 일부로써 표시되는 마커 아이콘(1423A)으로부터 거리(R1)만큼 떨어진 지점(1421A)이 중심이 된다. 스크린 샷(1420B)에서, 플레이어의 시야는 스크린(1421B)의 중심이 마커 아이콘(1423B)으로부터 거리(R2)만큼 떨어져 있도록 왼쪽으로 회전되었다.
마커 아이콘들과 플레이어에 의해 주시되고 있는 영역 사이의 거리에 적어도 부분적으로 기초하여(예를 들어, 도 4의 프로세스(400)와 관련하여 설명된 바와 같이), 플레이어에게 표시되는 마커들은 변경될 수 있다. 도면(1420A)에서, 임계 거리보다 큰 거리(R1)에 적어도 부분적으로 기초하여, 아이콘(1423A)은 더 크게 생성될 수 있고, 플레이어의 주변 시야에 있을 때 마커가 플레이어에게 더 잘 보일 수 있도록 하는 더 많은 세부 정보를 포함할 수 있다. 도면(1420B)에서, 임계 거리 내에 있는 거리(R2)에 적어도 부분적으로 기초하여, 아이콘(1423B)은 더 작게 생성될 수 있고, 플레이어의 초점의 중심 근처에서 다른 시각적 표시를 가리는 것을 피하기 위해 더 적은 세부 정보를 포함할 수 있다.
마커(1423A)는 플레이어의 시야의 중심(1421A)이 마커(1423A)를 향해 이동함에 따라 크기가 감소하도록 구성될 수 있다. 마커(1423B)는 플레이어의 시야의 중심(1421B)이 마커(1423B)로부터 멀어짐에 따라 크기가 커지도록 구성될 수 있다.
윤곽 가시성의 예(Example Outline Visibility)
도 15는 일실시예에 따른 중간에 끼어있는 불투명한 객체(opaque intervening object) 위에 마킹(1503)된 문(1505)이 표시된 스크린 샷(1500)을 도시한다. 플레이어의 스크린은 위치(1501)에 중심을 두고 있으며, 플레이어는 이전에 다른 플레이어들에게 문의 위치에 관한 상황 인식 커뮤니케이션을 생성했다. 상황 인식 커뮤니케이션을 생성하는 것의 일부로써, 마커(1503)는 플레이어와 플레이어의 팀원들 모두에게 표시될 수 있다. 추가적으로 또는 대안적으로, 상황 인식 커뮤니케이션의 일부로서 문(1505)은 윤곽이 표시될 수 있다. 추가적으로 또는 대안적으로, 문(1505) 및/또는 마커(1503)는 시선으로부터 문을 가리는 중간에 끼어있는 불투명한 벽 위에 플레이어 및 플레이어의 팀원들에게 노출될 수 있다.
상황 인식 커뮤니케이션 메뉴
도 16은 일실시예에 따른 상황 인식 커뮤니케이션 메뉴들(1600, 1620)을 도시한다. 상이한 상황 인식 커뮤니케이션 메뉴들은 상이한 게임 상태들 및/또는 플레이어가 주시하는 상이한 아이템들에 기초하여 표시될 수 있다.
도시된 예에서, 제1 상황 인식 메뉴(1600)는 상황 인식 커뮤니케이션을 전송하는 것과 다른 사용자 입력에 응답하여 표시될 수 있다. 예를 들어, 상황 인식 메뉴(1600)는 커뮤니케이션을 생성하기 위한 버튼을 눌렀다 떼는 대신 버튼을 누르고 있으면 표시될 수 있다. 다른 예에서, 상황 인식 커뮤니케이션을 전송하는 것과 상황 인식 커뮤니케이션 메뉴를 여는 것을 구별하기 위해 별도의 키가 사용될 수 있다.
도시된 예에서, 제1 상황 인식 메뉴(1600)는 플레이어의 캐릭터가 다양한 액션들을 수행할 수 있는 게임 상태 동안 상황 인식 커뮤니케이션을 생성하기 위한 버튼을 누르고 있는 것에 응답하여 표시된다. 제2 상황 인식 메뉴(1620)는 플레이어의 캐릭터가 전투 중에 다쳤거나 쓰러진 경우 등 원래의 다양한 액션들을 수행할 수 없는 제2 게임 상태 동안 상황 인식 커뮤니케이션을 생성하기 위한 버튼을 누르고 있는 것에 응답하여 표시된다.
제1 메뉴(1600)는 원하는 커뮤니케이션 액션을 나타내는 아이콘의 방향으로 마우스의 방향을 움직이는 것 및/또는 상황 인식 커뮤니케이션을 생성하기 위한 버튼을 떼는 것 등의 제2 사용자 입력을 통해 선택될 수 있는 복수의 옵션들을 표시하기 위해 열릴 수 있다. 제1 메뉴(1600)는 도 2와 관련하여 설명된 바와 같이 상황 인식 커뮤니케이션 액션을 전송하기 위한 제1 아이콘(1601), "Enemy spotted" 유형의 커뮤니케이션 액션을 전송하기 위한 제2 아이콘(1602), "Looting here" 유형의 커뮤니케이션 액션을 전송하기 위한 제3 아이콘(1603), "Attacking here" 유형의 커뮤니케이션 액션을 전송하기 위한 제4 아이콘(1604), "Going here" 유형의 커뮤니케이션 액션을 전송하기 위한 제5 아이콘(1605), "Defending here" 유형의 커뮤니케이션 액션을 전송하기 위한 제6 아이콘(1607), "Watching here" 유형의 커뮤니케이션 액션을 전송하기 위한 제7 아이콘(1608), 및 "Someone's been here" 유형의 커뮤니케이션 액션을 전송하기위한 제8 아이콘(1609)을 포함한다. 다른 예들은 제1 메뉴(1600)에서 더 많거나 더 적은 커뮤니케이션 액션들 및/또는 다른 유형들의 커뮤니케이션 액션들을 포함할 수 있다. 커뮤니케이션 액션들은 다른 팀의 팀원들이 볼 수 있도록 시각적 지시자를 해당 플레이어에 의해 주시되고 있는 목표 위치에 생성함으로써, 및/또는 다른 플레이어들에게 재생되는 대응 사운드를 유발함으로써 실행될 수 있다.
제2 메뉴(1620)는 원하는 커뮤니케이션 액션을 나타내는 아이콘의 방향으로 마우스의 방향을 움직이는 것 및/또는 상황 인식 커뮤니케이션을 생성하기 위한 버튼을 떼는 것 등의 제2 사용자 입력을 통해 선택될 수 있는 제2 복수의 옵션들을 표시하기 위해 열릴 수 있다. 제2 메뉴(1620)는 "Help me" 유형의 커뮤니케이션 액션을 전송하기 위한 제 1 아이콘(1621), 도 2와 관련하여 설명된 바와 같이 상황 인식 커뮤니케이션 액션을 전송하기 위한 제2 아이콘(1601), 및 "Enemy spotted" 유형의 커뮤니케이션 액션을 전송하기 위한 제3 아이콘(1602)을 포함한다. 다른 예들은 제2 메뉴(1620)에서 더 많거나 더 적은 커뮤니케이션 액션들 및/또는 다른 유형들의 커뮤니케이션 액션들을 포함할 수 있다. 커뮤니케이션 액션들은 다른 팀의 팀원들이 볼 수 있도록 시각적 지시자를 해당 플레이어에 의해 주시되고 있는 목표 위치에 생성함으로써, 및/또는 다른 플레이어들에게 재생되는 대응 사운드를 유발함으로써 실행될 수 있다.
예를 들어, "Help me" 커뮤니케이션 액션은 플레이어의 팀원들이 들을 수 있도록 플레이어의 캐릭터가 "I need help"라고 외치게 할 수 있고, 플레이어의 팀원들이 볼 수 있도록 플레이어의 캐릭터의 위치를 표시하게 할 수 있다.
키 바인딩(binding)
플레이어들은 상황 인식 커뮤니케이션을 전송하기 위해 사용자 입력 바인딩을 사용자 정의할 수 있다. 예를 들어, 콘솔 컨트롤러에서 플레이어는 "A", "X", 또는 우측 범퍼 등의 제1 버튼을 눌렀다가 신속하게 떼는 것을 상황 인식 커뮤니케이션을 전송하기 위한 사용자 입력 명령으로 바인딩할 수 있다. 개인용 컴퓨터의 플레이어는 임의의 키보드 버튼, 마우스 버튼 또는 다른 입력 장치들의 기타 입력을 눌렀다가 신속하게 떼는 것을 바인딩할 수 있다.
도 16에 도시된 메뉴들(1600, 1620)과 같이, 상황 인식 커뮤니케이션 메뉴를 불러오기 위해 다른 사용자 입력이 사용될 수 있다. 예를 들어, 콘솔 컨트롤러에서, 플레이어는 제1 버튼을 누르고 있는 것을 상황 인식 커뮤니케이션 메뉴를 표시하기 위한 사용자 입력 명령으로 바인딩할 수 있고, 또는 "B", "Y", 또는 좌측 범퍼 등의 별도의 버튼을 눌렀다가 신속하게 떼는 것을 상황 인식 커뮤니케이션 메뉴를 표시하기 위한 사용자 입력 명령으로 바인딩할 수 있다. 플레이어는 제1 버튼을 누르고 있는 것을 상황 인식 커뮤니케이션 메뉴를 표시하기 위한 사용자 입력 명령으로 바인딩할 수 있고, 또는 마우스 휠 등의 별도의 버튼을 눌렀다가 신속하게 떼는 것을 상황 인식 커뮤니케이션 메뉴를 표시하기 위한 사용자 입력으로 바인딩할 수 있다.
다른 사용자 입력들은 특정 커뮤니케이션 액션들에 바인딩될 수 있다. 예를 들어, 상황 인식 커뮤니케이션을 전송하기 위해 사용자 입력을 빠르게 두 번 두드리는 것은 "Enemy spotted" 마커 및 오디오 커뮤니케이션이 수행되게 할 수 있다. 고유한 사용자 입력들은 본 명세서에 개시된 다른 유형들의 커뮤니케이션 액션들 중 임의의 것에 할당될 수 있다.
메뉴에서 핑(ping)의 예
도 17은 일실시예에 따른 비디오 게임에서 인벤토리 메뉴(1700)를 도시한다. 도 17을 참조할 때, 인벤토리 메뉴(1700)는 복수의 인벤토리 아이콘들을 보여준다. 에너지 탄약을 나타내는 인벤토리 아이콘(1703) 위에 커서(1701)가 위치하여, 정보 박스(1705)가 표시되게 한다. 도 2와 관련하여 설명된 프로세스(200)에 따라, 플레이어가 팀원들에게 더 많은 에너지 탄약을 요청하는 상황 인식 커뮤니케이션 액션은 플레이어에게 이용 가능하게 될 수 있다. 스크린의 중심을 사용하는 대신, 커서(1701)는 플레이어가 주시하고 있는 유닛을 식별하기 위한 기준점으로 사용될 수 있다. 정보 박스(1705)는 상황 인식 커뮤니케이션을 위한 사용자 입력(예를 들어, 왼쪽 alt 버튼)이 "Request Ammo"로 활성화될 수 있음을 지시할 수 있다. 이에 응답하여, 플레이어의 캐릭터는 플레이어의 팀원들에게 "I need energy ammo"라고 말할 수 있다.
플레이어의 커서가 수류탄 아이콘과 같은 다른 아이콘 위로 이동한 경우, 상황 인식 커뮤니케이션을 위한 사용자 입력(예를 들어, 왼쪽 alt 버튼)을 제공하는 플레이어에 응답하여, 캐릭터는 "I need more grenades”라고 말할 수 있다. 플레이어의 커서가 바디 쉴드의 아이콘 위에 있는 경우, 상황 인식 커뮤니케이션을 위한 사용자 입력(예를 들어, 왼쪽 alt 버튼)을 제공하는 플레이어에 응답하여, 플레이어의 캐릭터는 “I need better body armor"라고 말할 수 있다. 플레이어가 상황 인식 커뮤니케이션을 위한 사용자 입력을 제공할 때 플레이어가 어떤 아이콘을 주시하고 있는지에 따라 다양한 상황 별 음성 대사가 캐릭터에 의해 발화될 수 있다. 음성 대사에 추가적으로 또는 대안적으로, 요청하는 플레이어의 캐릭터의 위치에 마커가 시각적으로 보일 수 있다.
다른 실시예들
일부 비디오 게임에서, 플레이어가 비디오 게임을 플레이하기 위해 선택한 캐릭터에 적어도 부분적으로 기초하여, 특정 커뮤니케이션 액션들, 시각적 표시들 및/또는 사운드들을 수행 및/또는 수신하는 플레이어의 능력은 커뮤니케이션 액션들, 시각적 표시들 및/또는 사운드들의 부분 집합으로 제한될 수 있다. 예를 들어, 특정 캐릭터들은 다른 캐릭터들로 플레이할 때 사용할 수 없는 특정 커뮤니케이션 액션들을 생성할 수 있다.
일부 비디오 게임에서, 특정 기술을 사용하는 것과 같은 상황 인식 커뮤니케이션 액션은 게임 내에서 특정 액션을 수행하는 특정 캐릭터에 응답하여, 팀에서 하나 또는 그 이상의 캐릭터들에 의해 자동으로 수행될 수 있다. 예를 들어, 위치들 간의 포털을 만들 수 있는 캐릭터는 팀에게 "Creating a portal"을 발화하여 알리고, 해당 캐릭터가 포털을 만들 때마다 포털의 위치에 마커가 표시되게 할 수 있다.
일부 비디오 게임에서, 상황 인식 커뮤니케이션 액션은 게임 내에서 발생하는 특정 이벤트들에 응답하여 팀에서 하나 또는 그 이상의 캐릭터들에 의해 자동으로 수행될 수 있다. 예를 들어, 새로운 보급품 아이템들이 가상 환경으로 떨어지면, 적어도 한 명의 플레이어가 “New items dropping over there”를 발화하여 알리고, 떨어진 위치에 마커가 표시되게 할 수 있다.
컴퓨팅 장치의 개요
도 18은 일실시예에 따른 컴퓨팅 시스템(1800)을 도시한다. 도 18을 참조할 때, 컴퓨팅 시스템(1800)의 다른 실시예는 컴퓨팅 장치(100)에 구성요소들(components)을 제거하거나 또는 추가하는 것과 같이, 본 명세서에 명시적으로 기재된 실시예들을 대체할 수 있다. 컴퓨팅 시스템(1800)은 게임 장치, 스마트 폰, 태블릿, 개인용 컴퓨터, 랩탑, 스마트 텔레비전, 자동차 콘솔 디스플레이, 서버 등을 포함할 수 있다. 도시된 바와 같이, 컴퓨팅 시스템(1800)은 컴퓨팅 시스템(1800)의 다른 구성요소들 및 컴퓨팅 시스템(1800) 외부의 구성요소들과 상호 작용하는 프로세싱 유닛(processing unit)(20)을 포함한다. 미디어와 통신하는 미디어 판독기가 포함된다. 미디어 판독기는 CD-ROM 또는 DVD 등의 광 디스크를 판독할 수 있는 광 디스크 판독기, 또는 게임 미디어로부터 데이터를 수신 및 판독할 수 있는 임의의 다른 유형의 판독기에 해당할 수 있다. 하나 또는 그 이상의 컴퓨팅 장치들은 본 명세서에 개시된 하나 또는 그 이상의 시스템들을 구현하기 위해 사용될 수 있다.
컴퓨팅 시스템(1800)은 별도의 그래픽 프로세서(24)를 포함할 수 있다. 경우에 따라, 그래픽 프로세서(24)는 프로세싱 유닛(20)에 내장될 수 있다. 이 경우, 그래픽 프로세서(24)는 랜덤 액세스 메모리(RAM)를 프로세싱 유닛(20)과 공유할 수 있다. 대안적으로 또는 추가적으로, 컴퓨팅 시스템(1800)은 프로세싱 유닛(20)과 분리된 별도의 그래픽 프로세서(24)를 포함할 수 있다. 이 경우, 그래픽 프로세서(24)는 프로세싱 유닛(20)과 별도의 RAM을 가질 수 있다. 컴퓨팅 시스템(1800)은 휴대용 비디오 게임 장치, 전용 게임 콘솔 컴퓨팅 시스템, 범용 랩탑 또는 데스크탑 컴퓨터, 스마트 폰, 태블릿, 자동차 콘솔 또는 다른 적절한 시스템일 수 있다.
컴퓨팅 시스템(1800)은 또한 I/O(32), 사용자 I/O(34), 디스플레이 I/O(36) 및 네트워크 I/O(38)와 같은 입력/출력을 가능하게 하는 다양한 구성요소들을 포함한다. I/O(32)는 컴퓨팅 시스템(1800)을 위한 저장소를 제공하기 위해 저장소(40) 및 장치(42)를 통해 이동식 저장소(44)와 상호 작용한다. 프로세싱 유닛(20)은 게임 상태 데이터 및 임의의 공유 데이터 파일 등의 데이터를 저장하기 위해 I/O(32)를 통해 통신할 수 있다. 저장소(40) 및 이동식 저장소(44) 매체에 더하여, 컴퓨팅 시스템(1800)은 ROM(Read-Only Memory)(46) 및 RAM(48)을 더 포함하는 것으로 도시되어 있다. RAM(48)은 게임이 플레이되는 경우 또는 이상감지(fraud detection)가 수행되는 경우 등과 같이 자주 접근(access)되는 데이터에 사용될 수 있다.
사용자 I/O(34)는 프로세싱 유닛(20) 및 게임 컨트롤러와 같은 사용자 장치 사이에서 명령을 송수신하기 위해 사용된다. 일부 예에서, 사용자 I/O는 터치 스크린 입력들을 포함할 수 있다. 터치 스크린은 정전식 터치 스크린(capacitive touchscreen), 저항식 터치 스크린(resistive touchscreen), 또는 사용자로부터 촉각적 입력을 통해 사용자 입력을 수신하도록 구성된 기타 유형의 터치 스크린 기술일 수 있다. 디스플레이 I/O(36)는 플레이되고 있는 게임의 이미지를 표시하는 데 사용되는 입력/출력 기능들을 제공한다. 네트워크 I/O(38)는 네트워크를 위한 입력/출력 기능들을 위해 사용된다. 네트워크 I/O(38)는 게임이 온라인으로 플레이되고 있거나 온라인에 액세스되고 있는 등 게임의 실행 동안 및/또는 이상감지의 적용 및/또는 이상감지 모델의 생성 등에 사용될 수 있다.
디스플레이 I/O(36)에 의해 생성된 디스플레이 출력 신호들은 그래픽, 사용자 인터페이스, 비디오 및/또는 다른 시각적 컨텐츠와 같은 디스플레이 장치 상의 컴퓨팅 시스템(1800)에 의해 생성된 시각적 컨텐츠를 표시하기 위한 신호들을 포함(comprising)할 수 있다. 컴퓨팅 시스템 (1800)은 디스플레이 I/O(36)에 의해 생성된 디스플레이 출력 신호들을 수신하도록 구성된 하나 또는 그 이상의 통합된 디스플레이들을 포함할 수 있다. 일부 예들에 따르면, 디스플레이 I/O(36)에 의해 생성된 디스플레이 출력 신호들은 디스플레이와 같은 컴퓨터 시스템(1800) 외부의 하나 또는 그 이상의 디스플레이 장치들로 출력될 수도 있다.
컴퓨팅 시스템(1800)은 또한 클럭(50), 플래시 메모리(52), 및 기타 구성요소들과 같은 게임에 사용될 수 있는 다른 특징을 포함할 수 있다. 오디오/비디오 플레이어(56)는 또한 영화와 같은 비디오 시퀀스를 재생하는데 사용될 수 있다. 다른 구성요소들이 컴퓨팅 시스템(1800)에 제공될 수 있으며, 동일한 기술 분야에 관한 통상의 지식을 가진 기술자(이하, 통상의 기술자)는 컴퓨팅 시스템 (1800)의 다른 변형을 실시할 수 있는 것으로 이해되어야 한다.
프로그램 코드는 ROM(46), RAM(48) 또는 저장소(40)(하드 디스크, 다른 자기 저장 장치(magnetic storage), 광학 저장 장치(optical storage), 다른 비휘발성 저장 장치(non-volatile storage) 또는 이들의 조합 또는 이들의 변형을 포함할 수 있음)에 저장 될 수 있다. 프로그램 코드의 일부는 프로그램 가능한 ROM (ROM, PROM, EPROM, EEPROM 등)에 저장될 수 있고, 프로그램 코드의 일부는 저장소(40) 및/또는 게임 미디어와 같은 이동식 미디어(CD-ROM, 카트리지, 메모리 칩 등일 수 있거나, 필요에 따라 네트워크 또는 기타 전자 채널을 통해 획득될 수 있음)에 저장될 수 있다. 일반적으로, 프로그램 코드는 유형(tangible)의 비일시적(non-transitory) 신호 베어링(signal-bearing) 매체에 구현되어 있는 것으로 발견될 수 있다.
랜덤 액세스 메모리(RAM)(48) (및 가능한 다른 저장 장치)는 변수 및 다른 게임 및 프로세서 데이터를 필요에 따라 저장하는데 사용될 수 있다. RAM은 어플리케이션의 실행 동안 생성된 데이터를 보유하며, 이들의 일부는 또한 프레임 버퍼, 어플리케이션 상태 정보 및/또는 사용자 입력을 해석하고 디스플레이 출력을 생성하는데 필요하거나 사용될 수 있는 기타 데이터를 위해 사용될 수 있다. 보편적으로, RAM(48)은 휘발성 저장 장치이고, RAM(48) 내에 저장된 데이터는 컴퓨팅 시스템 (1800)이 꺼지거나 전력을 잃었을 때 손실될 수 있다.
컴퓨팅 시스템(1800)이 미디어를 판독하고 어플리케이션을 제공함에 따라, 정보는 게임 미디어로부터 판독되고 RAM(48)과 같은 메모리 장치에 저장될 수 있다. 추가적으로, 저장소(40), ROM(46), 네트워크(도시되지 않음)를 통해 액세스 된 서버들 또는 이동식 저장소(46) 미디어로부터의 데이터는 RAM(48)에서 판독되거나 로딩될 수 있다. 데이터는 RAM(48)에서 발견되는 것으로 설명되었으나, 데이터는 RAM(48)에 저장될 필요가 없고, 프로세싱 유닛(20)이 액세스할 수 있는 다른 메모리 또는 미디어 및 저장소(40)와 같은 여러 미디어에 분산된 다른 메모리에 저장될 수 있는 것으로 이해할 것이다.
본 명세서에 기술된 임의의 특정 실시예서 반드시 모든 목적 또는 이점이 달성될 필요는 없는 것으로 이해되어야 한다. 따라서, 예를 들어, 통상의 기술자는 일실시예가 본 명세서에서 교시되거나 제안될 수 있는 다른 목적 또는 이점을 반드시 달성하지 않으면서 본 명세서에서 교시된 바와 같은 하나의 이점 또는 이점들의 그룹을 달성하거나 최적화하는 방식으로 작동하도록 구성될 수 있음을 인식할 것이다.
본 명세서에 기술된 모든 프로세스들은 하나 또는 그 이상의 컴퓨터 또는 프로세서들을 포함하는 컴퓨팅 시스템에 의해 실행되는 소프트웨어 코드 모듈들을 통해 구현될 수 있고, 완전히 자동화될 수 있다. 코드 모듈들은 임의의 유형의 비 일시적 컴퓨터 판독 가능 매체 또는 기타 컴퓨터 저장 장치에 저장될 수 있다. 일부 또는 모든 방법들은 특수화된 컴퓨터 하드웨어로 구현될 수 있다.
본원에 기재된 것 외의 많은 다른 변형 실시예들은 본 명세서의 개시로부터 명백할 것이다. 예를 들어, 실시예에 따라, 본 명세서에 설명된 임의의 알고리즘들의 특정 액션들, 이벤트들 또는 기능들은 상이한 순서로 수행될 수 있거나, 추가, 병합 또는 생략되어 수행될 수 있다(예를 들어, 기재된 모든 액션들 또는 이벤트들이 알고리즘들을 수행하기 위해 반드시 필요한 것은 아님). 더욱이, 특정 실시예들에서, 액션들 또는 이벤트들은 예를 들어, 멀티-스레드 처리(multi-threaded processing), 인터럽트 처리(interrupt processing), 또는 다중 프로세서들(multiple processors) 또는 프로세서 코어들(processor cores) 또는 기타 병렬적 아키텍처들을 통해 순차적이 아닌 동시에 수행될 수 있다. 이에 더하여, 서로 다른 동작들 또는 프로세스들은 함께 작동할 수 있는 다른 기계들 및/또는 컴퓨팅 시스템들에 의해 수행될 수 있다.
본 명세서에 개시된 실시예와 관련하여 예시적으로 설명된 다양한 논리 블록들 및 모듈들은 처리 장치 또는 프로세서, DSP(digital signal processor), ASIC (application specific integrated circuit), FPGA (Field Programmable Gate Array), 또는 기타 PLD(programmable logic device) 등의 기계 또는 본 명세서에 기술된 기능emf을 수행하도록 설계된 이산 게이트(discrete gate), 이산 트랜지스터 로직(discrete transistor logic), 이산 하드웨어 구성요소들(discrete hardware components), 또는 이들의 임의의 조합 등에 의해 구현되거나 수행될 수 있다. 프로세서는 마이크로 프로세서(microprocessor) 일 수 있지만, 대안적으로 프로세서는 컨트롤러(controller), 마이크로 컨트롤러(microcontroller) 또는 상태 기계(state machine), 또는 이들의 조합 등일 수 있다. 프로세서는 컴퓨터 실행 가능 명령어들(computer-executable instructions)을 처리하도록 구성된 전기 회로를 포함할 수 있다. 다른 예에서, 프로세서는 컴퓨터 실행 가능 명령어들의 처리없이 논리 액션들을 수행하는 FPGA 또는 다른 PLD를 포함한다. 프로세서는 또한 컴퓨팅 장치들의 조합, 예를 들어 DSP와 마이크로 프로세서의 조합, 복수의 마이크로 프로세서들, DSP 코어와 하나 이상의 마이크로 프로세서들, 또는 임의의 기타 구성으로 구현될 수 있다. 본 명세서에서는 주로 디지털 기술과 관련하여 설명되었지만, 프로세서는 아날로그 구성 요소들 또한 주요하게 포함할 수 있다. 예를 들어, 본 명세서에 설명된 신호 처리 알고리즘들 중 일부 또는 전부는 아날로그 회로 또는 아날로그 및 디지털 회로의 조합으로 구현될 수 있다. 컴퓨팅 환경은 몇 가지 예를 들면, 마이크로 프로세서, 메인프레임 컴퓨터(mainframe computer), 디지털 신호 프로세서, 휴대용 컴퓨팅 장치, 디바이스 컨트롤러(device controller) 또는 장치 내에 있는 컴퓨터 엔진 등을 기반으로 하는 컴퓨터 시스템을 포함하지만 이에 제한되지 않는 임의의 유형의 컴퓨터 시스템을 포함 할 수 있다.
달리 구체적으로 언급되지 않는 한, "할 수 있다", "할 것이다" 등과 같은 조건부 표현은 일반적으로 사용되는 문맥에 따라 특정 특징들, 요소들 및/또는 단계들을 특정 실시예들은 포함하고, 반면 다른 실시예들은 포함하지 않는 것으로 이해된다. 따라서, 이러한 조건부 표현은 일반적으로 하나 이상의 실시예에서 특정 특징들, 요소들 및/또는 단계들이 반드시 요구되거나, 하나 이상의 실시예에서 결정을 위한 논리, 사용자 입력 또는 프롬프트의 여부, 특징들, 요소들, 및/또는 단계들이 포함되었는지 또는 수행되었는지 여부가 특정 실시예에서 반드시 포함되어야 한다는 의미하거나 암시하는 것은 아니다.
달리 구체적으로 언급되지 않는 한, "X, Y 및 Z 중 적어도 하나"라는 표현과 동일하게 해석되는 표현은 일반적으로 사용되는 문맥에 따른 항목, 용어 등을 나타내는 X, Y, 또는 Z, 또는 이들의 임의의 조합(예를 들어, X, Y 및/또는 Z)으로 이해된다. 따라서, 이러한 표현은 일반적으로 특정 실시예가 X 중 적어도 하나, Y 중 적어도 하나 또는 Z 중 적어도 하나를 필요로 한다는 것을 의미하거나 암시하는 것은 아니다.
본 명세서에 기술되고/거나 첨부된 도면에 도시된 흐름도들 내의 임의의 프로세스 명세들, 요소들 또는 블록들은 해당 프로세스 내의 특정한 논리적 기능들 또는 요소들을 구현하기 위한 하나 이상의 실행 가능한 명령들을 포함하는 모듈들, 세그먼트들 또는 코드의 부분들 잠재적으로 나타내는 것으로 이해되어야 한다. 대안적인 구현들은 본 명세서에 설명된 실시예들의 범위 내에 포함되며, 여기서, 요소들 또는 기능들은 통상의 기술자에 의해 이해될 수 있는 기능에 따라 도시된 또는 설명된 순서에서 삭제되거나, 다른 순서(실질적으로 동시에 또는 반대의 순서를 포함)로 실행될 수 있다.
달리 명시적으로 언급되지 않는 한, 복수로 기재되지 않은 명사의 경우에도 일반적으로 하나 이상의 설명된 항목을 포함하는 것으로 해석되어야 한다. 따라서, "~로 구성된 장치"와 같은 문구는 하나 이상의 인용된 장치를 포함하는 것을 의도한다. 이러한 하나 이상의 인용된 장치는 또한 언급된 인용들을 수행하기 위해 집합 적으로 구성될 수 있다. 예를 들어, "인용 A, B 및 C를 수행하도록 구성된 프로세서"는 인용 A를 수행하도록 구성된 제1 프로세서 및 인용 B 및 C를 수행하도록 구성된 제2 프로세서가 결합한 것을 포함할 수 있다.
전술한 실시예에 대해 많은 변형 및 수정이 이루어질 수 있으며, 그들의 요소는 다른 허용 가능한 예들 중 하나인 것으로 이해되어야 한다. 이러한 모든 수정 및 변형은 본 명세서에서 개시한 범위 내에 포함되는 것을 의도한다.
기타 실시예들
기타 실시예들은 다음을 포함한다.
1. 비디오 게임에서 추론된 의도들에 따른 스마트 커뮤니케이션들을 전송하기 위한 컴퓨터 시스템에 있어서,
컴퓨터 판독 가능 명령어들(computer-readable instructions); 및 가상 환경 내의 제1 유닛 유형, 하나 또는 그 이상의 다른 사용자들에게 전달되는 제1 커뮤니케이션 액션, 및 제1 임계 거리 사이의 제1 연결 관계를 지시하는 데이터를 저장하는 하나 또는 그 이상의 데이터 저장소들(data stores); 및
상기 컴퓨터 판독 가능 명령어들을 실행하여 상기 컴퓨터 시스템이,
버튼과 제1 상호 작용을 하는 상기 제1 사용자에 대한 실시간 응답으로써, 상기 제1 사용자에 의해 지시된 상기 가상 환경 내의 제1 목표 위치를 획득;
상기 가상 환경 내에서 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 제1 인-게임 유닛을 검출; 및
상기 검출에 응답하고, 제1 사용자에 의한 커뮤니케이션들을 전송하기 위한 버튼과의 제1 상호 작용에 응답하여, 상기 제1 커뮤니케이션 액션을 제2 사용자에게 통신(communicate)되도록 구성된 데이터를 전송
하도록 구성된 하나 또는 그 이상의 프로세서들
을 포함하는,
컴퓨터 시스템.
2. 실시예 1의 컴퓨터 시스템에 있어서,
상기 데이터는 제2 유닛 유형, 제2 커뮤니케이션 액션 및 제2 임계 거리 사이의 제2 연결 관계를 더 지시하고,
상기 하나 또는 그 이상의 프로세서들은 상기 컴퓨터 판독 가능 명령어들을 실행하여 상기 컴퓨터 시스템이,
상기 제2 상호 작용을 생성하는 상기 제1 사용자에 대한 실시간 응답으로써, 상기 제1 사용자에 의해 지시된 상기 가상 환경 내의 제2 목표 위치를 획득;
상기 가상 환경 내에서 상기 제2 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 유닛이 없다고 결정;
상기 가상 환경 내에서 상기 제2 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제2 유닛 유형의 제2 유닛을 검출; 및
상기 가상 환경 내에서 상기 제2 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제2 유닛 유형의 제2 유닛의 검출에 응답하고, 상기 제1 사용자에 의한 상기 버튼과의 제2 상호 작용에 대한 응답에 응답하여, 상기 제2 사용자에게 상기 제2 커뮤니케이션 액션을 유발하는 명령어들을 전송
하도록 더 구성된
컴퓨터 시스템.
3. 실시예 1에서, 상기 제1 유닛 유형은 아이템 유형 또는 영토 중 하나인 컴퓨터 시스템.
4. 실시예 1에서,
상기 가상 환경은 3차원으로 시뮬레이션 되고;
상기 제1 목표 위치는 상기 가상 환경을 통한 자취의 끝에 위치한 3차원 위치에 있으며, 상기 자취는 제1 사용자에 의해 배치된 가위표(reticle), 타겟, 커서, 마커 또는 방향으로부터 시작하고; 및
상기 제1 유닛의 3차원 위치로부터의 3차원 거리를 계산하는 단계를 포함함으로써, 상기 가상 환경 내에서 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 상기 제1 유닛을 검출하는 단계
를 더 포함하는
컴퓨터 시스템.
5. 실시예 1에서,
상기 가상 환경은 3차원으로 시뮬레이션되고;
상기 제1 목표 위치는 제1 사용자에 의해 보여지는 상기 가상 환경의 2차원 투영 상의 2차원 위치에 있으며;
상기 2차원 위치와 상기 제1 유닛 사이의 2차원 거리를 계산하는 단계를 포함함으로써, 상기 가상 환경 내에서 제1 목표 위치로부터의 제1 임계 거리 내에 있는 제1 유닛 유형의 제1 유닛을 검출하는
컴퓨터 시스템.
6. 실시예 1에 있어서,
상기 커뮤니케이션 액션은
오디오를 재생하는 것; 텍스트를 시각적으로 표시하는 것; 또는 유닛으로써의 시각적 마커를 생성하는 것
중 적어도 하나를 포함하는
컴퓨터 시스템.
7. 실시예 1에 있어서, 상기 컴퓨터 시스템은
상기 커뮤니케이션 액션은 적어도 인터페이스 유닛으로써의 시각적 마커를 생성하는 것을 포함하고;
상기 데이터는 상기 시각적 마커, 상기 제1 커뮤니케이션 액션에 대한 응답을 포함하는 제2 커뮤니케이션 액션 및 제2 임계 거리 사이의 제2 연결 관계를 더 지시하고; 및
상기 하나 또는 그 이상의 프로세서들은 상기 컴퓨터 판독 가능 명령어들을 실행하여 상기 컴퓨터 시스템이,
상기 제2 상호 작용을 생성하는 상기 제2 사용자에 대한 실시간 응답으로써, 상기 제2 사용자에 의해 지시된 상기 가상 환경 내의 제2 목표 위치를 획득;
상기 가상 환경 내에서 상기 제2 목표 위치로부터 상기 제2 임계 거리 내에 있는 상기 시각적 마커를 검출; 및
상기 가상 환경 내에서 상기 제2 목표 위치로부터 상기 제2 임계 거리 내에 있는 상기 시각적 마커의 검출에 응답하고, 상기 제2 사용자에 의한 제 2 버튼과의 제2 상호 작용에 대한 응답에 응답하여, 상기 제1 사용자에게 상기 제2 응답 커뮤니케이션 액션을 유발하도록 구성된 명령어들을 전송
하도록 더 구성된
컴퓨터 시스템.
8. 실시예 7에 있어서,
상기 시각적 마커는 초기 시간 길이 동안 표시되도록 구성되고; 및
상기 시간 길이는 상기 시각적 마커가 상기 가상 환경 내에 제2 목표 위치로부터 제2 임계 거리 내에 있다는 검출에 응답하여 변경되도록 구성되는
컴퓨터 시스템.
9. 비디오 게임에서 상황 인식 커뮤니케이션들을 전송하기 위한 컴퓨터로 구현되는 방법에 있어서,
제1 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여, 제1 목표 위치를 획득하는 단계;
상기 제 1 목표 위치로부터 제1 임계 거리 내에 있는 제1 유닛 유형의 제1 인-게임 유닛을 검출하는 단계;
상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 제1 인-게임 유닛을 검출; 및 상기 제1 유닛 유형과 관련되고 상기 제1 커뮤니케이션 액션과 관련된 제1 우선 순위에 적어도 부분적으로 기초하여, 상기 제1 커뮤니케이션 액션을 선택하는 단계; 및
상기 제1 사용자가 상황 인식 커뮤니케이션을 전송하기 위하여 처음으로 제1 사용자 입력을 제공함에 응답하여, 상기 제1 커뮤니케이션 액션이 제2 사용자에게 통신(communicate)되도록 하는 데이터를 전송하는 단계
를 포함하는
컴퓨터로 구현되는 방법.
10. 실시예 9에 있어서,
상기 제 1 사용자에 의해 제공된 후속 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계;
상기 제2 목표 위치로부터 제2 임계 거리 내에 있는 제2 유닛 유형의 제2 인-게임 유닛을 검출하는 단계 - 인-게임 유닛의 상기 제2 유형은 인-게임 유닛의 상기 제1 유형과 상이함 -;
상기 제2 목표 위치로부터 상기 제2 임계 거리 내에 있는 상기 제2 유닛 유형의 상기 제2 인-게임 유닛의 검출; 및 상기 제2 유닛 유형과 관련되고 제 2 커뮤니케이션 액션과 관련된 제2 우선 순위에 적어도 부분적으로 기초하여, 상기 제2 커뮤니케이션 액션을 선택하는 단계; 및
상기 제1 사용자가 두번째로 상기 제1 사용자 입력을 제공함에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제2 사용자에게 유발하는 데이터를 전송하는 단계 - 상기 제2 커뮤니케이션 액션은 상기 제1 커뮤니케이션 액션과 상이함 -
를 더 포함하는
컴퓨터로 구현되는 방법.
11. 실시예 10에 있어서,
상기 제1 사용자가 두번째로 상기 제1 사용자 입력을 제2 시간에 제공할 때, 상기 제1 유닛 유형의 제1 인-게임 유닛은 상기 제2 목표 위치로부터 상기 제1 임계 거리 내에 있고; 및
상기 제2 우선 순위는 상기 제1 우선 순위보다 우선 순위가 높은
컴퓨터로 구현되는 방법.
12. 실시예 9에 있어서,
상기 제1 목표 위치는
상기 제1 사용자에 의해 제어되는 커서 또는 포인터의 위치; 상기 제1 사용자에 의해 제어되는 가위표, 십자선, 조준, 발사체 경로 또는 시선;
제1 사용자에 의해 제어되는 스크린의 위치 또는 시야;
또는 제1 사용자에 의해 제어되는 캐릭터의 위치 또는 방향
중 하나 이상에 적어도 부분적으로 기초하여 결정된 가상 환경 내의 위치인
컴퓨터 구현 방법.
13. 실시예 9에 있어서,
상기 제1 목표 위치는
상기 제1 사용자에 의해 제어되는 시작점에서 시작되는 가상 환경을 통한 자취 또는 시선; 또는
상기 제1 사용자에 의해 제어되는 시작점으로부터 시작되는 가상 환경을 통한 발사체 경로
중 하나 이상에 적어도 부분적으로 기초하여 결정되는
컴퓨터로 구현되는 방법.
14. 실시예 9에 있어서,
상기 비디오 게임이 이루어지는 가상 환경은 공간 차원이 3이고;
상기 제1 목표 위치는 3차원 위치이고; 및
상기 제1 임계 거리는 3차원의 공간을 통해 측정되는
컴퓨터로 구현되는 방법.
15. 실시예 9에 있어서,
상기 비디오 게임이 이루어지는 가상 환경은 공간 차원이 3이고;
상기 제1 목표 위치는 2차원 공간의 시야를 통해 보여지는 2차원 위치이고; 및
상기 제1 임계 거리는 2차원의 공간을 통해 측정되는
컴퓨터로 구현되는 방법.
16. 실시예 9에 있어서,
상기 제1 임계 거리는
상기 비디오 게임 내의 에임 어시스트(aim-assist) 또는 오도 에임(auto-aim) 모듈에 의해 사용되는 제2 임계 거리에 적어도 부분적으로 기초하는
컴퓨터로 구현되는 방법.
17. 실시예 9에 있어서,
상기 제1 커뮤니케이션 액션을 선택하는 단계는
상기 제1 인-게임 유닛과 상기 제1 목표 위치 사이의 제1 거리가 제2 인-게임 내 유닛과 상기 제1 목표 위치 사이의 제2 거리보다 짧다는 결정에 적어도 부분적으로 기초하고, 상기 제2 인-게임 유닛은 상기 제1 유닛 유형에 해당하며 상기 제 1 목표 위치로부터 상기 제1 임계 거리 내에 있고,
상기 제1 커뮤니케이션 액션은 상기 제1 유닛의 위치를 시각적으로 마킹하는 것을 포함하는
컴퓨터로 구현되는 방법.
18. 실시예 9에 있어서,
상기 제1 유닛의 제1 위치에 적어도 부분적으로 기초하여 상기 제1 커뮤니케이션 액션을 동적으로 커스터마이징하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
19. 실시예 9에 있어서,
상기 제1 커뮤니케이션 액션은
적어도 하나의 다른 커뮤니케이션 액션에 사용되는 적어도 하나의 다른 시각적 마커와 상이한 제1 시각적 마커로 제1 유닛의 위치를 시각적으로 마킹하는 것을 포함하는
컴퓨터로 구현되는 방법.
20. 실시예 19에 있어서,
상기 비디오 게임이 이루어지는 가상 환경 내의 유닛으로써, 상기 제1 시각적 마커를 생성하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
21. 실시예 19에 있어서,
상기 비디오 게임이 이루어지는 가상 환경 내의 유닛, 인터페이스 유닛 또는 오버레이로써 상기 제1 시각적 마커를 생성하는 단계
를 더 포함하고,
상기 제2 사용자에게 표시되는 제1 시각적 마커의 크기는 상기 제1 유닛의 제1 위치 및 가상 환경을 보는 제2 사용자의 제2 위치 사이의 거리와 무관한
컴퓨터로 구현되는 방법.
22. 실시예 19에 있어서,
상기 비디오 게임이 이루어지는 가상 환경 내의 유닛, 인터페이스 유닛 또는 오버레이로써 상기 제1 시각적 마커를 생성하는 단계; 및
상기 제1 시각적 마커가 제2 사용자의 시야 내에 있는 동안,
상기 제1 시각적 마커를 시야의 중심에 두는 상기 제2 사용자의 시야에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 감소시키는 단계; 및
상기 제1 시각 마커가 상기 제2 사용자의 주변 시야로 이동하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 증가시키는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
23. 실시예 19에 있어서,
상기 제1 사용자의 팀원들- 상기 제2 사용자 및 제3 사용자를 포함함 -에게 상기 제1 커뮤니케이션 액션을 유발하는 데이터를 전송하는 단계
를 더 포함하고,
상기 제1 시각적 마커는 상기 제2 사용자를 직면하도록 상기 제2 사용자에게 표시되고,
상기 제1 시각적 마커는 상기 제3 사용자를 직면하도록 상기 제3 사용자에게 표시되는
컴퓨터로 구현되는 방법.
24. 실시예 19에 있어서,
상기 비디오 게임이 이루어지는 가상 환경 내의 충돌없는 유닛(collision-free unit)으로써, 제1 시각적 마커를 생성하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
25. 실시예 19에 있어서,
상기 제2 사용자가 제2 사용자 입력을 누르는 것에 응답하여,
상기 제2 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여, 제2 목표 위치를 획득하는 단계;
상기 제2 목표 위치로부터 제2 임계 거리 내에 있는 상기 시각적 마커를 검출하는 단계;
상기 제2 목표 위치로부터 상기 제2 임계 거리 내에 있는 상기 시각적 마커의 검출; 및 시각적 마커들의 우선 순위에 적어도 부분적으로 기초하여 제2 커뮤니케이션 액션을 선택하는 단계; 및
상기 제2 커뮤니케이션 액션- 상기 제1 커뮤니케이션 액션에 대한 응답을 포함함 -을 상기 제1 사용자에게 유발하는 데이터를 전송하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
26. 실시예 25에 있어서,
상기 제1 시각적 마커는 상기 제2 사용자에게 정해진 수명과 함께 보여 지도록 생성되고;
상기 정해진 수명은 상기 제2 목표 위치로부터 상기 제2 임계 거리 내에 있는 상기 시각적 마커의 검출; 및 시각적 마커들의 우선 순위에 적어도 부분적으로 기초하여 연장되는
컴퓨터로 구현되는 방법.
27. 실시예 19에 있어서,
상기 제1 시각적 마커는 상기 제2 사용자에게 정해진 수명과 함께 보여 지도록 생성되고,
상기 제1 시각적 마커는 제1 유닛이 상호 작용되는 것 또는 사라지는 것에 응답하여, 사라지도록 구성되는
컴퓨터로 구현되는 방법.
28. 실시예 19에 있어서,
상기 제1 시각적 마커는 상기 제2 사용자에게 정해진 수명과 함께 보여 지도록 생성되고;
상기 제1 시각적 마커는 제1 유닛이 상호 작용되는 것 또는 사라지는 것에 응답하여, 사라지도록 구성되는
컴퓨터로 구현되는 방법.
29. 실시예 19에 있어서,
상기 비디오 게임이 이루어지는 가상 환경 내의 유닛, 인터페이스 유닛 또는 오버레이로써, 제1 시각적 마커- 제1 유닛이 제2 사용자에게 제시된 시야 밖에 있어도 제2 사용자에게 표시되는 -를 생성하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
30. 실시예 19에 있어서,
상기 제1 시각적 마커를 생성하는 단계;
상기 제1 사용자가 사용자 입력을 복수 회 누르는 것에 응답하여, 복수의 후속 시각적 마커들을 생성하는 단계; 및
상기 제1 사용자의 시각적 마커들에 대한 선입 선출 큐의 제한에 따른 응답에 적어도 부분적으로 기초하여, 상기 제1 시각적 마커를 제거하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
31. 실시예 19에 있어서,
상기 제1 시각적 마커를 생성하는 단계;
상기 제1 사용자가 사용자 입력을 복수 회 누르는 것에 응답하여, 복수의 후속 시각적 마커들을 생성하는 단계; 및
상기 제1 사용자의 시각적 마커들에 대한 선입 선출 큐에 따라 상기 제1 시각적 마커를 제거하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
32. 실시예 19에 있어서,
상기 제1 시각적 마커를 생성하는 단계; 및
상기 제1 사용자가 상기 사용자 입력을 두번째로 누르는 것에 대한 응답에 적어도 부분적으로 기초하여, 상기 제1 커뮤니케이션 액션을 상기 제2 사용자에게 유발하는 데이터를 전송하는 단계를 포함하고,
상기 제1 커뮤니케이션 액션은 상기 제1 시각적 마커를 상기 제2 시각적 마커로 교체하는 것을 포함하는
컴퓨터로 구현되는 방법.
33. 실시예 19에 있어서,
상기 제1 시각적 마커는 상기 제2 사용자의 인-게임 캐릭터와 제1 목표 위치 사이의 거리를 지시하는
컴퓨터로 구현되는 방법.
34. 실시예 9에 있어서,
상기 제1 유닛의 제1 유닛 유형 또는 상기 제1 유닛의 이름에 적어도 부분적으로 기초하여, 제1 커뮤니케이션 액션을 동적으로 커스터마이징하는 단계
를 더 포함하는
컴퓨터로 구현되는 방법.
35. 실시예 9에 있어서,
상기 제1 커뮤니케이션 액션은 다른 커뮤니케이션 액션에 사용되는 다른 소리들과 다른 오디오를 재생하는 것을 포함하는
컴퓨터로 구현되는 방법.
36. 실시예 35에 있어서,
상기 오디오는 상기 제1 사용자에 의해 제어되는 인-게임 캐릭터의 음성을 갖도록 선택되거나 수정된
컴퓨터로 구현되는 방법.
37. 실시예 35에 있어서,
상기 오디오는 최근 시간의 임계량 내에서 상기 비디오 게임 내에서 특정 이벤트들이 발생했는지 여부에 적어도 부분적으로 기초하여 선택되거나 수정된
컴퓨터로 구현되는 방법.
38. 실시예 37에 있어서,
상기 오디오는 최근 시간의 임계량 내에서 상기 비디오 게임 내에서 발생한전투 이벤트들에 적어도 부분적으로 기초하여, 보다 긴급하게 선택되거나 수정된
컴퓨터로 구현되는 방법.

Claims (20)

  1. 비디오 게임 내에서 상황 인식 커뮤니케이션들을 전송하기 위한 컴퓨터로 구현되는 방법에 있어서,
    제1 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여, 가상 환경 내 제1 목표 위치를 획득하는 단계;
    상기 제1 목표 위치로부터 제1 임계 거리 내에 있는 제1 유닛 유형의 제1 인-게임 유닛을 검출하는 단계;
    상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 상기 제1 인-게임 유닛의 검출 및 상기 제1 유닛 유형과 관련되고 제1 커뮤니케이션 액션과 관련된 제1 우선 순위에 적어도 부분적으로 기초하여, 상기 제1 커뮤니케이션 액션을 선택하는 단계;
    상기 비디오 게임의 게임 상태 데이터에 기초하여 상기 제1 커뮤니케이션 액션을 수정하는 단계;
    상황 인식 커뮤니케이션을 전송하기 위하여 상기 제1 사용자가 제1 사용자 입력을 제공하는 것에 응답하여, 상기 제1 커뮤니케이션 액션의 출력이 제2 사용자에게 통신되도록 하는 데이터를 전송하는 단계
    를 포함하는
    컴퓨터로 구현되는 방법.
  2. 제1항에 있어서,
    상기 제1 사용자에 의해 제공된 후속 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계;
    상기 제2 목표 위치로부터 제2 임계 거리 내에 있는 제2 유닛 유형의 제2 인-게임 유닛을 검출하는 단계 - 인-게임 유닛의 상기 제2 유형은, 상기 제1 유형의 인-게임 유닛과 상이함 -;
    상기 제2 목표 위치로부터의 상기 제2 임계 거리 내에 있는 상기 제2 유닛 유형의 상기 제2 인-게임 유닛의 검출 및 상기 제2 유닛 유형과 관련되고 제2 커뮤니케이션 액션과 관련된 제2 우선 순위에 적어도 부분적으로 기초하여, 상기 제2 커뮤니케이션 액션을 선택하는 단계; 및
    상기 제1 사용자가 제2 사용자 입력을 제공하는 것에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제2 사용자에게 유발하는 데이터를 전송하는 단계
    를 더 포함하고,
    상기 제2 커뮤니케이션 액션은,
    상기 제1 커뮤니케이션 액션과 상이한
    컴퓨터로 구현되는 방법.
  3. 제1항에 있어서,
    상기 제1 목표 위치는,
    상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 가상 환경을 통한 자취(trace) 또는 시선(line of sight); 또는
    상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 상기 가상 환경을 통한 발사체 경로
    중 하나 이상에 적어도 부분적으로 기초하여 결정되는
    컴퓨터로 구현되는 방법.
  4. 제1항에 있어서,
    상기 제1 임계 거리는,
    상기 비디오 게임 내의 에임 어시스트(aim-assist) 또는 오토 에임(auto-aim) 모듈에 의해 사용되는 제2 임계 거리에 적어도 부분적으로 기초하는
    컴퓨터로 구현되는 방법.
  5. 제1항에 있어서,
    상기 제1 커뮤니케이션 액션을 선택하는 단계는,
    상기 제1 인-게임 유닛과 상기 제1 목표 위치 사이의 제1 거리가 제2 인-게임 유닛과 상기 제1 목표 위치 사이의 제2 거리보다 짧다고 결정하는 것에 적어도 부분적으로 기초하고,
    상기 제2 인-게임 유닛은,
    상기 제1 유닛 유형에 해당하고, 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있고,
    상기 제1 커뮤니케이션 액션은,
    상기 제1 유닛의 제1 위치를 시각적으로 마킹하는 것을 포함하는
    컴퓨터로 구현되는 방법.
  6. 제1항에 있어서,
    상기 제1 커뮤니케이션 액션은,
    상기 비디오 게임이 이루어지는 가상 환경 내의 유닛으로 제1 시각적 마커(visual marker)를 생성하는 것을 포함하고,
    상기 제1 시각적 마커는,
    상기 가상 환경 내의 상기 제1 유닛의 제1 위치를 지시하는
    컴퓨터로 구현되는 방법.
  7. 제6항에 있어서,
    상기 제2 사용자에게 표시되는 상기 제1 시각적 마커의 크기는,
    상기 제1 유닛의 제1 위치 및 상기 제1 사용자에 의해 제어되는 캐릭터의 제2 위치 사이의 거리와 무관(independent)한
    컴퓨터로 구현되는 방법.
  8. 제6항에 있어서,
    상기 제1 시각적 마커가 상기 제2 사용자의 시야(field of view) 내에 있는 동안,
    상기 제2 사용자의 시야가 상기 제1 시각적 마커를 중심으로 하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 감소시키는 단계; 및
    상기 제 1 시각적 마커가 상기 제2 사용자의 시야의 주변(periphery)으로 이동하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 증가시키는 단계
    를 더 포함하는
    컴퓨터로 구현되는 방법.
  9. 제6항에 있어서,
    상기 제2 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 단계;
    상기 제2 목표 위치로부터 제2 임계 거리 내에서 상기 제1 시각적 마커를 검출하는 단계;
    상기 제2 목표 위치로부터 상기 제2 임계 거리 내에서 상기 제1 시각적 마커의 검출 및 시각적 마커들의 우선 순위에 적어도 부분적으로 기초하여, 제2 커뮤니케이션 액션을 선택하는 단계; 및
    상기 제2 사용자가 제2 사용자 입력을 누르는 것에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제1 사용자에게 유발하는 데이터를 전송하는 단계
    를 더 포함하고,
    상기 제2 커뮤니케이션 액션은,
    상기 제1 커뮤니케이션 액션에 대한 응답(reply)을 포함하는
    컴퓨터로 구현되는 방법.
  10. 제9항에 있어서,
    상기 제1 시각적 마커는,
    상기 제2 사용자에게 정해진 수명과 함께 보여지도록 구성되고,
    상기 정해진 수명은,
    상기 제2 커뮤니케이션 액션에 적어도 부분적으로 기초하여 연장되는
    컴퓨터로 구현되는 방법.
  11. 비디오 게임 내에서 상황 인식 커뮤니케이션들을 전송하기 위한 컴퓨터 시스템에 있어서,
    컴퓨터에서 실행 가능한 명령어들을 저장하는 하나 이상의 데이터 저장소들; 및
    동작들을 수행하기 위해 상기 컴퓨터에서 실행 가능한 명령어들을 실행하는 하나 이상의 프로세서들
    을 포함하고,
    상기 동작들은,
    제1 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여, 가상 환경 내 제1 목표 위치를 획득하는 동작;
    상기 제1 목표 위치로부터 제1 임계 거리 내에 있는 제1 유닛 유형의 제1 인-게임 유닛을 검출하는 동작;
    상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있는 상기 제1 유닛 유형의 상기 제1 인-게임 유닛의 검출 및 상기 제1 유닛 유형과 관련되고 제1 커뮤니케이션 액션과 관련된 제1 우선 순위에 적어도 부분적으로 기초하여, 상기 제1 커뮤니케이션 액션을 선택하는 동작;
    상기 비디오 게임의 게임 상태 데이터에 기초하여 상기 제1 커뮤니케이션 액션을 수정하는 동작;
    상황 인식 커뮤니케이션을 전송하기 위하여 상기 제1 사용자가 제1 사용자 입력을 제공하는 것에 응답하여, 상기 제1 커뮤니케이션 액션의 출력이 제2 사용자에게 통신되도록 하는 데이터를 전송하는 동작
    을 포함하는,
    컴퓨터 시스템.
  12. 제11항에 있어서,
    상기 동작들은,
    상기 제1 사용자에 의해 제공된 후속 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 동작;
    상기 제2 목표 위치로부터 제2 임계 거리 내에 있는 제2 유닛 유형의 제2 인-게임 유닛을 검출하는 동작 - 인-게임 유닛의 상기 제2 유형은, 상기 제1 유형의 인-게임 유닛과 상이함 -;
    상기 제2 목표 위치로부터의 상기 제2 임계 거리 내에 있는 상기 제2 유닛 유형의 상기 제2 인-게임 유닛의 검출 및 상기 제2 유닛 유형과 관련되고 제2 커뮤니케이션 액션과 관련된 제2 우선 순위에 적어도 부분적으로 기초하여, 상기 제2 커뮤니케이션 액션을 선택하는 동작; 및
    상기 제1 사용자가 제2 사용자 입력을 제공하는 것에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제2 사용자에게 유발하는 데이터를 전송하는 동작
    을 더 포함하고,
    상기 제2 커뮤니케이션 액션은,
    상기 제1 커뮤니케이션 액션과 상이한
    컴퓨터 시스템.
  13. 제11항에 있어서,
    상기 제1 목표 위치는,
    상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 가상 환경을 통한 자취(trace) 또는 시선(line of sight); 또는
    상기 제1 사용자에 의하여 제어되는 시작점에서 시작되는 상기 가상 환경을 통한 발사체 경로
    중 하나 이상에 적어도 부분적으로 기초하여 결정되는
    컴퓨터 시스템.
  14. 제11항에 있어서,
    상기 제1 임계 거리는,
    상기 비디오 게임 내의 에임 어시스트 또는 오토 에임 모듈에 의해 사용되는 제2 임계 거리에 적어도 부분적으로 기초하는
    컴퓨터 시스템.
  15. 제11항에 있어서,
    상기 제1 커뮤니케이션 액션을 선택하는 동작은,
    상기 제1 인-게임 유닛과 상기 제1 목표 위치 사이의 제1 거리가 제2 인-게임 유닛과 상기 제1 목표 위치 사이의 제2 거리보다 짧다고 결정하는 것에 적어도 부분적으로 기초하고,
    상기 제2 인-게임 유닛은,
    상기 제1 유닛 유형에 해당하고, 상기 제1 목표 위치로부터 상기 제1 임계 거리 내에 있고,
    상기 제1 커뮤니케이션 액션은,
    상기 제1 유닛의 제1 위치를 시각적으로 마킹하는 것을 포함하는
    컴퓨터 시스템.
  16. 제11항에 있어서,
    상기 제1 커뮤니케이션 액션은,
    상기 비디오 게임이 이루어지는 가상 환경 내의 유닛으로 제1 시각적 마커를 생성하는 것을 포함하고,
    상기 제1 시각적 마커는,
    상기 가상 환경 내의 상기 제1 유닛의 제1 위치를 지시하는
    컴퓨터 시스템.
  17. 제16항에 있어서,
    상기 제2 사용자에게 표시되는 상기 제1 시각적 마커의 크기는,
    상기 제1 유닛의 제1 위치 및 상기 제1 사용자에 의해 제어되는 캐릭터의 제2 위치 사이의 거리와 무관(independent)한
    컴퓨터 시스템.
  18. 제16항에 있어서,
    상기 동작들은,
    상기 제1 시각적 마커가 상기 제2 사용자의 시야(field of view) 내에 있는 동안,
    상기 제2 사용자의 시야가 상기 제1 시각적 마커를 중심으로 하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 감소시키는 동작; 및
    상기 제 1 시각적 마커가 상기 제2 사용자의 시야의 주변(periphery)으로 이동하는 것에 응답하여, 상기 제2 사용자에 의해 보여지는 상기 제1 시각적 마커의 크기를 증가시키는 동작
    을 더 포함하는 컴퓨터 시스템.
  19. 제16항에 있어서,
    상기 동작들은,
    상기 제2 사용자에 의해 제공된 입력들에 적어도 부분적으로 기초하여 제2 목표 위치를 획득하는 동작;
    상기 제2 목표 위치로부터 제2 임계 거리 내에서 상기 제1 시각적 마커를 검출하는 동작;
    상기 제2 목표 위치로부터 상기 제2 임계 거리 내에서 상기 제1 시각적 마커의 검출 및 시각적 마커들의 우선 순위에 적어도 부분적으로 기초하여, 제2 커뮤니케이션 액션을 선택하는 동작; 및
    상기 제2 사용자가 제2 사용자 입력을 누르는 것에 응답하여, 상기 제2 커뮤니케이션 액션을 상기 제1 사용자에게 유발하는 데이터를 전송하는 동작
    을 더 포함하고,
    상기 제2 커뮤니케이션 액션은,
    상기 제1 커뮤니케이션 액션에 대한 응답(reply)을 포함하는
    컴퓨터 시스템.
  20. 제19항에 있어서,
    상기 제1 시각적 마커는,
    상기 제2 사용자에게 정해진 수명과 함께 보여지도록 구성되고,
    상기 정해진 수명은,
    상기 제2 커뮤니케이션 액션에 적어도 부분적으로 기초하여 연장되는
    컴퓨터 시스템.
KR1020200012669A 2019-07-30 2020-02-03 비디오 게임 내의 상황 인식 커뮤니케이션 시스템 KR102413266B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220075599A KR102606017B1 (ko) 2019-07-30 2022-06-21 비디오 게임 내의 상황 인식 커뮤니케이션 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/526,635 2019-07-30
US16/526,635 US11097189B2 (en) 2019-07-30 2019-07-30 Contextually aware communications system in video games

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220075599A Division KR102606017B1 (ko) 2019-07-30 2022-06-21 비디오 게임 내의 상황 인식 커뮤니케이션 시스템

Publications (2)

Publication Number Publication Date
KR20210014558A KR20210014558A (ko) 2021-02-09
KR102413266B1 true KR102413266B1 (ko) 2022-06-27

Family

ID=74259026

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200012669A KR102413266B1 (ko) 2019-07-30 2020-02-03 비디오 게임 내의 상황 인식 커뮤니케이션 시스템
KR1020220075599A KR102606017B1 (ko) 2019-07-30 2022-06-21 비디오 게임 내의 상황 인식 커뮤니케이션 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220075599A KR102606017B1 (ko) 2019-07-30 2022-06-21 비디오 게임 내의 상황 인식 커뮤니케이션 시스템

Country Status (2)

Country Link
US (3) US11097189B2 (ko)
KR (2) KR102413266B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11185786B2 (en) 2018-08-21 2021-11-30 Steelseries Aps Methods and apparatus for monitoring actions during gameplay
US11071914B2 (en) 2018-11-09 2021-07-27 Steelseries Aps Methods, systems, and devices of providing portions of recorded game content in response to a trigger
CN111991800A (zh) * 2019-02-22 2020-11-27 网易(杭州)网络有限公司 游戏角色控制方法、装置、设备和存储介质
US11097189B2 (en) 2019-07-30 2021-08-24 Electronic Arts Inc. Contextually aware communications system in video games
US11351457B2 (en) * 2020-09-11 2022-06-07 Riot Games, Inc. Selecting an anchored offset targeting position
CN113117331B (zh) * 2021-05-20 2023-04-18 腾讯科技(深圳)有限公司 多人在线对战程序中的消息发送方法、装置、终端及介质
CN113398590B (zh) * 2021-07-14 2024-04-30 网易(杭州)网络有限公司 声音处理方法、装置、计算机设备及存储介质
US20230025389A1 (en) * 2021-07-23 2023-01-26 Electronic Arts Inc. Route generation system within a virtual environment of a game application
US11775739B2 (en) * 2021-10-26 2023-10-03 Sony Interactive Entertainment LLC Visual tagging and heat-mapping of emotion
KR102477531B1 (ko) * 2021-12-02 2022-12-14 (주)스코넥엔터테인먼트 음성인식 기능이 구비된 가상 환경 제어 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140274410A1 (en) * 2013-03-15 2014-09-18 Zynga Inc. Smart ping system
US20150031421A1 (en) * 2013-04-05 2015-01-29 Gree, Inc. Method and apparatus for providing online shooting game

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2447096B (en) * 2007-03-01 2011-10-12 Sony Comp Entertainment Europe Entertainment device and method
US8328637B2 (en) * 2007-06-21 2012-12-11 Microsoft Corporation Combat action selection using situational awareness
JP5411473B2 (ja) * 2008-09-16 2014-02-12 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US20100331089A1 (en) * 2009-02-27 2010-12-30 Scvngr, Inc. Computer-implemented method and system for generating and managing customized interactive multiplayer location-based mobile games
US20120157210A1 (en) * 2010-12-15 2012-06-21 At&T Intellectual Property I Lp Geogame for mobile device
US8608570B1 (en) * 2011-06-30 2013-12-17 Zynga Inc. Enabling game features based on location-based actions
US9597599B2 (en) * 2012-06-19 2017-03-21 Microsoft Technology Licensing, Llc Companion gaming experience supporting near-real-time gameplay data
US9226106B1 (en) * 2012-07-31 2015-12-29 Niantic, Inc. Systems and methods for filtering communication within a location-based game
US10205731B2 (en) * 2015-09-25 2019-02-12 Microsoft Technology Licensing, Llc Contextually-aware location sharing services
US11097189B2 (en) 2019-07-30 2021-08-24 Electronic Arts Inc. Contextually aware communications system in video games

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140274410A1 (en) * 2013-03-15 2014-09-18 Zynga Inc. Smart ping system
US20150031421A1 (en) * 2013-04-05 2015-01-29 Gree, Inc. Method and apparatus for providing online shooting game

Also Published As

Publication number Publication date
US20210031106A1 (en) 2021-02-04
KR20210014558A (ko) 2021-02-09
US20240009568A1 (en) 2024-01-11
US11097189B2 (en) 2021-08-24
KR102606017B1 (ko) 2023-11-24
US20220023759A1 (en) 2022-01-27
KR20220092829A (ko) 2022-07-04
US11673048B2 (en) 2023-06-13

Similar Documents

Publication Publication Date Title
KR102413266B1 (ko) 비디오 게임 내의 상황 인식 커뮤니케이션 시스템
US20230347254A1 (en) Method and apparatus for providing online shooting game
US11465040B2 (en) System and method for playing video games on touchscreen-based devices
WO2021184806A1 (zh) 互动道具显示方法、装置、终端及存储介质
CN110917619B (zh) 互动道具控制方法、装置、终端及存储介质
US9480921B2 (en) Potential damage indicator of a targeted object
US9004997B1 (en) Providing enhanced game mechanics
US20230013014A1 (en) Method and apparatus for using virtual throwing prop, terminal, and storage medium
KR20210143300A (ko) 가상 객체 제어 방법 및 장치, 디바이스, 및 저장 매체
JP7447296B2 (ja) 仮想道具のインタラクティブ処理方法、装置、電子機器及びコンピュータプログラム
KR102432011B1 (ko) 게임 애플리케이션의 사용자 인터페이스 요소를 햅틱 피드백으로 트랜스크라이빙하기 위한 시스템 및 방법
US20230072503A1 (en) Display method and apparatus for virtual vehicle, device, and storage medium
US20230364502A1 (en) Method and apparatus for controlling front sight in virtual scenario, electronic device, and storage medium
US9033797B1 (en) Multiple user viewing modes of an environment
JP2023164687A (ja) 仮想オブジェクトの制御方法及び装置並びにコンピュータ装置及びプログラム
CN114191820B (zh) 投掷道具的显示方法、装置、电子设备及存储介质
CN113663334A (zh) 游戏道具使用方法、装置、设备及存储介质
KR102584901B1 (ko) 이벤트 정보 송신 장치 및 방법, 이벤트 정보 출력 장치 및 방법
KR102557808B1 (ko) 게임 서비스 시스템 및 상기 시스템에서의 메모 공유 방법
CN112717394A (zh) 瞄准标记的显示方法、装置、设备及存储介质
CN111589129A (zh) 虚拟对象的控制方法、装置、设备及介质
KR102589391B1 (ko) 메시지 모니터링 방법 및 장치
CN117899452A (zh) 一种装备切换方法、装置、电子设备及介质
JP2023113587A (ja) マルチプレーヤゲーミングにおけるスマート音声チャットのための方法およびシステム
KR20220161882A (ko) 퀘스트 관리 서비스 제공 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant