KR20140029158A - 터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법 - Google Patents

터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20140029158A
KR20140029158A KR20130080664A KR20130080664A KR20140029158A KR 20140029158 A KR20140029158 A KR 20140029158A KR 20130080664 A KR20130080664 A KR 20130080664A KR 20130080664 A KR20130080664 A KR 20130080664A KR 20140029158 A KR20140029158 A KR 20140029158A
Authority
KR
South Korea
Prior art keywords
user
virtual space
sensitive surface
touch
view
Prior art date
Application number
KR20130080664A
Other languages
English (en)
Inventor
제임스 커즌스 벤자민
Original Assignee
가부시키가이샤 디에누에
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 디에누에 filed Critical 가부시키가이샤 디에누에
Publication of KR20140029158A publication Critical patent/KR20140029158A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input

Abstract

본원 개시 내용은 터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법에 관한 것이다. 사용자는 무선 클라이언트 장치 내의 터치 감응형 표면을 통해서 가상 공간과 상호작용할 수 있을 것이다. 사용자는 제어 입력들을 터치 감응형 표면으로 제공함으로써 가상 공간과 상호작용할 수 있을 것이다. 제어 입력들은 가상 공간의 하나 이상의 뷰들에서 반영될 수 있을 것이다. 일부 구현예들에서, 가상 공간의 하나 이상의 뷰들이 슈터 게임의 하나 이상의 뷰들을 포함하도록, 시스템이 구성될 수 있을 것이다. 사용자가 터치 감응형 표면을 통해서 한 손으로부터의 손가락들을 주로 이용하여 게임과 상호작용하도록, 시스템이 구성될 수 있을 것이다. 사용자는, 사용자에게 제시된 가상 공간 내의 작용들에 상응하는 여러 가지 명령 입력들을 터치 감응형 표면 내로 입력할 수 있을 것이다.

Description

터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법{SYSTEM AND METHOD FOR FACILITATING INTERACTION WITH A VIRTUAL SPACE VIA A TOUCH SENSITIVE SURFACE}
본원 개시 내용은 터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법에 관한 것이다.
터치 패널 디스플레이들을 이용하여 휴대 장치들 상에서 플레이되는 1 인칭 슈터(first person shooter) 게임들이 존재한다. 전형적으로, 터치 패널 디스플레이들을 이용하여 휴대용 장치들 상에서 플레이되는 1 인칭 슈터 게임들은 "가상 스틱(virtual stick)" 방법을 이용하여 게임의 사용자 캐릭터 및/또는 다른 요소들을 제어한다. 제어의 가상 스틱 방법은 터치 패널 디스플레이 상의 전자적 게이밍 콘솔 스타일 제어들을 시뮬레이트한다. 제어의 가상 스틱 방법은 사용자가 두 손들을 이용하여 1 인칭 슈터 게임을 플레이할 것을 요구한다.
본 발명의 목적은 사용자의 가상 공간과의 상호작용을 돕도록 구성된 시스템을 제공하는 것이다.
개시 내용의 하나의 양태는 사용자의 가상 공간과의 상호작용을 돕도록 구성된 시스템에 관한 것이다. 사용자는 무선 클라이언트 장치 내의 터치 감응형 표면을 통해서 가상 공간과 상호작용할 수 있을 것이다. 사용자는 제어 입력들을 터치 감응형 표면으로 제공함으로써 가상 공간과 상호작용할 수 있을 것이다. 제어 입력들은 가상 공간의 하나 이상의 뷰들(views)에서 반영될 수 있을 것이다. 일부 구현예들에서, 가상 공간의 하나 이상의 뷰들이 슈터 게임의 하나 이상의 뷰들을 포함하도록, 시스템이 구성될 수 있을 것이다. 사용자가 터치 감응형 표면을 통해서 한 손으로부터의 손가락들을 주로 이용하여 게임과 상호작용하도록, 시스템이 구성될 수 있을 것이다. 사용자는, 사용자에게 제시된 가상 공간 내의 작용들에 상응하는 여러 가지 명령 입력들을 터치 감응형 표면 내로 입력(enter)할 수 있을 것이다. 일부 구현예들에서, 시스템은 무선 클라이언트 장치, 게임 서버, 및/또는 다른 성분들을 포함할 수 있을 것이다.
무선 클라이언트 장치는 가상 공간, 게임 및/또는 다른 애플리케이션들과 상호작용하기 위한 인터페이스를 사용자에게 제공하도록 구성된 모바일 장치일 수 있을 것이다. 무선 클라이언트 장치는 게임 서버, 다른 무선 클라이언트들, 및/또는 클라이언트/서버 구성 내의 다른 장치들과 통신하도록 구성될 수 있을 것이다. 무선 클라이언트 장치는 사용자 인터페이스, 하나 이상의 프로세서들, 전자 저장부, 및/또는 다른 성분들을 포함할 수 있을 것이다.
사용자 인터페이스는 무선 클라이언트와 사용자 사이의 인터페이스를 제공하도록 구성될 수 있을 것이고, 그러한 인터페이스를 통해서 사용자가 시스템으로부터 정보를 수신하고 그리고 시스템으로 정보를 제공할 수 있을 것이다. 사용자 인터페이스는 터치 감응형 표면, 디스플레이, 및/또는 다른 성분들을 포함할 수 있을 것이다.
프로세서는 하나 이상의 컴퓨터 프로그램 모듈들을 실행하도록 구성될 수 있을 것이다. 하나 이상의 컴퓨터 프로그램 모듈들이 게임 모듈, 동작 인식 모듈, 제어 모듈, 및/또는 기타 모듈들을 포함할 수 있을 것이다.
게임 모듈은 가상 공간의 인스턴스(instance)를 실행하도록 구성될 수 있을 것이다. 게임 모듈은, 무선 클라이언트 상에서 사용자에게 제시하기 위한 가상 공간의 하나 이상의 뷰들을 조립함으로써, 사용자의 가상 공간과의 상호작용을 돕도록 구성될 수 있을 것이다. 사용자는, 가상 공간의 뷰(들)에서 반영된 제어 입력들을 터치 감응형 표면으로 제공함으로써, 가상 공간과 상호작용할 수 있을 것이다.
가상 공간의 뷰(들)를 조립하기 위해서, 게임 모듈이 가상 공간의 인스턴스를 실행할 수 있을 것이고, 그리고 뷰를 결정하는 뷰 정보를 결정하기 위해서 가상 공간의 인스턴스를 이용할 수 있을 것이다. 가상 공간의 뷰(들)를 조립하기 위해서, 게임 모듈은 게임 서버로부터 뷰 정보를 획득할 수 있을 것이고, 게임 모듈은 뷰 정보를 결정하기 위해서 가상 공간의 인스턴스를 실행할 수 있을 것이다. 뷰 정보는 가상 공간 상태(state) 정보, 맵 정보, 객체 또는 엔티티(entity) 위치 정보, 명시(manifestation) 정보(객체들 또는 엔티티들이 어떻게 가상 공간 내에서 명시되는지를 규정한다), 및/또는 뷰(들) 및/또는 가상 공간과 관련된 다른 정보 중 하나 이상의 포함할 수 있을 것이다.
일부 구현예들에서, 사용자가 가상 공간 내의 게임에 참여할 수 있도록, 게임 모듈이 구성될 수 있을 것이다. 게임은 슈터 게임 미캐닉(mechanic)을 포함할 수 있을 것이다. 슈터 게임 미캐닉은 사용자에게 제시된 뷰의 필드 내의 목표물을 향해서 발사체를 조준(aiming) 및/또는 발사(releasing)하는 것을 포함할 수 있을 것이다. 발사체는 (예를 들어, 사용자 제어형 캐릭터 또는 다른 엔티티에 의해서 운반되거나 동작되는) 가상 공간 내의 가상 무기로부터 발사될 수 있을 것이다. 슈터 게임 미캐닉은, 발사체의 조준 및/또는 발사에 더하여, 가상 공간 내의 캐릭터(예를 들어, 사용자 캐릭터 또는 다른 엔티티)의 위치를 제어하는 것을 포함할 수 있을 것이다. 일부 구현예들에서, 슈터 게임 미캐닉은 무기 상의 시뮬레이팅된 관찰(sighting) 도구를 통해서 목표물을 관찰하는 것, 무기들을 교환하는 것, 무기를 재장전하는 것, 및/또는 슈터 게임 미캐닉의 다른 양태들을 포함할 수 있을 것이다.
동작 인식 모듈은 터치 감응형 표면 상에서 사용자에 의해서 만들어진 동작들의 세트들 중 개별적인 하나들을 식별하도록 구성될 수 있을 것이다. 동작 인식 모듈은, 터치 감응형 표면으로부터의 출력 신호들을 기초로 동작들의 세트 중의 개별적인 하나들을 식별하도록 구성될 수 있을 것이다. 동작은 하나 이상의 동작 매개변수들에 의해서 규정될 수 있을 것이다. 하나 이상의 동작 매개변수들은 접촉 중의 동작의 하나 이상의 방향들, 접촉 중에 이루어진 이동의 형상, 하나 이상의 접촉 위치들, 하나 이상의 이동들의 특정 시퀀스(순서), 하나 이상의 접촉 위치들의 특정 배열, 다중 접촉들 사이의 상대적인 위치, 복수 접촉들의 상대적인 타이밍, 하나 이상의 접촉들의 유지 시간, 및/또는 다른 매개변수들을 포함할 수 있을 것이다. 개별적인 동작의 동작 인식은 하나 이상의 동작 매개변수들에 대한 매개변수 값들을 특정할 수 있을 것이다. 동작 인식 모듈은 복수의 저장된 동작 규정들에 대해서 접근할 수 있을 것이다.
사용자 동작의 인식은 터치 감응형 표면으로부터의 출력 신호들에 의해서 운반되는 정보의 분석을 기초로 이루어질 수 있을 것이다. 그러한 분석은 동작 인식들과 출력 신호들에 의해서 운반되는 정보 사이의 비교를 포함할 수 있을 것이다. 동작 인식 모듈은 사용자의 터치 감응형 표면과의 현재의 또는 이전에 실시된 상호 작용의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 동작 규정들에 의해서 특정된 매개변수 값들과 비교하여, 현재의 또는 이전에 실시된 상호 작용이 동작 규정들 중 하나와 일치되는지의 여부를 결정한다. 사용자에 의해서 실시된 상호 작용 및 동작 인식 사이의 일치에 응답하여, 사용자의 상호 작용을 일치되는 동작 규정에 상응하는 동작으로서 인식하도록 동작 인식 모듈이 구성될 수 있을 것이다.
사용자로부터의 제어 입력들을 결정하도록 제어 모듈이 구성될 수 있을 것이다. 제어 모듈은 식별된 동작들을 기초로 제어 입력들을 결정하도록 구성될 수 있을 것이다. 동작들의 세트 중의 개별적인 하나들을 식별하는 동작 인식 모듈에 응답하여, 제어 모듈이 식별된 동작들에 상응하는 제어 입력들을 결정할 수 있도록, 제어 모듈이 구성될 수 있을 것이다. 제어 입력들의 수신이 가상 공간 내의 작용들을 유발시킬 수 있도록, 게임 모듈이 구성될 수 있을 것이다.
사용자에 의한 접촉에 응답하는 출력 신호들을 생성하도록 터치 감응형 표면이 구성될 수 있을 것이다. 터치 감응형 표면이 접촉되는 하나 이상의 위치들과 관련된 정보를 이송하도록 출력 신호들이 구성될 수 있을 것이다. 일부 구현예들에서, 터치 감응형 표면이 디스플레이를 포함할 수 있을 것이다. 시각적 정보를 사용자에게 제시하도록 디스플레이가 구성될 수 있을 것이다. 시각적 정보는 가상 공간의 하나 이상의 뷰들 및/또는 하나 이상의 다른 뷰들을 포함할 수 있을 것이다. 일부 실시예들에서, 터치 감응형 표면 상의 하나 이상의 접촉 위치들이 디스플레이 상의 하나 이상의 위치들에 상응할 수 있을 것이다.
일부 구현예들에서, 터치 감응형 표면이 터치스크린을 포함할 수 있을 것이다. 무선 클라이언트에 대한 인터페이스를 제공하도록 터치스크린이 구성될 수 있을 것이고, 그러한 인터페이스를 통해서 사용자가 무선 클라이언트로 정보를 입력하고 및/또는 무선 클라이언트로부터 정보를 수신할 수 있을 것이다. 터치스크린의 전자적 디스플레이 능력을 통해서, 가상 공간의 뷰들, 1 인칭 슈터 게임의 뷰들, 그래픽들, 텍스트, 및/또는 기타 가시적 콘텐트가 사용자에게 제시될 수 있을 것이다. 터치스크린의 전자적 디스플레이의 일부 또는 전부에 중첩되어, 터치스크린의 표면과 접촉하는 또는 근접하는 하나 이상의 객체들의 위치를 나타내는 출력 신호들을 생성하도록 구성된 하나 이상의 센서들을 터치스크린이 포함할 수 있을 것이다.
터치 감응형 표면 상에서 사용자에 의해서 만들어진 제 1 사용자 상호 작용이 2 손가락형(fingered) 탭(tap) 동작일 수 있을 것이다. 그러한 제 1 사용자 상호 작용은, 예를 들어, 가상 공간의 제 1 뷰에서, 무기로부터 상응하는 발사체의 발사를 시행할 수 있을 것이다. 사용자는 가상 공간 내에서의 발사체의 발사 및/또는 발사 조준을 위해서 제 1 상호 작용을 이용할 수 있을 것이다. 제 1 사용자 상호 작용이 2개의 위치들에서 실질적으로 동시에 터치 감응형 표면을 탭핑하는 것을 포함할 수 있을 것이다. 제 1 사용자 상호 작용을 터치 감응형 표면 상에서 사용자에 의해서 이루어진 2개 손가락 탭 동작으로서 식별하도록, 동작 인식 모듈이 구성될 수 있을 것이다. 2개 손가락 탭 동작을 식별하는 동작 인식 모듈에 응답하여, 제어 모듈이 사용자로부터의 제 1 제어 입력을 결정할 수 있도록 제어 모듈이 구성될 수 있을 것이며, 상기 결정은 상기 게임 모듈이 가상 공간 내에서 발사체를 발사하게 한다. 제 1 제어 입력은 발사체가 지향되는 가상 공간 내의 목표물 위치를 특정할 수 있을 것이다. 일부 구현예들에서, 목표물 위치는, 2개 손가락 탭 동작을 만들 때 사용자가 터치 감응형 표면과 접촉된 위치들 중 하나 또는 양 위치들에 상응하는 터치 감응형 표면 상의 제어 위치에 상응할 수 있을 것이다. 일부 구현예들에서, 제어 위치는, 목표물 위치가 디스플레이되는 터치스크린 상의 위치가 될 수 있을 것이다. 일부 구현예들에서, 제어 위치는, 2개 손가락 탭 동작을 만드는데 있어서 사용자가 터치 감응형 표면에 접촉한 2개의 위치들 사이의 중앙 지점이 될 수 있을 것이다.
터치 감응형 표면 상에서의 제 2 사용자 상호 작용은 반전 핀치(reverse pinch) 동작일 수 있을 것이다. 터치 감응형 표면 상에서의 제 2 사용자 상호 작용의 입력에 응답하여 소형 화기(firearm)의 관찰 도구를 통해서 장면(sighting)을 시뮬레이팅하는 하나 이상의 뷰들을 제시하도록, 시스템이 구성될 수 있을 것이다. 제 2 사용자 상호 작용은 실질적으로 동시적으로 2개의 위치들에서 터치 감응형 표면과 접촉하는 것, 이어서 터치 감응형 표면과의 접촉을 유지하면서 2개의 접촉 위치들을 더 멀리 이동시키는 것을 포함할 수 있을 것이다. 제 2 사용자 상호 작용을 터치 감응형 표면 상에서 사용자에 의해서 이루어진 반전 핀치 동작으로서 식별하도록, 동작 인식 모듈이 구성될 수 있을 것이다. 반전 핀치 동작을 인식한 동작 인식 모듈에 응답하여, 제어 모듈이 사용자로부터의 제 2 제어 입력을 결정할 수 있도록, 제어 모듈이 구성될 수 있을 것이다. 제 2 제어 입력은, 게임 모듈로 하여금 가상 공간의 제 2 뷰에서 관찰 도구를 통한 장면을 시뮬레이팅하도록 할 수 있을 것이다. 일부 구현예들에서, 게임 플레이 중에 사용자가 정상적으로 이용가능한 게임 기능성 및/또는 가상 공간 중 적어도 일부가 제 2 제어 입력에 응답하여 감소되어, 게임 모듈이 제 2 뷰로 하여금 관찰 도구를 통한 장면을 시뮬레이팅하도록 하게끔, 게임 모듈이 구성될 수 있을 것이다. 일부 구현예들에서, 터치 감응형 표면 상의 제 3 사용자 상호 작용에 응답하여 장면 뷰가 불연속적이 되도록, 시스템이 구성될 수 있을 것이다. 제 3 사용자 상호 작용이 핀치 동작이 될 수 있을 것이다.
터치 감응형 표면 상에서 사용자에 의해서 이루어지는 제 4 사용자 상호 작용이 운동(move) 동작이 될 수 있을 것이다. 제 4 상호 작용은, 가상 공간 내의 운동 위치에 상응하는 위치에서 터치 감응형 표면과 접촉하는 것을 포함할 수 있을 것이다. 제 4 사용자 상호 작용을 터치 감응형 표면 상에서 사용자에 의해서 이루어진 운동 동작으로서 식별하도록, 동작 인식 모듈이 구성될 수 있을 것이다. 운동 동작을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈로 하여금, 사용자에게 제시되는 뷰를 가상 공간 내의 현재 위치를 나타내는 제 3 뷰로부터 운동 위치를 나타내는 제 4 뷰로 변화시키도록 유도하는 제 4 제어 입력을 제어 모듈이 결정할 수 있도록, 제어 모듈이 구성될 수 있을 것이다. 일부 구현예들에서, 운동 위치는 사용자가 운동 동작으로 터치스크린과 접촉하는 터치스크린 상의 위치가 될 수 있을 것이다.
본 발명에 따르면, 사용자가 가상 공간 내의 게임에 참여할 수 있도록 게임 모듈이 구성될 수 있으므로, 사용자가 다양한 게임을 즐길 수 있다.
도 1은 사용자의 가상 공간과의 상호 작용을 돕도록 구성된 시스템의 개략도이다.
도 2는 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 1 사용자 상호 작용을 도시한 도면이다.
도 3은 터치 감응형 표면 상에서 디스플레이되는 목표물 위치를 향한 발사체의 발사를 도시한 도면이다.
도 4는 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 2 사용자 상호 작용을 도시한 도면이다.
도 5는 터치 감응형 표면 상에서의 접촉 위치들의 운동을 도시한 도면이다.
도 6은 가상 공간 내의 뷰의 단계적인 줌을 도시한 도면이다.
도 7은 관찰 도구를 통한 장면을 도시한 도면이다.
도 8은 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 4 상호 작용을 도시한 도면이다.
도 9는 터치 감응형 표면 상에서 디스플레이된 가상 공간 내의 운동 위치를 도시한 도면이다.
도 10은 상기 운동 위치로부터의 가상 공간의 뷰를 도시한 도면이다.
도 11은 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 5 사용자 상호 작용을 도시한 도면이다.
도 12는 터치 감응형 표면 상에서의 제 5 사용자 상호 작용의 접촉 위치를 도시한 도면이다.
도 13은 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 6 사용자 상호 작용을 도시한 도면이다.
도 14는 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 7 사용자 상호 작용을 도시한 도면이다.
도 15는 터치 감응형 표면 상에서 사용자에 의해서 이루어진 제 8 사용자 상호 작용을 도시한 도면이다.
도 16은 터치 감응형 표면 상에서의 제 8 사용자 상호 작용의 접촉 지점을 도시한 도면이다.
도 17은 가상 공간과의 상호 작용을 돕는 방법을 도시한 도면이다.
도 1은 사용자의 가상 공간과의 상호 작용을 돕도록 구성된 시스템(10)의 개략도이다. 사용자는 무선 클라이언트 장치(12) 내의 터치 감응형 표면을 통해서 가상 공간과 상호작용할 수 있을 것이다. 사용자는 제어 입력들을 터치 감응형 표면으로 제공함으로써 가상 공간과 상호작용할 수 있을 것이다. 제어 입력들은 가상 공간의 하나 이상의 뷰들에서 반영될 수 있을 것이다. 일부 구현예들에서, 가상 공간의 하나 이상의 뷰들이 슈터 게임(예를 들어, 1 인칭 슈터 게임, 제 3 자 슈터 게임, 및/또는 다른 슈터 미캐닉들)의 하나 이상의 뷰들을 포함하도록, 시스템(10)이 구성될 수 있을 것이다. 게임이 전체적으로 슈터-스타일 게임이 아니고, 다른 성분들 및/또는 슈터 미캐닉 이외의 미캐닉들을 가지는 게임이 될 수 있을 것이다. 터치 감응형 표면을 통해서 사용자가 주로 한 손의 손가락들로 게임과 상호 작용할 수 있도록, 시스템(10)이 구성될 수 있을 것이다. 사용자는, 사용자에게 제시된 가상 공간 내의 작용들에 상응하는 여러 가지 명령 입력들을 터치 감응형 표면으로 입력할 수 있을 것이다.
슈터 게임과 함께 시스템(10)의 이용에 관한 본원에서의 설명은 본원 개시 내용의 범위를 제한하기 위한 것은 아니다. 오히려, 본원에 개시된 원리들 및 시스템이 가상 공간에 대해서 및/또는 다른 전자적 애플리케이션들에 대해서 적용될 수 있다는 것을 이해할 수 있을 것이고, 여기에서 한 손으로 이루어지는(one handed) 제어가 바람직하다. 일부 구현예들에서, 시스템(10)이 무선 클라이언트 장치(12), 게임 서버(14), 및/또는 다른 성분들을 포함할 수 있을 것이다.
무선 클라이언트 장치(12)는 가상 공간, 게임 및/또는 다른 애플리케이션들과 상호 작용하기 위한 인터페이스를 사용자에게 제공하도록 구성된 모바일 장치일 수 있을 것이다. 무선 클라이언트 장치(12)는, 예를 들어, 스마트폰, 태블릿 컴퓨팅 플랫폼, 및/또는 다른 모바일 장치들을 포함할 수 있을 것이다. 무선 클라이언트 장치(12)는 게임 서버(14), 다른 무선 클라이언트들, 및/또는 클라이언트/서버 구성 내의 다른 장치들과 통신하도록 구성될 수 있을 것이다. 그러한 통신들은 적어도 하나의 무선 통신 매체를 통해서 적어도 부분적으로 달성될 수 있을 것이다. 그러한 통신은 인터넷 및/또는 다른 네트워크들과 같은 네트워크를 통해서 전송될 수 있을 것이다. 무선 클라이언트 장치(12)는 사용자 인터페이스(16), 하나 이상의 프로세서들(18), 전자적 저장부(20), 및/또는 다른 성분들을 포함할 수 있을 것이다.
사용자 인터페이스(16)는 무선 클라이언트(12)와 사용자 사이의 인터페이스(16)를 제공하도록 구성될 수 있을 것이고, 그러한 인터페이스를 통해서 사용자가 시스템(10)으로 정보를 제공할 수 있고 그리고 시스템(10)으로부터 정보를 수신할 수 있을 것이다. 사용자 인터페이스(16)는 터치 감응형 표면(22), 디스플레이(24), 및/또는 다른 성분들을 포함할 수 있을 것이다.
프로세서(18)는 하나 이상의 컴퓨터 프로그램 모듈들을 실행하도록 구성될 수 있을 것이다. 하나 이상의 컴퓨터 프로그램 모듈들이 게임 모듈(30), 동작 인식 모듈(32), 제어 모듈(34), 및/또는 다른 모듈들을 포함할 수 있을 것이다.
게임 모듈(30)은 가상 공간의 인스턴스를 실행하도록 구성될 수 있을 것이다. 게임 모듈(30)은 무선 클라이언트(12) 상에서 사용자에게 제시하기 위한 가상 공간의 하나 이상의 뷰들을 조립함으로써 사용자의 가상 공간과의 상호 작용을 돕도록 구성될 수 있을 것이다. 사용자는, 가상 공간의 뷰(들)에서 반영된 터치 감응형 표면(22)으로 제어 입력들을 제공함으로써 가상 공간과 상호 작용할 수 있을 것이다.
가상 공간의 뷰(들)를 조립하기 위해서, 게임 모듈(30)이 가상 공간의 인스턴스를 실행할 수 있을 것이고, 그리고 뷰를 규정하는 뷰 정보를 결정하기 위해서 가상 공간의 인스턴스를 이용할 수 있을 것이다. 가상 공간의 뷰(들)를 조립하기 위해서, 뷰 정보를 결정하기 위해서 가상 공간의 인스턴스를 실행할 수 있는, 게임 모듈(30)이 게임 서버(14)로부터 뷰 정보를 획득할 수 있을 것이다. 뷰 정보는 가상 공간 상태 정보, 맵 정보, 객체 또는 엔티티 위치 정보, 명시 정보(가상 공간 내에서 객체들 또는 엔티티들을 어떻게 명시하는지를 규정), 및/또는 뷰(들) 및/또는 가상 공간과 관련된 다른 정보 중 하나 이상을 포함할 수 있을 것이다.
가상 공간은, 가상 공간의 뷰들을 사용자에게 제시하는 클라이언트들(예를 들어, 무선 클라이언트 장치(12))을 통해서 사용자들에 의해서 접근될 수 있는 시뮬레이팅된 공간을 포함할 수 있을 것이다. 시뮬레이팅된 공간은 지형(topology)을 가질 수 있을 것이고, 하나 이상의 사용자들에 의한 진행 중인(ongoing) 실시간 상호 작용을 표현할 수 있을 것이고, 및/또는 지형 내에서 이동(locomotion)될 수 있는 지형 내에 배치된 하나 이상의 객체들을 포함할 수 있을 것이다. 일부 경우들에서, 지형이 2-차원적인 지형일 수 있을 것이다. 다른 경우들에서, 지형이 3-차원적인 지형일 수 있을 것이다. 지형은 공간의 치수들(dimensions), 및/또는 공간에 대해서 "고유한(native)" 객체들 또는 표면의 표면 특징들(features)을 포함할 수 있을 것이다. 일부 경우들에서, 지형은 공간의 적어도 실질적인 부분을 통해서 연장하는 표면(예를 들어, 지표면)을 나타낼 수 있을 것이다. 일부 경우들에서, 지형은 내부에 하나 이상의 바디들(bodies)을 가지는 부피를 나타낼 수 있을 것이다(예를 들어, 하나 이상의 천체(celestial) 바디들이 내부에 배치된 무중력 공간의 시뮬레이션).
게임 모듈(30)에 의해서 실행되는 가상 공간의 인스턴스(들)에서, 사용자는 가상 공간과의 및/또는 서로 간의 상호 작용을 위해서 하나 이상의 엔티티들을 제어할 수 있을 것이다. 엔티티들은 캐릭터들, 객체들, 시뮬레이팅된 물리적 현상들(예를 들어, 바람, 강우, 지진 및/또는 다른 현상들), 및/또는 가상 공간 내의 다른 요소들 중 하나 이상을 포함할 수 있을 것이다. 사용자 캐릭터들은 아바타들을 포함할 수 있을 것이다. 본원에서 사용된 바와 같이, 엔티티는 개별적인 사용자를 나타내는 가상 공간 내에 존재하는 객체(또는 객체들의 그룹)를 지칭(refer)할 수 있을 것이다. 엔티티는, 그 엔티티와 연관된 사용자에 의해서 제어될 수 있을 것이다. 사용자 제어형 요소(들)는 가상 공간(예를 들어, 가상 공간 내의 비-사용자 캐릭터들, 가상 공간 내의 다른 객체들)을 통해서 운동할 수 있을 것이고 그리고 그러한 가상 공간과 상호 작용할 수 있을 것이다. 주어진 사용자에 의해서 제어되고 및/또는 주어진 사용자와 연관되는 사용자 제어형 요소들이 주어진 사용자에 의해서 생성되고 및/또는 맞춤형이 될(customized) 수 있을 것이다. 사용자는, 가상 공간 내에서 (사용자 캐릭터 또는 다른 사용자 제어형 요소, 및/또는 다른 품목들의 조작에 의해서) 사용자가 이용할 수 있는 가상 상품들 및/또는 화폐(currency)의 "재고 목록(inventory)"을 가질 수 있을 것이다.
일부 구현예들에서, 사용자들은 가상 공간 내에서 교환되는 통신들을 통해서 서로 상호 작용할 수 있을 것이다. 그러한 통신들은 문자 채팅, 문자 메시지들, 개인용 메시지들, 음성 통신들, 및/또는 다른 통신들 중 하나 이상을 포함할 수 있을 것이다. 통신들은 그들 각각의 클라이언트 장치들(예를 들어, 무선 클라이언트 장치(12))을 통해서 사용자들에 의해서 수신되고 입력될 수 있을 것이다. 통신들은 게임 서버(14)를 통해서 적절한 사용자들에 대해서 그리고 그러한 사용자들로부터 루팅될(routed) 수 있을 것이다.
일부 구현예들에서, 게임 모듈(30)은, 사용자가 가상 공간 내의 게임에 참여할 수 있도록, 구성될 수 있을 것이다. 게임은, 슈터 게임 미캐닉을 포함할 수 있을 것이다. 슈터 게임 미캐닉은 사용자에게 제시된 뷰의 필드(시계; 視界) 내에서 목표물을 향해서 발사체를 조준 및/또는 발사하는 것을 포함할 수 있을 것이다. 발사체는 (예를 들어, 사용자 제어형 캐릭터 또는 다른 엔티티에 의해서 운반 또는 동작되는) 가상 공간 내의 가상 무기로부터 발사될 수 있을 것이다. 슈터 게임 미캐닉은, 발사체의 조준 및/또는 발사에 더하여, 가상 공간 내의 캐릭터(예를 들어, 사용자 캐릭터 또는 다른 엔티티)의 위치를 제어하는 것을 포함할 수 있을 것이다. 일부 구현예들에서, 슈터 게임 미캐닉은 무기 상의 시뮬레이팅된 관찰 도구를 통해서 목표물을 관찰하는 것, 무기들을 교환하는 것, 무기를 재장전하는 것, 및/또는 슈터 게임 미캐닉의 다른 양태들을 포함할 수 있을 것이다. 일부 구현예들에서, 게임은 여러 가지 과제들, 레벨들, 원정들(quests), 및/또는 하나 이상의 사용자들이 참여할 수 있는 다른 도전들 또는 활동들을 포함할 수 있을 것이다. 게임은 사용자들(또는 그들의 엔티티들)이 적들(adversaries)인 활동들, 및/또는 사용자들(또는 그들의 엔티티들)이 연맹인 활동들을 포함할 수 있을 것이다. 게임은 사용자들(또는 그들의 엔티티들)이 비-플레이어 캐릭터들의 적들인 활동들, 및/또는 사용자들(또는 그들의 엔티티들)이 비-플레이어 캐릭터들의 연맹인 활동들을 포함할 수 있을 것이다. 게임에서, 사용자에 의해서 제어되는 엔티티들이 포인트들, 가상 화폐 또는 다른 가상 품목들, 경험 포인트들, 레벨들, 및/또는 경험 및/또는 성공을 나타내는 다른 경계 설정(demarcation)을 획득할 수 있을 것이다. 게임은 가상 공간에서 구현될 수 있을 것이고, 또는 가상 공간이 없이 구현될 수 있을 것이다. 게임(및/또는 그러한 게임이 구현될 수 있는 가상 공간)이 동기식, 비동기식, 및/또는 반(semi)-동기식일 수 있을 것이다.
동작 인식 모듈(32)은 터치 감응형 표면(22) 상에서 사용자에 의해서 이루어지는 동작들의 세트들 중의 개별적인 하나의 동작들을 식별하도록 구성될 수 있을 것이다. 동작 인식 모듈(32)은 터치 감응형 표면(22)으로부터의 출력 신호들을 기초로 동작들의 세트들 중의 개별적인 하나의 동작들을 식별하도록 구성될 수 있을 것이다. 동작은 하나 이상의 동작 매개변수들에 의해서 규정될 수 있을 것이다. 하나 이상의 동작 매개변수들이 접촉 중의 하나 이상의 이동 방향들, 접촉 중에 이루어진 이동의 형상, 하나 이상의 접촉 위치들, 하나 이상의 이동들의 특정 시퀀스, 하나 이상의 접촉 위치들의 특정 배열, 복수의 접촉들 사이의 상대적인 위치, 복수의 접촉들의 상대적인 타이밍, 하나 이상의 접촉들의 유지 시간, 및/또는 다른 매개변수들을 포함할 수 있을 것이다. 개별적인 동작의 동작 규정이 하나 이상의 동작 매개변수들에 대한 매개변수 값들을 특정할 수 있을 것이다. 동작 인식 모듈(32)은 복수의 저장된 동작 규정들(예를 들어, 무선 클라이언트 장치(12) 상에서 로컬적으로(locally) 저장되는)에 대한 접근을 할 수 있을 것이다.
사용자 동작의 식별은 터치 감응형 표면(22)으로부터의 출력 신호들에 의해서 이송되는 정보의 분석을 기초로 하여 이루어질 수 있을 것이다. 분석은 동작 규정들과 출력 신호들에 의해서 이송되는 정보 사이의 비교를 포함할 수 있을 것이다. 동작 인식 모듈(32)은 사용자의 터치 감응형 표면(22)과의 현재의 또는 이전에 실시된 상호 작용의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 동작 규정들에 의해서 특정된 매개변수 값들과 비교하여, 현재의 또는 이전에 실시된 상호 작용이 동작 규정들 중 하나와 일치되는지의 여부를 결정할 수 있을 것이다. 동작 규정과 사용자에 의해서 실시된 상호 작용 사이의 일치에 응답하여, 동작 인식 모듈(32)은 일치된 동작 규정에 상응하는 동작으로서 사용자의 상호 작용을 식별하도록 구성될 수 있을 것이다.
동작들의 세트 중의 개별적인 하나의 동작들은 2개 손가락 탭 동작, 반전 핀치 동작, 운동 동작, 주시(look) 동작, 회전(turn) 동작, 무기 변경 동작, 재장전 동작, 및/또는 다른 동작들을 포함할 수 있을 것이다.
제어 모듈(34)은 사용자로부터의 제어 입력들을 결정하도록 구성될 수 있을 것이다. 제어 모듈(34)은 식별된 동작들을 기초로 제어 입력들을 결정하도록 구성될 수 있을 것이다. 동작들의 세트 중의 개별적인 하나의 동작들을 식별하는 동작 인식 모듈에 응답하여, 제어 모듈(34)이 식별된 동작들에 상응하는 제어 입력들을 결정할 수 있도록, 제어 모듈(34)이 구성될 수 있을 것이다. 제어 입력들의 수신이, 예를 들어, 가상 공간 내의 및/또는 1 인칭 슈터 게임 내의 작용들을 유발할 수 있도록, 게임 모듈(30)이 구성될 수 있을 것이다. 일부 구현예들에서, (예를 들어, 2개 손가락 탭 동작에 응답한) 발사체의 조준 및/또는 발사, (예를 들어, 반전 핀치 동작에 응답한) 관찰 도구를 통한 하나 이상의 객체들의 관찰, (예를 들어, 운동 동작에 응답한) 가상 공간 내의 사용자 캐릭터의 운동, (예를 들어, 주시 동작에 응답한) 특정 방향의 주시, (예를 들어, 회전 동작에 응답한) 회전, (예를 들어, 무기 변경 동작에 응답한) 무기 변경, (예를 들어, 재장전 동작에 응답한) 무기 재장전, 및/또는 다른 동작들을 포함하는 하나 이상의 동작들을 유발하도록, 제어 입력들이 구성될 수 있을 것이다.
터치 감응형 표면(22)은 사용자에 의한 접촉에 응답하여 출력 신호들을 생성하도록 구성될 수 있을 것이다. 출력 신호들은, 터치 감응형 표면이 접촉되는 하나 이상의 위치들과 관련된 정보를 이송하도록 구성될 수 있을 것이다. 일부 구현예들에서, 터치 감응형 표면(22)이 디스플레이(24)를 포함할 수 있을 것이다. 디스플레이(24)는 가시적인 정보를 사용자에게 제시하도록 구성될 수 있을 것이다. 가시적인 정보는 가상 공간의 하나 이상의 뷰들 및/또는 하나 이상의 다른 뷰들을 포함할 수 있을 것이다. 일부 구현예들에서, 터치 감응형 표면(22) 상의 하나 이상의 접촉 위치들이 디스플레이(24) 상의 하나 이상의 위치들에 상응할 수 있을 것이다.
일부 구현예들에서, 터치 감응형 표면(22)이 터치스크린을 포함할 수 있을 것이다. 터치스크린은 무선 클라이언트(12)에 대한 인터페이스를 제공하도록 구성될 수 있을 것이고, 그러한 인터페이스를 통해서 사용자가 무선 클라이언트(12)로 정보를 입력하고 및/또는 무선 클라이언트(12)로부터 정보를 수신할 수 있을 것이다. 터치스크린의 전자적 디스플레이 능력을 통해서, 가상 공간의 뷰들, 1 인칭 슈터 게임의 뷰들, 그래픽들, 텍스트, 및/또는 다른 가시적인 콘텐트가 사용자에게 제시될 수 있을 것이다. 터치스크린의 전자적 디스플레이의 일부 또는 전부에 중첩되어, 터치스크린의 표면과 접촉하는 및/또는 근접하는 하나 이상의 객체들의 위치를 나타내는 출력 신호들을 생성하도록 구성된 하나 이상의 센서들을 터치스크린이 포함할 수 있을 것이다. 터치스크린의 센서(들)가 저항형, 용량형(capacitive), 표면 음향 파동, 또는 다른 센서들 중 하나 이상을 포함할 수 있을 것이다. 일부 구현예들에서, 터치스크린이 유리 패널, 전도성 층, 저항형 층, 스크래치 내성의 층, 전기적 전하를 저장하는 층, 변환기들, 반사부들 또는 다른 성분들 중 하나 이상을 포함할 수 있을 것이다.
도 2 및 도 3은 터치 감응형 표면(22)(도 2 및 도 3에서 터치스크린으로서 도시됨) 상에서 사용자(100)에 의해서 이루어진 제 1 사용자 상호 작용(200)(도 2)을 도시한다. 제 1 사용자 상호 작용(200)이 2개 손가락 탭 동작일 수 있을 것이다. 제 1 사용자 상호 작용(200)은, 예를 들어, 가상 공간의 제 1 뷰(201) 내의 무기(304)로부터의 상응하는 발사체(300)의 발사(302)(도 3)를 시행할 수 있을 것이다. 사용자(100)는 가상 공간 내에서의 발사체(300)의 발사 및/또는 발사의 조준을 위해서 상호 작용(200)을 이용할 수 있을 것이다. 도 2에 도시된 바와 같이, 상호 작용(200)은 실질적으로 동시적으로 2개의 위치들(202, 204)에서 터치 감응형 표면(22)을 탭핑하는 것을 포함할 수 있을 것이다. 만약 위치들(202 및 204)에서의 양 탭핑 상호 작용들이 미리 결정된 시간의 기간 내에 이루어진다면, 위치들(202 및 204)에서의 탭핑 상호 작용들이 실질적으로 동시적인 것으로 결정될 수 있을 것이다. 터치 감응형 표면(22)이, 예를 들어, 위치(204)에서, 및/또는 위치(202)에서 제 1 접촉을 수신할 때 미리 결정된 시간의 기간이 시작될 수 있을 것이다. 미리-결정된 시간의 기간은 제조시에 결정될 수 있을 것이고 무선 클라이언트의 사용자 인터페이스(예를 들어, 무선 클라이언트(12)의 사용자 인터페이스(16))를 통해서 사용자에 의해서 셋팅될 수 있고, 및/또는 다른 방법에 의해서 결정될 수 있을 것이다. 2개 손가락 탭 동작이 사용자(100)에 의해서 터치 감응형 표면(22) 상에서 이루어질 때 사용자 상호 작용(200)을 식별하도록, 동작 인식 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 동작 인식 모듈(32))이 구성될 수 있을 것이다. 동작 인식 모듈은 상호 작용(200)의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 상호 작용(200)이 2개 손가락 탭 동작의 동작 규정과 일치하는지의 여부를 결정하기 위해서, 결정된 매개변수 값들이 2개 손가락 탭 동작의 규정에 의해서 특정된 매개변수 값들과 비교될 수 있을 것이다. 2개 손가락 탭 동작 규정의 매개변수 값들과 사용자에 의해서 실시된 상호 작용(200)의 매개변수 값들 사이의 일치에 응답하여, 동작 인식 모듈이 상호 작용(200)을 2개 손가락 탭 동작으로서 식별하도록 구성될 수 있을 것이다. 상호 작용(200)이 2개 손가락 탭 동작인지의 여부를 결정하기 위해서 이용되는 동작 규정은, 접촉 위치들(202, 204) 사이의 거리(210), 최소 접촉 시간 및/또는 최대 접촉 시간, 접촉 위치들(202 및/또는 204)에 대한 최대 이동 거리, 위치(202)에서의 접촉과 위치(204)에서의 접촉 사이의 최대 시간 기간, 및/또는 다른 동작 매개변수들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
2개 손가락 탭 동작(도 2)을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 게임 모듈(30))로 하여금 가상 공간(도 3) 내에서 발사체(300)를 발사(302)하게 유도하는 사용자(100)로부터의 제 1 제어 입력을 제어 모듈이 결정할 수 있도록, 제어 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 제어 모듈(34))이 구성될 수 있을 것이다. 제 1 제어 입력은 발사체가 지향되는 가상 공간 내의 목표물 위치(306)를 특정할 수 있을 것이다. 일부 구현예들에서, 목표물 위치(306)는, 2개 손가락 탭 동작을 만드는데 있어서 사용자(100)가 터치 감응형 표면과 접촉된 위치들 중 하나 또는 양 위치들 모두에 상응하는 터치 감응형 표면(22) 상의 제어 위치(308)에 상응할 수 있을 것이다. 일부 구현예들(예를 들어, 터치 감응형 표면(22)이 터치 스크린을 포함할 때)에서, 제어 위치(308)는 목표물 위치(306)가 디스플레이되는 터치스크린 상의 위치일 수 있을 것이다. 일부 구현예들에서, 제어 위치(308)는 2개 손가락 탭 동작을 만드는데 있어서 사용자(100)가 터치 감응형 표면(22)과 접촉하는 2개의 위치들(202, 204) 사이의 중심 지점이 될 수 있을 것이다.
도 4 내지 도 7은 터치 감응형 표면(22)(도 4 내지 도 7에서 터치스크린으로 도시됨) 상의 제 2 사용자 상호 작용(400)(도 4)을 도시한다. 제 2 사용자 상호 작용(400)은 반전 핀치 동작일 수 있을 것이다. 터치 감응형 표면(22) 상에서의 제 2 사용자 상호 작용(400)의 입력에 응답하여 소형 화기의 관찰 도구를 통해서 장면(도 7에 도시된 장면 뷰(700))을 시뮬레이팅하는 하나 이상의 뷰들을 제시하도록, 시스템(10)이 구성될 수 있을 것이다. 도 4에 도시된 바와 같이, 제 2 사용자 상호 작용(400)은 실질적으로 동시적으로 2개의 위치들(402, 404)에서 터치 감응형 표면(22)과 접촉하는 것, 이어서 터치 감응형 표면(22)과의 접촉을 유지하면서 2개의 접촉 위치들(402, 404)을 더 멀리 이동시키는 것을 포함할 수 있을 것이다. 도 5는 새로운 위치들(502 및 504)에서 더 멀어진 위치들(402 및 404)을 도시한다. 사용자 상호 작용(400)을 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 이루어진 반전 핀치 동작으로서 식별하도록, 동작 인식 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 동작 인식 모듈(32))이 구성될 수 있을 것이다. 상호 작용(400)의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 동작 인식 모듈이 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 반전 핀치 동작의 규정에 의해서 특정된 매개변수 값들과 비교하여, 상호 작용(400)이 반전 핀치 동작의 동작 규정과 일치하는지의 여부를 결정한다. 반전 핀치 동작 규정의 매개변수 값들과 사용자(100)에 의해서 실시된 상호 작용(400)의 매개변수 값들 사이의 일치에 응답하여, 상호 작용(400)을 반전 핀치 동작으로서 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 상호 작용(400)이 반전 핀치 동작인지의 여부를 결정하기 위해서 이용된 동작 규정들이 접촉 위치들(402, 및 404) 사이의 최소 및/또는 최대 거리(511)(도 5), 접촉 위치들(502 및 504) 사이의 최소 및/또는 최대 거리(514), 접촉 위치들(402 및/또는 404)에 대한 최소 이동 거리(510, 512), 및/또는 다른 값들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
반전 핀치 동작으로 식별하는 동작 인식 모듈에 응답하여, 제어 모듈이 사용자(100)로부터의 제 2 제어 입력을 결정할 수 있도록, 제어 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 제어 모듈(34))이 구성될 수 있을 것이다. 제 2 제어 입력은, 게임 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 게임 모듈(30))로 하여금 가상 공간의 제 2 뷰(401)에서 관찰 도구를 통한 장면을 시뮬레이팅하게 할 수 있을 것이다. 도 6에 도시된 바와 같이, 관찰 도구를 통한 장면의 시뮬레이션은 사용자(100)에게 제시되는 가상 공간의 제 2 뷰(401)의 줌 레벨이 제 1 줌 레벨(600)로부터 제 2 줌 레벨(602)로 변화되게 할 수 있을 것이다. 제 2 줌 레벨(602)은 제 1 줌 레벨(600)에 대비하여 증대될 수 있을 것이다. 도 7에 도시된 바와 같이, 일부 구현예들에서, 제 2 줌 레벨(602)이 소형 화기의 시야를 통한 장면 뷰(700)의 줌 레벨을 시뮬레이트하도록 구성될 수 있을 것이다. 일부 구현예들에서, 제 2 제어 입력은 제 2 뷰(401)의 일부(예를 들어, 시뮬레이트된 소형 화기 장면 뷰를 통해서 보여지는 일부)가 제 2 줌 레벨(602)까지 증대되게 하는 한편 제 2 뷰(401)의 나머지는 제 1 줌 레벨(600)에서 유지되도록 할 수 있을 것이다.
일부 구현예들에서, 게임 플레이 중에 사용자가 정상적으로 이용가능한 게임 기능성 및/또는 가상 공간 중 적어도 일부가 제 2 제어 입력에 응답하여 감소되어, 게임 모듈이 제 2 뷰(401)로 하여금 관찰 도구를 통한 장면을 시뮬레이팅하도록 하게끔, 게임 모듈이 구성될 수 있을 것이다. 예를 들어, 1 인칭 슈터 게임을 플레이하는 동안, 사용자는 제 1 줌 레벨(600)에서 게임을 볼 때 무기들을 교환할 수 있으나, 제 2 줌 레벨(700)에서 시뮬레이트된 장면 뷰(700)를 통해서 게임을 볼 때에는 무기들을 교환할 수 없을 것이다.
일부 구현예들에서, 장면 뷰(700)가 터치 감응형 표면(22) 상의 제 3 사용자 상호 작용에 응답하여 장면 뷰(700)가 불연속적이 되도록, 시스템(10)이 구성될 수 있을 것이다. 제 3 사용자 상호 작용이 핀치 동작이 될 수 있을 것이다. 제 3 사용자 상호 작용은 실질적으로 동시적으로 2개의 위치들에서 터치 감응형 표면(22)과 접촉하는 것, 이어서 터치 감응형 표면(22)과의 접촉을 유지하면서 2개의 접촉 위치들을 함께 근접하도록 이동시키는 것을 포함할 수 있을 것이다(예를 들어, 도 5 및 도 4에 도시된 이동과 실질적으로 반대이다). 제 3 사용자 상호 작용을 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 이루어진 핀치 동작으로서 식별하도록, 동작 인식 모듈이 구성될 수 있을 것이다. 동작 인식 모듈이, 제 3 상호 작용의 동작 매개변수들에 대해서 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 핀치 동작의 규정에 의해서 특정된 매개변수 값들과 비교하여, 제 3 상호 작용이 핀치 동작의 동작 규정과 일치하는지의 여부를 결정할 수 있을 것이다. 핀치 동작 규정의 매개변수 값들과 사용자에 의해서 실시된 제 3 상호 작용의 매개변수 값들 사이의 일치에 응답하여, 제 3 상호 작용을 핀치 동작으로서 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 제 3 사용자 상호 작용을 핀치 동작으로서 식별하는 동작 인식 모듈에 응답하여, 제어 모듈이 사용자(100)로부터의 제 3 제어 입력을 결정할 수 있도록, 제어 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 제어 모듈(34))이 구성될 수 있을 것이다. 제 3 제어 입력은, 게임 모듈로 하여금 장면 뷰(700)가 불연속적이 되도록 유도하게 할 수 있을 것이다.
도 8 - 도 10은 터치 감응형 표면(22)(도 8 - 도 10에 터치스크린으로서 도시됨) 상에서 사용자(100)에 의해서 이루어진 제 4 사용자 상호 작용(800)(도 8) 및 가상 공간의 제 3 뷰(801)(도 8)로부터 가상 공간의 제 4 뷰(1001)(도 10)로의 상응하는 변화를 도시한다. 일부 구현예들에서, 사용자(100)에게 제시하기 위한 가상 공간의 하나 이상의 뷰들이 제 3 뷰(801)(도 8) 및 제 4 뷰(1001)(도 10)를 포함하도록, 게임 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 게임 모듈(30))이 구성될 수 있을 것이다. 도 8 - 도 10에 도시된 바와 같이, 제 3 뷰(801)가 가상 공간 내의 현재 위치에 상응할 수 있을 것이고, 그리고 제 4 뷰(1001)가 가상 공간 내의 운동 위치(804)(도 8 및 도 9)에 상응할 수 있을 것이다.
제 4 상호 작용(800)이 운동 동작일 수 있을 것이다. 제 4 상호 작용(800)은 가상 공간에서 운동 위치(804)에 상응하는 위치에서 터치 감응형 표면(22)과 접촉하는 것을 포함할 수 있을 것이다. 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 운동 동작이 이루어질 때 사용자 상호 작용(800)을 식별하도록, 동작 인식 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 동작 인식 모듈(32))이 구성될 수 있을 것이다. 동작 인식 모듈은 상호 작용(800)의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 운동 동작의 규정에 의해서 특정된 매개변수 값들과 비교하여, 상호 작용(800)이 운동 동작의 동작 규정과 일치하는지의 여부를 결정할 수 있을 것이다. 운동 동작 규정의 매개변수 값들과 사용자에 의해서 실시된 상호 작용(800)의 매개변수 값들 사이의 일치에 응답하여, 상호 작용(800)을 운동 동작으로서 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 상호 작용(800)이 운동 동작인지의 여부를 결정하기 위해서 이용되는 동작 규정들은, 가상 공간 내에서 운동 위치(804)를 규정하는 터치 감응형 표면(22) 상의 최소 및/또는 최대 구역(area)(820)(도 9), 위치(1502)에서 터치 감응형 표면(22) 상에서 사용자에 의해서 이루어진 접촉에 대한 최소 및 최대 접촉 시간, 및/또는 다른 동작 매개변수들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
운동 동작을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈로 하여금 사용자(100)에게 제시되는 뷰를 제 3 뷰(801)(도 8, 도 9)로부터 제 4 뷰(1001)(도 10)로 변경할 수 있게 하는 제 4 제어 입력을 제어 모듈이 결정할 수 있도록, 제어 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 제어 모듈(34))이 구성될 수 있을 것이다. 일부 구현예들(예를 들어, 여기에서, 터치 감응형 표면이 터치스크린이다)에서, 운동 위치(804)는, 사용자(100)가 운동 동작(800)으로 터치스크린과 접촉하는 터치스크린 상의 위치가 될 수 있을 것이다. 일부 구현예들에서, 제 3 뷰(801)로부터 제 4 뷰(1001)로의 변경은 가상 공간을 통한 및/또는 1 인칭 슈터 게임을 통한 시뮬레이팅된 운동을 포함할 수 있을 것이다. 일부 구현예들에서, 가상 공간을 통한 시뮬레이팅된 운동은 사용자(100)에게 디스플레이된 가상 공간의 인스턴스에서 객체 주위의 경로를 자동적으로(예를 들어, 시뮬레이트된 운동 중에 터치 감응형 표면(22)과의 임의의 부가적인 접촉을 사용자(100)가 하지 않고) 탐색하는 것을 포함할 수 있을 것이다.
도 11 및 도 12는 가상 공간의 제 5 뷰(1101)에서 터치 감응형 표면(22)(도 11 및 도 12에서 터치스크린으로 도시됨) 상에서 사용자(100)에 의해서 이루어진 제 5 사용자 상호 작용(1100)(도 11)을 도시한다. 제 5 사용자 상호 작용(1100)은 주시 동작일 수 있을 것이다. 사용자는 가상 공간 내에서 하나 이상의 방향들을 따라서 "주시"하기 위해서 상호 작용(1100)을 이용할 수 있을 것이다. 일부 구현예들에서, 주시하는 것은, 제 5 뷰(1101)로부터 상호 작용(1100)을 통해서 사용자(100)에 의해서 표시된 방향을 따라서 가상 공간을 나타내는 제 6 뷰(1103)(도 12)로 가상 공간의 뷰를 변화시키는 게임 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 게임 모듈(30))을 포함할 수 있을 것이다.
도 11 및 도 12에 도시된 바와 같이, 상호 작용(1100)은 터치 감응형 표면(22) 상의 방향적인 스와이프(swipe)(1102)를 포함할 수 있을 것이다. 방향적인 스와이프(1102)는 단일 위치(1104)에서 터치 감응형 표면(22)과 접촉하는 것, 이어서 터치 감응형 표면(22)과의 접촉을 유지하면서, 제 1 방향(1106), 제 2 방향(1108), 제 3 방향(1110), 제 4 방향(1112), 및/또는 다른 방향들 중 하나 이상을 따라서 접촉 위치(1104)를 이동시키는 것을 포함할 수 있을 것이다. 사용자 상호 작용(1100)을 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 이루어진 주시 동작으로서 식별하도록, 동작 인식 모듈(예를 들어, 도 1에 도시되고 본원에서 설명된 동작 인식 모듈(32))이 구성될 수 있을 것이다. 동작 인식 모듈은 상호 작용(1100)의 동작 매개변수들에 대해서 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 주시 동작의 규정에 의해서 특정된 매개변수 값들과 비교하여, 상호 작용(1100)이 주시 동작의 동작 규정과 일치하는지의 여부를 결정할 수 있을 것이다. 주시 동작 규정의 매개변수 값들과 사용자에 의해서 실시된 상호 작용(1100)의 매개변수 값들 사이의 일치에 응답하여, 상호 작용(1100)을 주시 동작으로서 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 상호 작용(1100)이 운동 동작인지의 여부를 결정하기 위해서 이용되는 동작 규정들은, 터치 감응형 표면(22) 상의 2개의 치수적인 방향, 터치 감응형 표면(22) 상에서 사용자에 의해서 만들어진 스와이프의 최소 거리(1210), 및/또는 다른 동작 매개변수들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
주시 동작(도 11)을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈이 제 5 뷰(1101)로부터 상호 작용(1100)을 통해서 사용자(100)에 의해서 표시된 방향을 따라서 가상 공간을 나타내는 제 6 뷰(1103)로 변화시키게 하는 사용자(100)로부터의 제 5 제어 입력을 제어 모듈이 결정할 수 있도록, 제어 모듈(예를 들어, 제어 모듈(34))이 구성될 수 있을 것이다.
일부 구현예들에서, 제 1 방향(1106)을 따른 방향적인 스와이프(1102)에 응답하여, 게임 모듈이 제 5 뷰(1101)로부터 가상 공간 내에서 내려다 보는 것(look down)을 나타내는 제 6 뷰(1103)로 변화시키도록, 제어 모듈이 제 5 제어 입력을 결정할 수 있을 것이다. 일부 구현예들에서, 제 2 방향(1108)을 따른 방향적인 스와이프(1102)에 응답하여, 게임 모듈이 제 5 뷰(1101)로부터 가상 공간 내에서 올려다 보는 것을 나타내는 제 6 뷰(1103)로 변화시키도록, 제어 모듈이 제 5 제어 입력을 결정할 수 있을 것이다. 일부 구현예들에서, 제 3 방향(1110)을 따른 방향적인 스와이프(1102)에 응답하여, 게임 모듈이 제 5 뷰(1101)로부터 가상 공간 내에서 좌측을 보는 것을 나타내는 제 6 뷰(1103)로 변화시키도록, 제어 모듈이 제 5 제어 입력을 결정할 수 있을 것이다. 일부 구현예들에서, 제 4 방향(1112)을 따른 방향적인 스와이프(1102)에 응답하여, 게임 모듈이 제 5 뷰(1101)로부터 가상 공간 내에서 우측을 보는 것을 나타내는 제 6 뷰(1103)로 변화시키도록, 제어 모듈이 제 5 제어 입력을 결정할 수 있을 것이다. 본원에서 기술된 4개의 방향들은 제한적인 것으로 의도된 것이 아니다. 가상 공간 내에서 임의의 방향을 따라서 "주시"하기 위해서 사용자가 하나 이상의 다른 방향들을 따른 유사한 스와이핑 동작들을 이용할 수 있도록, 시스템(10)이 구성될 수 있을 것이다.
도 13은 가상 공간의 제 7 뷰(1301)에서 터치 감응형 표면(22)(도 13의 터치스크린으로서 도시됨) 상의 제 6 사용자 상호 작용(1300)을 도시한다. 제 6 사용자 상호 작용(1300)은 선회 동작이 될 수 있을 것이다. 사용자 상호 작용(1300)은 선회 동작 구역(1306)에서 터치 감응형 표면(22)의 엣지(1304)를 향한 단일 위치(1302)에서 터치 감응형 표면(22)과 접촉하는 것을 포함할 수 있을 것이다. 일부 구현예들에서, 사용자 상호 작용(1300)은 선회 동작 구역(1306)의 중심에서 및/또는 중심 부근에서 선회 동작 구역(1306)과 접촉하는 것을 포함할 수 있을 것이다. 사용자 상호 작용(1300)을 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 이루어진 선회 동작으로서 식별하도록, 동작 인식 모듈(예를 들어, 동작 인식 모듈(32))이 구성될 수 있을 것이다. 동작 인식 모듈은 상호 작용(1300)의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 선회 동작의 규정에 의해서 특정된 매개변수 값들과 비교하여, 상호 작용(1300)이 선회 동작의 동작 규정과 일치하는지의 여부를 결정할 수 있을 것이다. 선회 동작 규정의 매개변수 값들과 사용자에 의해서 실시된 상호 작용(1300)의 매개변수 값들 사이의 일치에 응답하여, 상호 작용(1300)을 선회 동작으로서 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 상호 작용(1300)이 선회 동작인지의 여부를 결정하기 위해서 이용되는 동작 규정들은, 선회 동작 구역(1306)을 규정하는 터치 감응형 표면(22) 상의 최소 및/또는 최대 구역(1310), 접촉 시간 매개변수, 및/또는 다른 매개변수들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
선회 동작을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈(예를 들어, 게임 모듈(30))이 제 7 뷰(1301)로부터 실질적으로 사용자(100) 뒤쪽의 방향을 따라서 가상 공간을 나타내는 제 8 뷰로(예를 들어, 제 7 뷰(1301)로부터 180°선회) 변화시키도록, 제어 모듈(예를 들어, 도 1에 도시된 제어 모듈(34))이 구성될 수 있을 것이다. 일부 구현예들에서, 선회 동작 구역(1306)이 선회 동작 구역(1306)을 둘러싸는 라인들, 및/또는 사용자(100)에게 디스플레이되는 제 7 뷰(1301)의 다른 구역들에 대해서 선회 동작 구역(1306)을 보여주는 다른 가시적인 마킹들을 통해서 사용자에게 보여질 수 있도록, 시스템(10)이 구성될 수 있을 것이다. 일부 구현예들에서, 선회 동작 구역(1306)이 사용자(100)에게 보여지지 않도록 시스템(10)이 구성될 수 있을 것이다.
도 14는 가상 공간의 제 9 뷰(1401) 내에서 터치 감응형 표면(22)(도 14에서 터치스크린으로 도시됨) 상의 제 7 사용자 상호 작용(1400)을 도시한다. 제 7 사용자 상호 작용(1400)이 무기 변화 동작이 될 수 있을 것이다. 게임 모듈(예를 들어, 게임 모듈(30))은 제 9 뷰(1401)에서 무기(304)를 사용자(100)에게 디스플레이하도록 구성될 수 있을 것이다. 제 7 사용자 상호 작용(1400)은, 무기(304)가 가상 공간 내에서 디스플레이되는 위치에 상응하는 단일 위치(1402)에서 터치 감응형 표면(22)과 접촉하는 것을 포함할 수 있을 것이다. 일부 구현예들에서, 사용자 상호 작용(1400)은, 무기(304)에 상응하는 위치에서 터치 감응형 표면(22)과 접촉하는 것, 그리고 터치 감응형 표면(22)의 엣지(1304)를 향한 제 2 방향(1108)을 따라서 터치 감응형 표면(22) 상의 위치(1402)를 방향적으로 스와이핑하는 것(1102)을 더 포함할 수 있을 것이다. 동작 인식 모듈(예를 들어, 동작 인식 모듈(32))은 사용자 상호 작용(1400)을 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 만들어진 무기 변경 동작으로 식별하도록 구성될 수 있을 것이다. 동작 인식 모듈은 상호 작용(1400)의 동작 매개변수들에 대한 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 상호 작용(1400)이 무기 변경 동작의 동작 규정에 일치하는지의 여부를 결정하기 위해서, 결정된 매개변수 값들을 무기 변경 동작의 규정에 의해서 특정된 매개변수 값들과 비교할 수 있을 것이다. 무기 변경 동작 규정의 매개변수 값들과 사용자(100)에 의해서 실시된 상호 작용(1400)의 매개변수 값들 사이의 일치에 응답하여, 상호 작용(1400)을 무기 변경 동작으로 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 상호 작용(1400)이 무기 변경 동작인지의 여부를 결정하기 위해서 이용되는 동작 규정들은, 무기(304)가 디스플레이되는 위치(1402)를 규정하는 터치 감응형 표면(22) 상의 최소 및/또는 최대 구역(1410), 터치 감응형 표면(22) 상의 방향, 터치 감응형 표면(22) 상에서 사용자에 의해서 이루어진 스와이프의 최소 거리(1412), 및/또는 다른 동작 매개변수들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
무기 변경 동작을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈(예를 들어, 게임 모듈(30))이 무기(304)를 다른 무기로 변경하도록 유도하는 사용자(100)로부터의 제 7 제어 입력을 제어 모듈이 결정할 수 있도록, 제어 모듈(예를 들어, 제어 모듈(34))이 구성될 수 있을 것이다. 본원에 개시된 상호 작용(1400)과 관련된 스와이프 방향 및 엣지 설명은 제한적인 것으로 의도된 것이 아니다. 상호 작용(1400)은 터치 감응형 표면(22)의 임의 엣지를 향한 임의 방향을 따른 무기(304) 상에서의 스와이핑을 포함할 수 있을 것이다.
도 15 및 도 16은 가상 공간의 제 10 뷰(1501) 내에서 터치 감응형 표면(22)(도 15 및 도 16에서 터치스크린으로 도시됨) 상에서 사용자(100)가 만든 제 8 사용자 상호 작용(1500)을 도시한다. 제 8 사용자 상호 작용(1500)이 재장전 동작이 될 수 있을 것이다. 게임 모듈(예를 들어, 게임 모듈(30))이 뷰(1501)에서 사용자(100)에게 무기(304)를 디스플레이하도록 구성될 수 있을 것이다. 사용자 상호 작용(1500)은, 가상 공간 내에서 무기(304)가 디스플레이되는 위치에 상응하는 터치 감응형 표면(22) 상의 위치(1502)에서 터치 감응형 표면(22) 상에서의 하나의 탭(tap)을 포함할 수 있을 것이다. 동작 인식 모듈(예를 들어, 동작 인식 모듈(32))은, 사용자 상호 작용(1500)을 터치 감응형 표면(22) 상에서 사용자(100)에 의해서 이루어진 재장전 동작으로서 식별하도록 구성될 수 있을 것이다. 동작 인식 모듈은 상호 작용(1500)의 동작 매개변수들에 대해서 매개변수 값들을 결정하도록 구성될 수 있을 것이다. 이어서, 결정된 매개변수 값들을 재장전 동작의 규정에 의해서 특정된 매개변수 값들과 비교하여, 상호 작용(1500)이 재장전 동작의 동작 규정과 일치하는지의 여부를 결정할 수 있을 것이다. 재장전 동작 규정의 매개변수 값들과 사용자에 의해서 실시된 상호 작용(1500)의 매개변수 값들 사이의 일치에 응답하여, 상호 작용(1500)을 재장전 동작으로서 식별하도록 동작 인식 모듈이 구성될 수 있을 것이다. 상호 작용(1500)이 재장전 동작인지의 여부를 결정하기 위해서 이용된 동작 규정들은, 무기(304)가 디스플레이되는 위치(1502)를 규정하는 터치 감응형 표면(22) 상의 최소 및/또는 최대 구역(1610)(도 16), 위치(1502)에서 터치 감응형 표면(22) 상에서 사용자에 의해서 만들어진 접촉에 대한 최소 및 최대 접촉 시간, 및/또는 다른 동작 매개변수들 중 하나 이상을 규정하는 매개변수 값들 및/또는 매개변수 값 문턱값들을 포함할 수 있을 것이다.
재장전 동작을 식별하는 동작 인식 모듈에 응답하여, 게임 모듈이 무기(304)를 재장전하게 하는 사용자로부터의 제 8 제어 입력을 제어 모듈이 결정할 수 있도록, 제어 모듈(예를 들어, 제어 모듈(34))이 구성될 수 있을 것이다.
도 1을 다시 참조하면, 일부 구현예들에서, 사용자 인터페이스(16)는 시스템(10)과 사용자 사이에 인터페이스를 제공하도록 구성될 수 있을 것이고, 상기 인터페이스를 통해서 사용자가 시스템(10)으로 정보를 제공할 수 있을 것이고, 그리고 시스템(10)으로부터 정보를 수신할 수 있을 것이다. 이는, "정보"로서 통칭되는, 부가적인 데이터, 큐들(cues), 결과들 및/또는 명령들 그리고 임의의 다른 통신가능한 항목들이 사용자와 시스템(10) 사이에서 통신될 수 있게 한다. 사용자 인터페이스(16)에 포함되기에 적합한 부가적인 인터페이스 장치들에는, 터치 감응형 표면(22), 디스플레이(24), 키보드, 버튼들, 스위치들, 노브들, 레버들, 스피커들, 마이크로폰, 표시부 광, 청각적인 경고, 프린터, 및/또는 다른 인터페이스 장치들이 포함될 수 있을 것이다. 하나의 구현예에서, 사용자 인터페이스(16)는 복수의 분리된 인터페이스들을 포함한다. 하나의 구현예에서, 사용자 인터페이스(16)는 무선 클라이언트(12)와 일체로 제공되는 적어도 하나의 인터페이스를 포함한다.
유선(hard-wired) 또는 무선의 다른 통신 기술들이 또한 본원 개시 내용에서 사용자 인터페이스(16)로서 고려될 수 있다는 것을 이해할 수 있을 것이다. 예를 들어, 본원 개시 내용은, 사용자 인터페이스(16)의 적어도 일부가 무선 클라이언트(12) 내에 제공된 분리가능한 저장 인터페이스와 통합될 수 있다는 것을 고려하고 있다. 이러한 예에서, 정보가 분리가능한 저장부(예를 들어, 스마트 카드, 플래시 드라이브, 분리가능 디스크 등)로부터 무선 클라이언트(12) 내로 로딩될 수 있을 것이고, 이는 사용자가 무선 클라이언트(12)의 구현을 맞춤형으로 구성할 수 있게(customize) 한다. 무선 클라이언트(12)와 함께 사용자 인터페이스(16)의 적어도 일부로서 이용하도록 구성된 다른 예시적인 입력 장치들 및 기술들에는 RS-232 포트, RF 링크, IR 링크, 모뎀(전화기, 케이블 또는 기타)이 포함되나, 이러한 것으로 제한되는 것은 아니다. 간략히 설명하면, 클라이언트 컴퓨팅 플랫폼(16)으로 정보를 통신하기 위한 임의의 부가적인 기술이 본원 개시 내용에 의해서 사용자 인터페이스(16)로서 고려될 수 있다.
전자적 저장부(20)가 정보를 전자적으로 저장하는 전자적 저장 매체를 포함할 수 있을 것이다. 전자적 저장부(20)의 전자적 저장 매체는, 예를 들어, 포트(예를 들어, USB 포트, 방화벽 포트 등)를 통해서 무선 클라이언트(12)에 분리가능하게 연결가능한 분리가능한 저장부 및/또는 무선 클라이언트(12) 내에 일체로 제공된(즉, 실질적으로 분리가 불가능한) 시스템 저장부 중 하나 또는 양자 모두를 포함할 수 있을 것이다. 전자적 저장부(20)는 광학적인 분리가능한 저장 매체(예를 들어, 광학적 디스크들 등), 자기적인 분리가능한 저장 매체(예를 들어, 자기적 테입, 자기적 하드 드라이브, 플로피 디스크 등), 전기적 대전-기반의 저장 매체(예를 들어, EEPROM, RAM 등), 솔리드-스테이트 저장 매체(예를 들어, 플래시 드라이브 등), 및/또는 다른 전자적으로 판독가능한 저장 매체 중 하나 이상을 포함할 수 있을 것이다. 전자적 저장부(20)는 하나 이상의 가상 저장 자원들(예를 들어, 클라우드 저장부, 가상의 개인용 네트워크, 및/또는 다른 가상의 저장 자원들)을 포함할 수 있을 것이다. 전자적 저장부(20)는 소프트웨어 알고리즘들, 프로세서(18)에 의해서 결정된 정보, 게임 서버(14)로부터 수신된 정보, 및/또는 무선 클라이언트(12)가 전술한 바와 같이 기능하게 할 수 있는 다른 정보를 저장할 수 있을 것이다. 비-제한적인 예로서, 동작 인식 모듈(32)에 의해서 인식된 동작들의 세트의 규정이 전자적 저장부(20) 내에 저장될 수 있을 것이다.
게임 서버(14)는 가상 공간, 1 인칭 슈터 게임, 및/또는 다른 애플리케이션들을 네트워크된 방식으로 호스팅(host)하도록 구성될 수 있을 것이다. 게임 서버(14)는 하나 이상의 프로세서들(40), 전자적 저장부(42), 및/또는 다른 성분들을 포함할 수 있을 것이다. 프로세서(40)는 게임 서버 모듈(44)을 실행하도록 구성될 수 있을 것이다. 게임 서버 모듈(44)은, 무선 클라이언트 장치들의 사용자들에게 온라인 멀티-플레이어 경험을 제공하기 위해서 무선 클라이언트 장치(12) 및/또는 하나 이상의 다른 무선 클라이언트 장치들 상에서 실행되는 게임 모듈(예를 들어, 게임 모듈(30))로 가상 공간 및/또는 게임 정보와 통신하도록 구성될 수 있을 것이다. 이는, 가상 공간의 인스턴스를 실행하는 것, 그리고 뷰 정보, 가상 공간 상태 정보, 및/또는 다른 가상 공간 정보를 포함하는 가상 공간 정보를 무선 클라이언트 장치(12) 및/또는 하나 이상의 다른 무선 클라이언트 장치로 제공하여 무선 클라이언트 장치들의 사용자들이 공유된 가상 공간 경험에 참여하는 것을 돕는 것을 포함할 수 있을 것이다. 게임 서버 모듈(44)은, 게임플레이뿐만 아니라, 사용자들 사이의 통신을 돕도록 구성될 수 있을 것이다.
프로세서들(40)은 프로세서(18)(도 1에서 도시되고 전술됨)와 관련하여 설명된 방식들 중 하나 이상의 방식으로 구현될 수 있을 것이다. 이는, 프로세서(40)가 복수의 분리된 프로세싱 유닛들을 포함하는 구현예들, 및/또는 프로세서(40)가 클라우드에서 가상화되는 구현예들을 포함한다. 전자적 저장부(42)는 전자적 저장부(20)(도 1에 도시되고 그리고 전술된 바와 같음)와 관련하여 설명된 방식들 중 하나 이상의 방식으로 구현될 수 있을 것이다.
도 17은 가상 공간과의 상호 작용을 돕기 위한 방법(1700)을 도시한다. 이하에서 설명되는 방법(1700)의 동작들은 설명을 위해서 의도된 것이다. 일부 구현예들에서, 방법(1700)은 설명되지 않은 하나 이상의 부가적인 작업과정(operations)들을 이용하여, 및/또는 설명된 작업과정들 중 하나 이상을 이용하지 않고 달성될 수 있을 것이다. 부가적으로, 도 17에서 도시되고 본원에서 설명된 방법(1700)의 작업과정들의 순서들은 제한적인 것을 의미하지 않는다.
일부 구현예들에서, 방법(1700)이 하나 이상의 프로세싱 장치들(예를 들어, 디지털 프로세서, 아날로그 프로세서, 정보를 프로세스하도록 디자인된 디지털 회로, 정보를 프로세스하도록 디자인된 아날로그 회로, 스테이트 머신, 및/또는 정보를 전자적으로 프로세싱하기 위한 다른 메커니즘들)에서 구현될 수 있을 것이다. 하나 이상의 프로세싱 장치들이 전자적 저장 매체 상에서 전자적으로 저장된 명령들에 응답하여 방법(1700)의 작업과정(operation)들의 일부 또는 전부를 실행하는 하나 이상의 장치들을 포함할 수 있을 것이다. 하나 이상의 프로세싱 장치들이 방법(1700)의 작업과정들 중 하나 이상을 실행하도록 특정되어 디자인된 하드웨어, 펌웨어, 및/또는 소프트웨어를 통해서 구성된 하나 이상의 장치들을 포함할 수 있을 것이다. 일부 구현예들에서, 이하에서 설명하는 작업과정들 중 적어도 일부가 서버에 의해서 구현될 수 있을 것이고, 이때 본원에서 기술된 시스템이 네트워크를 거쳐 클라이언트/서버 관계로 서버와 통신한다.
작업과정(1702)에서, 가상 공간의 뷰가 사용자에게 제시되도록 조립될 수 있을 것이다. 일부 구현예들에서, 작업과정(1702)은 게임 모듈(30)(도 1에 도시되고 본원에서 설명됨)과 유사한 및/또는 동일한 게임 모듈에 의해서 실시될 수 있을 것이다.
작업과정(1704)에서, 터치 감응형 표면에 대한 제어 입력들이 수신될 수 있을 것이다. 터치 감응형 표면은 사용자에 의한 접촉에 응답하여 출력 신호들을 생성하도록 구성될 수 있을 것이다. 출력 신호들은 터치 감응형 표면이 접촉되는 하나 이상의 위치들과 관련하여 정보를 이송하도록 구성될 수 있을 것이다. 제어 입력들은 가상 공간의 뷰 내에서 반영될 수 있을 것이다. 일부 구현예들에서, 작업과정(1704)은 터치 감응형 표면(22)(도 1에 도시되고 본원에서 설명됨)과 유사한 및/또는 동일한 터치 감응형 표면에 의해서 실시될 수 있을 것이다.
작업과정(1706)에서, 동작들의 세트 중의 개별적인 하나의 동작들이 식별될 수 있을 것이다. 동작들의 세트 중의 개별적인 하나의 동작들이 터치 감응형 표면으로부터의 출력 신호들을 기초로 식별될 수 있을 것이다. 동작들의 세트 중의 개별적인 하나의 동작들이 2개 손가락 탭 동작을 포함할 수 있을 것이다. 2개 손가락 탭 동작은 2개의 위치들에서 실질적으로 동시에 터치 감응형 표면을 탭핑하는 것을 포함할 수 있을 것이다. 일부 구현예들에서, 작업과정(1706)은 동작 인식 모듈(32)(도 1에 도시되고 본원에서 설명됨)과 유사한 및/또는 동일한 동작 인식 모듈에 의해서 실시될 수 있을 것이다.
작업과정(1708)에서, 사용자로부터의 제어 입력들이 결정될 수 있을 것이다. 사용자로부터의 제어 입력들을 결정하는 것은 식별된 동작들을 기초로 할 수 있을 것이다. 2개 손가락 탭 동작의 식별에 응답하여, 사용자로부터의 제 1 제어 입력이 결정될 수 있을 것이다. 일부 구현예들에서, 작업과정(1708)은 제어 모듈(34)(도 1에 도시되고 본원에서 설명됨)과 유사한 및/또는 동일한 제어 모듈에 의해서 실시될 수 있을 것이다.
작업과정(1710)에서, 발사체가 가상 공간 내에서 발사되도록 유도될 수 있을 것이다. 제 1 제어 입력이 가상 공간 내에서 발사체의 발사를 유도할 수 있을 것이다. 2개 손가락 탭 동작의 식별에 응답하여, 가상 공간 내의 목표물 위치가 특정될 수 있을 것이고, 그러한 목표물 위치를 향해서 발사체가 지향된다. 목표물 위치는, 2개 손가락 탭 동작을 만드는데 있어서 사용자가 터치 감응형 표면과 접촉한 위치들 중 하나 또는 양자 모두에 상응하는 터치 감응형 표면 상의 제어 위치에 상응할 수 있을 것이다. 일부 구현예들에서, 작업과정(1710)은 게임 모듈(30)(도 1에 도시되고 본원에서 설명됨)과 유사한 및/또는 동일한 게임 모듈에 의해서 실시될 수 있을 것이다.
가장 실용적이고 바람직한 구현예들인 것으로 현재 간주되는 것을 기초로 하여 설명하기 위한 목적으로 본원 개시 내용의 시스템(들) 및/또는 방법(들)을 구체적으로 기술하였지만, 그러한 구체적인 내용은 단지 그러한 목적만을 위한 것이고 그리고 개시 내용은 개시된 구현예들로 제한되지 않고, 대조적으로, 첨부된 청구항들의 사상 및 범위 내에 포함되는 수정들 및 균등한 배열들을 커버하기 위한 것임을 이해할 수 있을 것이다. 예를 들어, 가능한 범위 내에서, 본원 개시 내용은 임의 구현예의 하나 이상의 특징들이 임의의 다른 구현예의 하나 이상의 특징들과 조합될 수 있다는 것을 고려하고 있다는 것을 이해할 수 있을 것이다.
12: 무선 클라이언트 14: 게임서버
16: 사용자 인터페이스 18: 프로세서
20: 전자적 저장부 22: 터치 감응형 표면
24: 디스플레이 30: 게임 모듈
32: 동작 인식 모듈 34: 제어 모듈
40: 프로세서 44: 게임 서버 모듈

Claims (15)

  1. 가상 공간과의 상호 작용을 돕기 위한 시스템으로서:
    사용자에 의한 접촉에 응답하여 출력 신호들을 생성하도록 구성된 터치 감응형 표면으로서, 상기 출력 신호들은 상기 터치 감응형 표면이 접촉되는 하나 이상의 위치들과 관련된 정보를 이송하도록 구성되는, 터치 감응형 표면; 및
    컴퓨터 프로그램 모듈들을 실행하도록 구성된 하나 이상의 프로세서들을 포함하고,
    상기 컴퓨터 프로그램 모듈들은:
    상기 사용자에게 제시하기 위한 가상 공간의 뷰를 조립함으로써 사용자의 가상 공간과의 상호 작용을 돕도록 구성된 게임 모듈로서, 상기 가상 공간의 뷰 내에 반영된 제어 입력들을 제공함으로써 상기 사용자가 상기 가상 공간과 상호 작용하는, 게임 모듈;
    상기 터치 감응형 표면으로부터의 출력 신호들을 기초로 상기 터치 감응형 표면 상에서 사용자에 의해서 만들어진 동작들의 세트 중 개별적인 하나의 동작들을 식별하도록 구성되는 동작 인식 모듈로서, 상기 동작들의 세트 중 개별적인 하나의 동작들이 2개 손가락 탭 동작을 포함하고, 상기 2개 손가락 탭 동작은 2개의 위치에서 실질적으로 동시에 상기 터치 감응형 표면을 탭핑하는 것을 포함하는, 동작 인식 모듈; 및
    상기 식별된 동작들을 기초로 상기 사용자로부터의 제어 입력들을 결정하도록 구성된 제어 모듈을 포함하고,
    상기 2개 손가락 탭 동작을 식별하는 상기 동작 인식 모듈에 응답하여, 상기 가상 공간 내에서 발사체의 발사를 유도하는 상기 사용자로부터의 제 1 제어 입력을 상기 제어 모듈이 결정하도록, 상기 제어 모듈이 구성되는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  2. 제 1 항에 있어서,
    상기 2개 손가락 탭 동작을 식별하는 동작 인식 모듈에 응답하여, 상기 발사체가 지향되는 가상 공간 내의 목표물 위치를 상기 제 1 제어 입력이 특정하도록, 상기 제어 모듈이 구성되며, 상기 목표물 위치는 상기 2개 손가락 탭 동작을 만드는데 있어서 상기 사용자가 상기 터치 감응형 표면과 접촉한 위치들 중 하나 또는 양자 모두에 상응하는 터치 감응형 표면 상의 제어 위치에 상응하는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  3. 제 2 항에 있어서,
    상기 터치 감응형 표면은 상기 가상 공간의 뷰를 제시하도록 구성된 터치스크린이고, 상기 제어 위치는 상기 목표물 위치가 디스플레이되는 터치스크린 상의 위치인, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  4. 제 2 항에 있어서,
    상기 제어 위치는 2개 손가락 탭 동작을 만드는데 있어서 상기 사용자가 상기 터치 감응형 표면과 접촉하는 2개의 위치들 사이의 중심 지점인, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  5. 제 1 항에 있어서,
    상기 동작 인식 모듈은 상기 동작들의 세트 중 개별적인 하나의 동작들이 반전 핀치 동작을 포함하도록 구성되며, 상기 반전 핀치 동작은 실질적으로 동시에 2개의 위치들에서 상기 터치 감응형 표면과 접촉하고, 이어서 터치 감응형 표면과 접촉을 유지하면서 2개의 접촉 위치들을 멀리 운동시키는 것을 포함하고, 그리고
    상기 반전 핀치 동작을 식별하는 동작 인식 모듈에 응답하여, 사용자에게 제시되는 가상 공간의 뷰의 줌 레벨이 제 1 줌 레벨로부터 제 2 줌 레벨로 변화되게 유도하는 사용자로부터의 제 2 제어 입력을 상기 제어 모듈이 결정하도록, 상기 제어 모듈이 구성되며, 상기 제 2 줌 레벨이 상기 제 1 줌 레벨에 대비하여 증대된, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  6. 제 5 항에 있어서,
    상기 제 2 줌 레벨이 소형 화기의 관찰 도구를 통한 장면 뷰의 줌 레벨을 시뮬레이트하도록 구성되는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  7. 제 1 항에 있어서,
    상기 사용자에게 제시하기 위한 가상 공간의 뷰가 제 1 뷰 및 제 2 뷰를 포함하도록 상기 게임 모듈이 구성되고, 상기 제 1 뷰는 상기 가상 공간 내의 현재 위치에 상응하고, 그리고 상기 제 2 뷰는 상기 가상 공간 내의 운동 위치에 상응하는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  8. 제 7 항에 있어서,
    상기 동작들의 세트 중 개별적인 하나의 동작들이 운동 동작을 포함하도록 상기 동작 인식 모듈이 구성되고, 상기 운동 동작은 상기 가상 공간 내의 운동 위치에 상응하는 위치에서 터치 감응형 표면과 접촉하는 것을 포함하고, 그리고
    상기 운동 동작을 식별하는 동작 인식 모듈에 응답하여, 상기 게임 모듈이 상기 사용자에게 제시되는 뷰를 제 1 뷰로부터 제 2 뷰로 변경하게 하는 제 3 제어 입력을 상기 제어 모듈이 결정하도록, 상기 제어 모듈이 구성되는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  9. 제 8 항에 있어서,
    상기 터치 감응형 표면이 상기 가상 공간의 제 1 뷰 및 제 2 뷰를 제시하도록 구성된 터치스크린이고, 상기 운동 위치는 상기 사용자가 상기 운동 동작으로 상기 터치스크린과 접촉하는 터치스크린 상의 위치인, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  10. 제 8 항에 있어서,
    상기 제 1 뷰로부터 상기 제 2 뷰로의 변경은 상기 가상 공간을 통한 시뮬레이트된 운동을 포함하는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  11. 제 1 항에 있어서,
    상기 게임 모듈은, 상기 가상 공간이 사용자에게 제시하기 위한 1 인칭 슈터 게임의 인스턴스를 표현하게 함으로써, 상기 가상 공간과의 상호 작용을 도우며, 상기 사용자는 상기 터치 감응형 표면을 통해서 제어 입력들을 제공함으로써 상기 1 인칭 슈터 게임과 상호 작용하는, 가상 공간과의 상호 작용을 돕기 위한 시스템.
  12. 가상 공간과의 상호 작용을 돕기 위한 방법으로서:
    사용자에게 제시하기 위한 상기 가상 공간의 뷰를 조립하는 단계;
    상기 사용자로부터 터치 감응형 표면에 대한 제어 입력들을 수신하는 단계로서, 상기 터치 감응형 표면은 상기 사용자에 의한 접촉에 응답하여 출력 신호들을 생성하도록 구성되고, 상기 출력 신호들은 상기 터치 감응형 표면이 접촉되는 하나 이상의 위치들과 관련된 정보를 이송하도록 구성되고, 상기 제어 입력들이 상기 가상 공간의 뷰 내에 반영되는, 수신 단계;
    상기 터치 감응형 표면으로부터의 출력 신호들을 기초로 상기 터치 감응형 표면 상에서 사용자에 의해서 이루어진 동작들의 세트 중 개별적인 하나의 동작들을 식별하는 단계로서, 상기 동작들의 세트 중 개별적인 하나의 동작들은 2개 손가락 탭 동작을 포함하고, 상기 2개 손가락 탭 동작은 2개의 위치들에서 상기 터치 감응형 표면을 실질적으로 동시에 탭핑하는 것을 포함하는, 식별 단계; 및
    상기 식별된 동작들을 기초로 상기 사용자로부터의 제어 입력들을 결정하는 단계로서, 상기 2개 손가락 탭 동작의 식별에 응답하여, 상기 사용자로부터의 제 1 제어 입력이 결정되고, 상기 제 1 제어 입력은 상기 가상 공간 내에서 발사체의 발사를 유도하는, 제어 입력들을 결정하는 단계를 포함하는, 가상 공간과의 상호 작용을 돕기 위한 방법.
  13. 제 12 항에 있어서,
    2개 손가락 탭 동작의 식별에 응답하여, 상기 발사체가 지향되는 가상 공간 내의 목표물 위치를 특정하는 단계를 더 포함하고, 상기 목표물 위치는 상기 2개 손가락 탭 동작을 만드는데 있어서 상기 사용자가 상기 터치 감응형 표면과 접촉한 위치들 중 하나 또는 양자 모두에 상응하는 터치 감응형 표면 상의 제어 위치에 상응하는, 가상 공간과의 상호 작용을 돕기 위한 방법.
  14. 제 13 항에 있어서,
    상기 터치 감응형 표면은 상기 가상 공간의 뷰를 제시하도록 구성된 터치스크린이고, 그리고 상기 제어 위치는 상기 목표물 위치가 디스플레이되는 터치스크린 상의 위치인, 가상 공간과의 상호 작용을 돕기 위한 방법.
  15. 제 13 항에 있어서,
    상기 제어 위치는 2개 손가락 탭 동작을 만드는데 있어서 상기 사용자가 상기 터치 감응형 표면과 접촉하는 2개의 위치들 사이의 중심 지점인, 가상 공간과의 상호 작용을 돕기 위한 방법.
KR20130080664A 2012-08-31 2013-07-10 터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법 KR20140029158A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/600,806 2012-08-31
US13/600,806 US8777743B2 (en) 2012-08-31 2012-08-31 System and method for facilitating interaction with a virtual space via a touch sensitive surface

Publications (1)

Publication Number Publication Date
KR20140029158A true KR20140029158A (ko) 2014-03-10

Family

ID=48792986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130080664A KR20140029158A (ko) 2012-08-31 2013-07-10 터치 감응형 표면을 통한 가상 공간과의 상호작용을 돕기 위한 시스템 및 방법

Country Status (5)

Country Link
US (2) US8777743B2 (ko)
EP (1) EP2711059B1 (ko)
JP (2) JP5563709B2 (ko)
KR (1) KR20140029158A (ko)
CN (1) CN103677620A (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014163220A1 (ko) * 2013-04-05 2014-10-09 그리 가부시키가이샤 온라인 슈팅 게임 제공 장치 및 방법
JP5723050B1 (ja) * 2014-08-29 2015-05-27 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
DE102014019199A1 (de) 2014-12-19 2016-06-23 Diehl Bgt Defence Gmbh & Co. Kg Maschinenwaffe
JP6637662B2 (ja) * 2015-03-16 2020-01-29 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP5789067B1 (ja) * 2015-03-26 2015-10-07 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
FR3036818B1 (fr) * 2015-06-01 2017-06-09 Sagem Defense Securite Systeme de visee comportant un ecran recouvert d'une interface tactile et procede de visee correspondant
JP5856345B1 (ja) * 2015-07-30 2016-02-09 グリー株式会社 ゲームプログラム、コンピュータの制御方法、およびコンピュータ
CN105498202A (zh) * 2015-11-26 2016-04-20 珠海网易达电子科技发展有限公司 全触屏划屏射击操作方式
CN105426052A (zh) * 2015-12-01 2016-03-23 成都龙渊网络科技有限公司 用于在触摸终端上管理操作工具的方法与设备
CN105607851A (zh) * 2015-12-18 2016-05-25 上海逗屋网络科技有限公司 用于触摸终端的场景控制方法及设备
CN105688409A (zh) * 2016-01-27 2016-06-22 网易(杭州)网络有限公司 游戏控制方法及装置
US20170232348A1 (en) * 2016-02-05 2017-08-17 Prizm Labs, Inc. Methods for executing an instance of a virtual multiplayer game at multiple local devices
CN105808106B (zh) * 2016-03-22 2018-12-04 苏州熙烁数字科技有限公司 基于滑动轨迹执行战斗操作的游戏设备及游戏提供方法
JP6089143B1 (ja) * 2016-09-26 2017-03-01 株式会社 ディー・エヌ・エー ゲームを提供するためのシステム、方法、及びプログラム
CN107193479B (zh) * 2017-05-26 2018-07-10 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及存储介质
JP6309143B1 (ja) * 2017-05-30 2018-04-11 株式会社 ディー・エヌ・エー ゲームプログラム、情報処理装置、及び、情報処理方法
CN107469354B (zh) * 2017-08-30 2018-06-22 网易(杭州)网络有限公司 补偿声音信息的视觉方法及装置、存储介质、电子设备
CN108363531A (zh) * 2018-01-17 2018-08-03 网易(杭州)网络有限公司 一种游戏中的交互方法及装置
US11045719B2 (en) * 2018-09-12 2021-06-29 King.Com Ltd. Method and computer device for controlling a touch screen
CN109508093B (zh) * 2018-11-13 2022-08-09 江苏视睿迪光电有限公司 一种虚拟现实交互方法及装置
CN110433489A (zh) * 2018-11-28 2019-11-12 网易(杭州)网络有限公司 游戏中瞄准的控制方法、装置、存储介质和电子装置
CN109701264A (zh) * 2018-12-21 2019-05-03 努比亚技术有限公司 游戏放大镜控制方法、装置、移动终端及存储介质
CN110585704B (zh) * 2019-09-20 2021-04-09 腾讯科技(深圳)有限公司 虚拟场景中的对象提示方法、装置、设备及存储介质
US11517812B2 (en) 2021-02-19 2022-12-06 Blok Party, Inc. Application of RFID gamepieces for a gaming console

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4353552A (en) * 1979-02-23 1982-10-12 Peptek, Incorporated Touch panel system and method
US5053757A (en) * 1987-06-04 1991-10-01 Tektronix, Inc. Touch panel with adaptive noise reduction
JP3345600B2 (ja) * 2000-04-10 2002-11-18 コナミ株式会社 ゲームシステムおよびコンピュータ読取可能な記憶媒体
US8059099B2 (en) * 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
JP2005342266A (ja) 2004-06-03 2005-12-15 Aruze Corp ゲームシステム
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
JP2008017934A (ja) * 2006-07-11 2008-01-31 Aruze Corp ゲーム装置およびゲーム装置の画像変化制御方法
US7710318B2 (en) * 2006-08-24 2010-05-04 Sirf Technology Method of enhanced cold start and associated user interface for navigational receivers
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US8564546B1 (en) * 2008-02-27 2013-10-22 Cypress Semiconductor Corporation Multiple touch resolve
US8441452B1 (en) * 2008-04-10 2013-05-14 Cypress Semiconductor Corporation Multiple touch detection
JP2010017395A (ja) * 2008-07-11 2010-01-28 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
CN102187309A (zh) * 2008-08-22 2011-09-14 谷歌公司 移动设备上的三维环境中的导航
US8698750B2 (en) * 2008-09-18 2014-04-15 Microsoft Corporation Integrated haptic control apparatus and touch sensitive display
US20100214218A1 (en) * 2009-02-20 2010-08-26 Nokia Corporation Virtual mouse
US8312387B2 (en) * 2009-08-10 2012-11-13 Microsoft Corporation Target element zoom
JP5269745B2 (ja) * 2009-10-30 2013-08-21 任天堂株式会社 オブジェクト制御プログラム、オブジェクト制御装置、オブジェクト制御システム及びオブジェクト制御方法
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
JP5840385B2 (ja) * 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8661354B2 (en) * 2010-09-24 2014-02-25 Nokia Corporation Methods, apparatuses and computer program products for using near field communication to implement games and applications on devices
US8866735B2 (en) * 2010-12-16 2014-10-21 Motorla Mobility LLC Method and apparatus for activating a function of an electronic device
US20130002567A1 (en) * 2011-06-30 2013-01-03 Ricky Lee Method and System of Implementing Multi-Touch Panel Gestures in Computer Applications Without Multi-Touch Panel Functions
JP5204286B2 (ja) * 2011-11-02 2013-06-05 株式会社東芝 電子機器および入力方法
TWI597626B (zh) * 2011-11-08 2017-09-01 威盛電子股份有限公司 觸控面板的控制裝置、單點多指動作判斷方法以及用於產生單點多指動作的觸控筆

Also Published As

Publication number Publication date
EP2711059A3 (en) 2015-03-04
US9700787B2 (en) 2017-07-11
EP2711059A2 (en) 2014-03-26
CN103677620A (zh) 2014-03-26
JP2014049130A (ja) 2014-03-17
US8777743B2 (en) 2014-07-15
US20140066197A1 (en) 2014-03-06
US20140256442A1 (en) 2014-09-11
JP2014139789A (ja) 2014-07-31
EP2711059B1 (en) 2018-05-23
JP5563709B2 (ja) 2014-07-30

Similar Documents

Publication Publication Date Title
US9700787B2 (en) System and method for facilitating interaction with a virtual space via a touch sensitive surface
US11712634B2 (en) Method and apparatus for providing online shooting game
AU2021250929B2 (en) Virtual object control method and apparatus, device, and storage medium
US9687741B1 (en) System and method for providing separate drift and steering controls
JP2022517194A (ja) 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム
US11577171B2 (en) Method and apparatus for prompting that virtual object is attacked, terminal, and storage medium
JP2022527662A (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム
JP6438198B2 (ja) プログラム及びゲーム装置
JP2023504650A (ja) インタラクション道具表示方法、装置、端末及びコンピュータプログラム
JP2023552772A (ja) 仮想アイテムの切り替え方法、装置、端末及びコンピュータプログラム
CN110639205A (zh) 操作响应方法、装置、存储介质及终端
JP2022540278A (ja) 仮想オブジェクトの制御方法、装置、コンピュータ機器及びコンピュータプログラム
Pelegrino et al. Creating and designing customized and dynamic game interfaces using smartphones and touchscreen
US20200078667A1 (en) Method and computer device for controlling a touch screen
KR102557808B1 (ko) 게임 서비스 시스템 및 상기 시스템에서의 메모 공유 방법
US11691072B2 (en) Aiming display automation for head mounted display applications
WO2024051422A1 (zh) 虚拟道具的显示方法、装置、设备、介质和程序产品
JP7154258B2 (ja) プログラム、端末及びゲーム制御方法
JP6661595B2 (ja) ゲームプログラム、方法および情報処理装置
EP3984608A1 (en) Method and apparatus for controlling virtual object, and terminal and storage medium
JP2016163710A (ja) オンラインシューティングゲームの提供装置及びその方法
CN116966567A (zh) 一种射击游戏的控制方法、装置、电子设备和存储介质
JP2019103815A (ja) ゲームプログラム、方法および情報処理装置
JP2018033971A (ja) オンラインシューティングゲームの提供装置及びその方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid