KR20180005689A - 정보 처리 방법, 단말기 및 컴퓨터 저장 매체 - Google Patents

정보 처리 방법, 단말기 및 컴퓨터 저장 매체 Download PDF

Info

Publication number
KR20180005689A
KR20180005689A KR1020177035385A KR20177035385A KR20180005689A KR 20180005689 A KR20180005689 A KR 20180005689A KR 1020177035385 A KR1020177035385 A KR 1020177035385A KR 20177035385 A KR20177035385 A KR 20177035385A KR 20180005689 A KR20180005689 A KR 20180005689A
Authority
KR
South Korea
Prior art keywords
character
terminal
target
gui
user
Prior art date
Application number
KR1020177035385A
Other languages
English (en)
Inventor
위 천
융 탕
웨이 궁
젠먀오 웡
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180005689A publication Critical patent/KR20180005689A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4443
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5526Game data structure
    • A63F2300/5533Game data structure using program state or machine event data, e.g. server keeps track of the state of multiple players on in a multiple player game

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

정보 처리 방법, 단말기 및 컴퓨터 저장 매체가 제공되고, 그래픽 사용자 인터페이스를 획득하기 위해서, 소프트웨어 애플리케이션이 단말기의 프로세서에 의해 실행되고, 렌더링이 단말기의 디스플레이 상에서 수행되고, 프로세서, 그래픽 사용자 인터페이스 및 소프트웨어 애플리케이션은 게임 시스템에서 구현된다. 이 방법은 그래픽 사용자 인터페이스 상에서 적어도 하나의 가상 리소스 대상을 렌더링하는 단계(201); 그래픽 사용자 인터페이스의 적어도 하나의 캐릭터 선택 영역에 배열된 적어도 하나의 캐릭터 컨테이너 대상에 적어도 하나의 윈도우 위치를 포함시키는 단계(202); 및 캐릭터 컨테이너 대상에서의 적어도 하나의 캐릭터 조작 대상에 대한 시야 취득 제스처의 검출 시에, 그래픽 사용자 인터페이스 상에서, 적어도 하나의 캐릭터 조작 대상과 연관되는 가상 카메라에 의해 캡처된 시야 영상을 렌더링하는 단계(203)를 포함한다.

Description

정보 처리 방법, 단말기 및 컴퓨터 저장 매체
본 개시내용은 정보 처리 기술들에 관한 것으로, 특히, 정보 처리 방법, 단말기 및 컴퓨터 저장 매체에 관한 것이다.
인터넷 기술들의 급속한 발달과 대형 스크린 및 슈퍼 스크린 지능 단말기들의 점차적인 대중화에 따라, 지능 단말기의 프로세서는 점점 더 높은 처리 능력을 가지므로, 사람-머신 상호작용에 기초한 제어를 구현하는 많은 애플리케이션들이 대형 스크린 또는 슈퍼 스크린 상에 나타난다. 사람-머신 상호작용에 기초한 제어를 구현하는 프로세스에서, 다수의 사용자는 상이한 상호작용 결과들을 획득하기 위해, 일 대 일, 일 대 다수, 및 다수 대 다수 형태들의 그룹들을 생성함으로써 상이한 상호작용 모드들을 실행할 수 있다. 예를 들어, 대형 스크린 또는 슈퍼 스크린 상의 렌더링을 통해 획득된 그래픽 사용자 인터페이스(GUI)에서, 다수의 사용자가 사람-머신 상호작용에서의 제어 프로세싱에 의해, 2개의 상이한 그룹들로 분류된 후에, 정보 교환이 상이한 그룹들 사이에서 수행될 수 있고, 상이한 상호작용 결과들이 정보 교환에 대한 응답에 따라 획득되고; 사람-머신 상호작용에서의 제어 프로세싱에 의해, 정보 교환이 동일한 그룹 내의 그룹 멤버들 사이에서 더 수행될 수 있고, 상이한 상호작용 결과들이 정보 교환에 대한 응답에 따라 획득된다.
기존의 기술에서, 대형 스크린 또는 슈퍼 스크린 상의 렌더링을 통해 획득된 GUI에서, 보통, 가상 캐릭터가 사용자에 의해 제어되는 가상 영역의 부분만이 디스플레이된다. 결과적으로, 사용자에 의한 제어 중에, GUI에서, 사용자와 동일한 그룹에 속하는 그룹 멤버에 의해 제어된 타깃 대상이 포함되지 않을 수 있다. 이 경우에, 사용자가 그룹 멤버의 비전을 획득하기를 원한다면, 사용자는 현재의 GUI에서, 그룹 멤버에 의해 제어되는 GUI에 제시된 영상을 획득하도록, 즉 그룹 멤버의 비전을 획득하도록, 캐릭터가 타깃 대상 가까이에 이동할 때까지, 캐릭터를 이동시키는 (슬라이드 조작과 같은) 조작을 여러 번 수행할 필요가 있다. 프로세스의 제어 시간이 비교적 길고, 정보 교환을 수행하는 요건이 빠르게 일치될 수 없다. 관련된 기술들에서, 현재 문제에 대한 효과적인 해결책이 아직 없다.
본 발명의 실시예들은 정보 교환 프로세스에서 그룹 멤버의 비전 영상을 빠르게 획득하도록, 정보 처리 방법, 단말기, 및 컴퓨터 저장 매체를 제공함으로써, 사용자 경험을 개선시키는 것으로 예상된다.
상기 목적을 달성하기 위해, 본 발명의 실시예들에서의 기술적 해결책들이 다음과 같이 구현된다:
본 발명의 실시예는 정보 처리 방법으로서, 소프트웨어 애플리케이션이 단말기의 프로세서 상에서 실행되고 렌더링이 상기 단말기의 디스플레이 상에서 수행되어, GUI를 획득하고, 상기 프로세서, 상기 GUI, 및 상기 소프트웨어 애플리케이션은 게임 시스템에서 구현되고, 상기 방법은
상기 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하는 단계; 및
상기 GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하는 단계; 및
상기 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 상기 GUI에서 렌더링을 수행하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하는 단계
를 포함하는 방법을 제공한다.
본 발명의 실시예는 단말기로서, 상기 단말기는 렌더링 처리 유닛, 배치 유닛, 검출 유닛, 및 조작 실행 유닛을 포함하고,
상기 렌더링 처리 유닛은 소프트웨어 애플리케이션을 실행하고 렌더링을 수행하여, GUI를 획득하고; 상기 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하도록 구성되고; 상기 GUI에서 렌더링을 수행하여, 상기 조작 실행 유닛에 의해 획득된 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 더 구성되고;
상기 배치 유닛은 상기 GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하도록 구성되고;
상기 검출 유닛은 상기 캐릭터 컨테이너 대상 내의 상기 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출하도록 구성되고;
상기 조작 실행 유닛은 상기 검출 유닛이 상기 캐릭터 컨테이너 대상 내의 상기 적어도 하나의 캐릭터 조작 대상 상에서 상기 비전 획득 제스처를 검출할 때, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 상기 가상 렌즈에 의해 캡처된 상기 비전 영상을 획득하도록 구성된 단말기를 더 제공한다.
본 발명의 실시예는 단말기로서, 상기 단말기는 프로세서 및 디스플레이를 포함하고; 상기 프로세서는 소프트웨어 애플리케이션을 실행하고 상기 디스플레이 상에서 렌더링을 수행하여, GUI를 획득하도록 구성되고; 상기 프로세서, 상기 GUI, 및 상기 소프트웨어 애플리케이션은 게임 시스템 상에서 구현되고;
상기 프로세서는 상기 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하고; 상기 GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하고;
상기 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 상기 GUI에서 렌더링을 수행하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 구성된 단말기를 더 제공한다.
본 발명의 실시예는 컴퓨터 저장 매체로서, 컴퓨터 실행가능 명령이 상기 컴퓨터 저장 매체 내에 저장되어 있고, 상기 컴퓨터 실행가능 명령은 본 발명의 실시예들에서의 정보 처리 방법을 수행하도록 구성된 컴퓨터 저장 매체를 더 제공한다.
본 발명의 실시예들에서의 정보 처리 방법, 단말기, 및 컴퓨터 저장 매체에 따르면, GUI 내의 캐릭터 선택 영역에 배치된 캐릭터 컨테이너 대상 내의 윈도우 위치에 의해, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행되므로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빠르게 획득할 수 있음으로써, 상호작용 프로세스에서의 사용자의 조작 경험을 상당히 개선시킨다.
도 1은 본 발명의 실시예에 따른 정보 처리 방법에서의 정보 교환의 애플리케이션 아키텍처의 개략도.
도 2는 본 발명의 실시예 1에 따른 정보 처리 방법의 개략적 플로우차트.
도 3은 본 발명의 실시예에 따른 정보 처리 방법에서의 GUI의 제1 개략도.
도 4는 본 발명의 실시예 2에 따른 정보 처리 방법의 개략적 플로우차트.
도 5는 본 발명의 실시예 3에 따른 정보 처리 방법의 개략적 플로우차트.
도 6은 본 발명의 실시예에 따른 정보 처리 방법에서의 GUI의 제2 개략도.
도 7은 본 발명의 실시예 4에 따른 정보 처리 방법의 개략적 플로우차트.
도 8은 본 발명의 실시예에 따른 정보 처리 방법에서의 GUI의 제3 개략도.
도 9는 본 발명의 실시예에 따른 정보 처리 방법에서의 상호작용의 개략적 애플리케이션도.
도 10은 본 발명의 실시예에 따른 정보 처리 방법에서의 GUI의 제4 개략도.
도 11은 본 발명의 실시예 5에 따른 단말기의 개략적 구조도.
도 12는 본 발명의 실시예 6에 따른 단말기의 개략적 구조도.
도 13은 본 발명의 실시예 7에 따른 단말기의 개략적 구조도.
본 개시내용이 첨부 도면 및 특정한 실시예들을 참조하여 아래에 상세히 더 설명된다.
도 1은 본 발명의 실시예에 따른 정보 처리 방법에서의 정보 교환의 애플리케이션 아키텍처의 개략도이다. 도 1에 도시한 바와 같이, 애플리케이션 아키텍처는 서버(101) 및 적어도 하나의 단말기를 포함한다. 애플리케이션 아키텍처에 도시한 바와 같이, 단말기는 단말기(102), 단말기(103), 단말기(104), 단말기(105), 및 단말기(106)를 포함한다. 적어도 하나의 단말기는 (유선 또는 무선 네트워크와 같은) 네트워크(100)를 사용하여 서버(101)와의 접속을 확립할 수 있다. 구체적으로, 단말기는 이동 전화, 데스크탑 컴퓨터, PC, 올인원 PC, 및 다른 유형들을 포함한다.
본 실시예에서, 단말기의 프로세서는 소프트웨어 애플리케이션을 실행하고 단말기의 디스플레이 상에서 렌더링을 수행하여, GUI를 획득할 수 있다. 프로세서, GUI, 및 소프트웨어 애플리케이션은 게임 시스템 상에서 구현된다. 본 실시예에서, 게임 시스템에서 프로세서, GUI, 및 소프트웨어 애플리케이션을 구현하는 프로세스에서, 적어도 하나의 단말기가 게임 시스템에서 1 대 1 또는 (3 대 3 또는 5 대 5와 같은) 다수 대 다수 애플리케이션 모드 시나리오를 구현하기 위해, 유선 네트워크 또는 무선 네트워크를 사용하여 서버(101)와 정보 교환을 수행할 수 있다. 1 대 1 애플리케이션 시나리오에서, 단말기에 의해 렌더링을 통해 획득된 그래픽 사용자 대상 내의 가상 리소스 대상이 (사람 대 머신으로서 이해될 수 있는) 게임 시스템에서 미리 설정된 가상 리소스 대상과 정보 교환을 수행할 수 있고, 즉, 단말기는 서버와 정보 교환을 수행한다. 대안적으로, 1 대 1 애플리케이션 시나리오에서, 단말기에 의해 렌더링을 통해 획득된 그래픽 사용자 대상 내의 가상 리소스 대상이 또 하나의 단말기에 의해 렌더링을 통해 획득된 그래픽 사용자 대상 내의 가상 리소스 대상과 정보 교환을 수행할 수 있고, 예를 들어, 단말기(102)에 의해 렌더링을 통해 획득된 그래픽 사용자 대상 내의 가상 리소스 대상이 단말기(103)에 의해 렌더링을 통해 획득된 그래픽 사용자 대상 내의 가상 리소스 대상과 정보 교환을 수행한다. 다수 대 다수 애플리케이션 모드 시나리오에서, 예로서 3 대 3 애플리케이션 모드 시나리오를 사용하여, 단말기 1, 단말기 2, 및 단말기 3에 의해 각각 수행된 렌더링을 통해 획득된 그래픽 사용자 대상들 내의 가상 리소스 대상들은 제1 그룹으로 분류되고, 단말기 4, 단말기 5, 및 단말기 6에 의해 각각 수행된 렌더링을 통해 획득된 그래픽 사용자 대상들 내의 가상 리소스 대상들은 제2 그룹으로 분류되고, 제1 그룹 내의 그룹 멤버는 제2 그룹 내의 그룹 멤버와 정보 교환을 수행한다.
도 1의 예는 단지 본 발명의 실시예들을 구현하는 애플리케이션 아키텍처의 예이고, 본 발명의 실시예들은 도 1의 애플리케이션 아키텍처로 제한되지 않는다. 애플리케이션 아키텍처에 기초하여, 본 발명의 다양한 실시예들이 제공된다.
실시예 1
본 발명의 본 실시예는 정보 처리 방법을 제공한다. 도 2는 본 발명의 실시예 1에 따른 정보 처리 방법의 개략적 플로우차트이다. 정보 처리 방법은 단말기에 적용된다. 소프트웨어 애플리케이션이 단말기의 프로세서 상에서 실행되고 렌더링이 단말기의 디스플레이 상에서 수행되어, GUI를 획득한다. 프로세서, GUI, 및 소프트웨어 애플리케이션은 게임 시스템에서 구현된다. 도 2에 도시한 바와 같이, 방법은 다음의 단계들을 포함한다.
단계 201: GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득한다. 가상 리소스 대상의 적어도 하나는 입력 제1 사용자 명령에 따라 제1 가상 조작을 수행하는 사용자 캐릭터 대상으로서 구성된다.
단계 202: GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치한다.
단계 203: 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, GUI에서 렌더링을 수행하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득한다.
본 실시예에서, GUI는 적어도 하나의 캐릭터 선택 영역을 포함하고, 캐릭터 선택 영역은 적어도 하나의 캐릭터 컨테이너 대상을 포함하고, 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함한다. 대응하는 캐릭터 조작 대상들이 적어도 일부 윈도우 위치들 내에 보유된다. 캐릭터 조작 대상은 GUI 내의 캐릭터 조작 대상과 연관된 캐릭터 대상의 식별자(식별자는 아바타일 수 있음)를 사용하여 나타내질 수 있다. 여기서, 캐릭터 조작 대상과 연관된 캐릭터 대상은 사용자 캐릭터 대상과 동일한 그룹에 속한다. 캐릭터 선택 영역 내의 캐릭터 컨테이너 대상에 대해 렌더링하는 방식은 바 형상 또는 환형 형상을 포함하지만, 이들로 제한되지 않고, 즉, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상 또는 캐릭터 선택 휠 대상을 사용하여 나타내질 수 있다.
도 3은 본 발명의 본 실시예에 따른 정보 처리 방법에서의 GUI의 제1 개략도이다. 도 3에 도시한 바와 같이, 단말기의 디스플레이 상의 렌더링을 통해 획득된 GUI(800)는 적어도 하나의 가상 리소스 대상을 포함한다. 가상 리소스 대상은 적어도 하나의 사용자 캐릭터 대상(a10)을 포함한다. 단말기의 사용자는 GUI, 즉 입력 사용자 명령을 사용하여 정보 교환을 수행할 수 있다. 사용자 캐릭터 대상(a10)은 단말기에 의해 검출된 제1 사용자 명령에 기초하여 제1 가상 조작을 수행할 수 있고, 여기서 제1 가상 조작은 이동 조작, 물리적 공격 조작, 스킬 공격 조작 등을 포함하지만, 이들로 제한되지 않는다. 사용자 캐릭터 대상(a10)은 단말기의 사용자에 의해 제어된 캐릭터 대상이라는 것을 이해할 수 있다. 게임 시스템에서, 사용자 캐릭터 대상(a10)은 사용자의 조작에 기초하여 GUI에서 대응하는 액션을 수행할 수 있다. 구현예에서, GUI(800)는 적어도 하나의 스킬 대상(803)을 더 포함하고, 사용자는 스킬 해제 조작에 의해, 사용자 캐릭터 대상(a10)을 제어하여 대응하는 스킬 해제 조작을 수행할 수 있다.
도 3에 도시한 예에서, GUI는 캐릭터 선택 영역(802)을 포함하고, 캐릭터 컨테이너 대상은 캐릭터 선택 영역(802) 내에 배치된다. 본 예에서, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상을 사용하여 나타내진다(즉, 캐릭터 컨테이너 대상은 바 형상의 디스플레이 효과를 나타낸다). 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함하고, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행된다. 캐릭터 조작 대상이 아바타를 사용하여 나타내지는 예가 사용되고, 즉, 캐릭터 선택 영역(802)은 적어도 하나의 아바타를 포함한다. 적어도 하나의 아바타는 각각 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상과 1 대 1 대응한다. 도 3에 도시한 바와 같이, 5 대 5 애플리케이션 시나리오가 본 예에서 사용된다. 사용자 캐릭터 대상(a10)과 동일한 그룹에 속하는 4개의 캐릭터 대상이 있고, 대응하여, 캐릭터 선택 영역(802) 내에 4개의 캐릭터 조작 대상, 예를 들어, 도 3에 도시한 캐릭터 조작 대상(a11), 캐릭터 조작 대상(a12), 캐릭터 조작 대상(a13), 및 캐릭터 조작 대상(a14)이 있다. 캐릭터 선택 영역(802) 내의 4개의 캐릭터 조작 대상은 사용자 캐릭터 대상과 동일한 그룹에 속하는 4개의 제2 캐릭터 대상과 1 대 1 대응한다는 것을 이해할 수 있다. 본 실시예는 적어도 2개의 그룹 멤버를 포함하는 다수의 사람의 배틀의 애플리케이션 시나리오에 적용될 수 있다.
구현예에서, 캐릭터 선택 영역(802) 내의 적어도 2개의 캐릭터 조작 대상 사이의 상호 위치 관계는 적어도 2개의 캐릭터 조작 대상에 의해 게임 시스템에 들어가는 시간 순서에 따라 결정된다. 도 3에 도시한 바와 같이, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상이 게임 시스템에 들어가는 시간은 캐릭터 조작 대상(a12)과 연관된 캐릭터 대상의 시간, 캐릭터 조작 대상(a13)의 시간, 및 캐릭터 조작 대상(a14)의 시간 등등 보다 앞서고, 상세들은 여기서 설명되지 않는다.
본 실시예에서, 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처가 검출될 때, 렌더링이 GUI에서 수행되어, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하고, 여기서 비전 획득 제스처는 긴 누름 조작 제스처, 2번의 탭 조작 제스처 등일 수 있고, 전술한 조작 제스처들로 제한되지 않는다.
여기서, 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 방법은 제1 명령을 생성하고 송신하는 단계 - 제1 명령은 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하고 비전 영상을 캡처하기 위해 가상 렌즈를 제어하도록 구성됨; 및 비전 획득 제스처를 검출하는 프로세스에서, 가상 렌즈에 의해 캡처된 비전 영상을 획득하는 단계를 더 포함한다.
구체적으로, 도 3을 참조하면, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 캐릭터 선택 영역(802) 내의 (도 3에 도시한 캐릭터 조작 대상(a11)과 같은) 캐릭터 조작 대상 상에서 긴 누름 제스처가 검출될 때, 단말기는 제1 명령을 생성하고, 제1 명령에 기초하여, 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기와의 네트워크 접속을 확립하고, 네트워크 접속에 기초하여, 제1 명령을 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기에 송신하여, 제1 명령에 기초하여, 또 하나의 단말기의 가상 렌즈를 인보크하고, 가상 렌즈를 사용하여 비전 영상을 캡처하도록 또 하나의 단말기를 제어한다. 캐릭터 조작 대상(a11) 상에서 긴 누름 제스처를 계속 검출하는 프로세스에서, 단말기는 실시간으로, 또 하나의 단말기에 의해 송신된 비전 영상을 획득하고, GUI에서 렌더링을 수행하여, 비전 영상을 획득한다. 도 3에 도시한 비전 영상 디스플레이 영역(801) 및 비전 영상 디스플레이 영역(801)의 확대된 뷰(801a)에 도시한 바와 같이, 캐릭터 조작 대상(a11)에 대응하는 비전 영상은 비전 영상 디스플레이 영역(801)에 디스플레이되고; 비전 영상은 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상을 제어하는 사용자가 볼 수 있는 영상이다. 예를 들어, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하면, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하는 비전 영상이 도 3에 도시한 바와 같이, GUI(800) 내의 비전 영상 디스플레이 영역(801)에 디스플레이된다. (긴 누름 제스처와 같은) 비전 획득 제스처에 의해, 단말기는 또 하나의 대응하는 단말기의 비전 영상으로 빠르게 전환할 수 있으므로, 단말기의 사용자가 팀메이트의 비전 영상을 빨리 획득할 수 있다는 것을 이해할 수 있다.
본 발명의 본 실시예에서의 기술적 해결책에 의해, GUI 내의 캐릭터 선택 영역에 배치된 캐릭터 컨테이너 대상 내의 윈도우 위치에 의해, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행되므로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빠르게 획득할 수 있음으로써, 상호작용 프로세스에서의 사용자의 조작 경험을 상당히 개선시킨다.
실시예 2
본 발명의 본 실시예는 정보 처리 방법을 제공한다. 도 4는 본 발명의 실시예 2에 따른 정보 처리 방법의 개략적 플로우차트이다. 정보 처리 방법은 단말기에 적용된다. 소프트웨어 애플리케이션이 단말기의 프로세서 상에서 실행되고 렌더링이 단말기의 디스플레이 상에서 수행되어, GUI를 획득한다. 프로세서, GUI, 및 소프트웨어 애플리케이션은 게임 시스템에서 구현된다. 도 4에 도시한 바와 같이,
단계 301: GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득한다.
단계 302: GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치한다.
본 실시예에서, GUI는 적어도 하나의 캐릭터 선택 영역을 포함하고, 캐릭터 선택 영역은 적어도 하나의 캐릭터 컨테이너 대상을 포함하고, 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함한다. 대응하는 캐릭터 조작 대상들이 적어도 일부 윈도우 위치들 내에 보유된다. 캐릭터 조작 대상은 GUI 내의 캐릭터 조작 대상과 연관된 캐릭터 대상의 식별자(식별자는 아바타일 수 있음)를 사용하여 나타내질 수 있다. 여기서, 캐릭터 조작 대상과 연관된 캐릭터 대상은 사용자 캐릭터 대상과 동일한 그룹에 속한다. 캐릭터 선택 영역 내의 캐릭터 컨테이너 대상에 대해 렌더링하는 방식은 바 형상 또는 환형 형상을 포함하지만, 이들로 제한되지 않고, 즉, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상 또는 캐릭터 선택 휠 대상을 사용하여 나타내질 수 있다.
구체적으로, 도 3을 참조하면, 단말기의 디스플레이 상의 렌더링을 통해 획득된 GUI(800)는 적어도 하나의 가상 리소스 대상을 포함한다. 가상 리소스 대상은 적어도 하나의 사용자 캐릭터 대상(a10)을 포함한다. 단말기의 사용자는 GUI, 즉 입력 사용자 명령을 사용하여 정보 교환을 수행할 수 있다. 사용자 캐릭터 대상(a10)은 단말기에 의해 검출된 제1 사용자 명령에 기초하여 제1 가상 조작을 수행할 수 있고, 여기서 제1 가상 조작은 이동 조작, 물리적 공격 조작, 스킬 공격 조작 등을 포함하지만, 이들로 제한되지 않는다. 사용자 캐릭터 대상(a10)은 단말기의 사용자에 의해 제어된 캐릭터 대상이라는 것을 이해할 수 있다. 게임 시스템에서, 사용자 캐릭터 대상(a10)은 사용자의 조작에 기초하여 GUI에서 대응하는 액션을 수행할 수 있다. 구현예에서, GUI(800)는 적어도 하나의 스킬 대상(803)을 더 포함하고, 사용자는 스킬 해제 조작에 의해, 사용자 캐릭터 대상(a10)을 제어하여 대응하는 스킬 해제 조작을 수행할 수 있다.
도 3에 도시한 예에서, GUI는 캐릭터 선택 영역(802)을 포함하고, 캐릭터 컨테이너 대상은 캐릭터 선택 영역(802) 내에 배치된다. 본 예에서, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상을 사용하여 나타내진다(즉, 캐릭터 컨테이너 대상은 바 형상의 디스플레이 효과를 나타낸다). 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함하고, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행된다. 캐릭터 조작 대상이 아바타를 사용하여 나타내지는 예가 사용되고, 즉, 캐릭터 선택 영역(802)은 적어도 하나의 아바타를 포함한다. 적어도 하나의 아바타는 각각 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상과 1 대 1 대응한다. 도 3에 도시한 바와 같이, 5 대 5 애플리케이션 시나리오가 본 예에서 사용된다. 사용자 캐릭터 대상(a10)과 동일한 그룹에 속하는 4개의 캐릭터 대상이 있고, 대응하여, 캐릭터 선택 영역(802) 내에 4개의 캐릭터 조작 대상, 예를 들어, 도 3에 도시한 캐릭터 조작 대상(a11), 캐릭터 조작 대상(a12), 캐릭터 조작 대상(a13), 및 캐릭터 조작 대상(a14)이 있다. 캐릭터 선택 영역(802) 내의 4개의 캐릭터 조작 대상은 사용자 캐릭터 대상과 동일한 그룹에 속하는 4개의 제2 캐릭터 대상과 1 대 1 대응한다는 것을 이해할 수 있다. 본 실시예는 적어도 2개의 그룹 멤버를 포함하는 다수의 사람의 배틀의 애플리케이션 시나리오에 적용될 수 있다.
구현예에서, 캐릭터 선택 영역(802) 내의 적어도 2개의 캐릭터 조작 대상 사이의 상호 위치 관계는 적어도 2개의 캐릭터 조작 대상에 의해 게임 시스템에 들어가는 시간 순서에 따라 결정된다. 도 3에 도시한 바와 같이, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상이 게임 시스템에 들어가는 시간은 캐릭터 조작 대상(a12)과 연관된 캐릭터 대상의 시간, 캐릭터 조작 대상(a13)의 시간, 및 캐릭터 조작 대상(a14)의 시간 등등 보다 앞서고, 상세들은 여기서 설명되지 않는다.
단계 303: 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 제1 명령을 생성하고 송신하고, 비전 획득 제스처를 검출하는 프로세스에서, 가상 렌즈에 의해 캡처된 비전 영상을 획득하고, 여기서 제1 명령은 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하고 비전 영상을 캡처하기 위해 가상 렌즈를 제어하도록 구성되고; GUI에서 렌더링을 수행하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득한다.
구체적으로, 도 3을 참조하면, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 캐릭터 선택 영역(802) 내의 (도 3에 도시한 캐릭터 조작 대상(a11)과 같은) 캐릭터 조작 대상 상에서 긴 누름 제스처가 검출될 때, 단말기는 제1 명령을 생성하고, 제1 명령에 기초하여, 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기와의 네트워크 접속을 확립하고, 네트워크 접속에 기초하여, 제1 명령을 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기에 송신하여, 제1 명령에 기초하여, 또 하나의 단말기의 가상 렌즈를 인보크하고, 가상 렌즈를 사용하여 비전 영상을 캡처하도록 또 하나의 단말기를 제어한다. 캐릭터 조작 대상(a11) 상에서 긴 누름 제스처를 계속 검출하는 프로세스에서, 단말기는 실시간으로, 또 하나의 단말기에 의해 송신된 비전 영상을 획득하고, GUI에서 렌더링을 수행하여, 비전 영상을 획득한다. 도 3에 도시한 비전 영상 디스플레이 영역(801) 및 비전 영상 디스플레이 영역(801)의 확대된 뷰(801a)에 도시한 바와 같이, 캐릭터 조작 대상(a11)에 대응하는 비전 영상은 비전 영상 디스플레이 영역(801)에 디스플레이되고; 비전 영상은 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상을 제어하는 사용자가 볼 수 있는 영상이다. 예를 들어, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하면, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하는 비전 영상이 도 3에 도시한 바와 같이, GUI(800) 내의 비전 영상 디스플레이 영역(801)에 디스플레이된다. (긴 누름 제스처와 같은) 비전 획득 제스처에 의해, 단말기는 또 하나의 대응하는 단말기의 비전 영상으로 빠르게 전환할 수 있으므로, 단말기의 사용자가 팀메이트의 비전 영상을 빨리 획득할 수 있다는 것을 이해할 수 있다.
단계 304: 비전 획득 제스처가 중지할 때 제2 명령을 생성하고, 제2 명령에 기초하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것을 중지한다.
구체적으로, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 제2 명령은 긴 누름 제스처가 중지할 때 생성되고, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것이 제2 명령에 기초하여 중지되고; 단말기와 또 하나의 단말기 사이의 네트워크 접속이 종료된다.
본 발명의 본 실시예에서의 기술적 해결책에 의해, GUI 내의 캐릭터 선택 영역에 배치된 캐릭터 컨테이너 대상 내의 윈도우 위치에 의해, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행되므로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빠르게 획득할 수 있음으로써, 상호작용 프로세스에서의 사용자의 조작 경험을 상당히 개선시킨다.
실시예 3
본 발명의 본 실시예는 정보 처리 방법을 제공한다. 도 5는 본 발명의 실시예 3에 따른 정보 처리 방법의 개략적 플로우차트이다. 정보 처리 방법은 단말기에 적용된다. 소프트웨어 애플리케이션이 단말기의 프로세서 상에서 실행되고 렌더링이 단말기의 디스플레이 상에서 수행되어, GUI를 획득한다. 프로세서, GUI, 및 소프트웨어 애플리케이션은 게임 시스템에서 구현된다. 도 5에 도시한 바와 같이,
단계 401: GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득한다.
단계 402: GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치한다.
본 실시예에서, GUI는 적어도 하나의 캐릭터 선택 영역을 포함하고, 캐릭터 선택 영역은 적어도 하나의 캐릭터 컨테이너 대상을 포함하고, 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함한다. 대응하는 캐릭터 조작 대상들이 적어도 일부 윈도우 위치들 내에 보유된다. 캐릭터 조작 대상은 GUI 내의 캐릭터 조작 대상과 연관된 캐릭터 대상의 식별자(식별자는 아바타일 수 있음)를 사용하여 나타내질 수 있다. 여기서, 캐릭터 조작 대상과 연관된 캐릭터 대상은 사용자 캐릭터 대상과 동일한 그룹에 속한다. 캐릭터 선택 영역 내에 캐릭터 컨테이너 대상에 대해 렌더링하는 방식은 바 형상 또는 환형 형상을 포함하지만, 이들로 제한되지 않고, 즉, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상 또는 캐릭터 선택 휠 대상을 사용하여 나타내질 수 있다.
구체적으로, 도 3을 참조하면, 단말기의 디스플레이 상의 렌더링을 통해 획득된 GUI(800)는 적어도 하나의 가상 리소스 대상을 포함한다. 가상 리소스 대상은 적어도 하나의 사용자 캐릭터 대상(a10)을 포함한다. 단말기의 사용자는 GUI, 즉 입력 사용자 명령을 사용하여 정보 교환을 수행할 수 있다. 사용자 캐릭터 대상(a10)은 단말기에 의해 검출된 제1 사용자 명령에 기초하여 제1 가상 조작을 수행할 수 있고, 여기서 제1 가상 조작은 이동 조작, 물리적 공격 조작, 스킬 공격 조작 등을 포함하지만, 이들로 제한되지 않는다. 사용자 캐릭터 대상(a10)은 단말기의 사용자에 의해 제어된 캐릭터 대상이라는 것을 이해할 수 있다. 게임 시스템에서, 사용자 캐릭터 대상(a10)은 사용자의 조작에 기초하여 GUI에서 대응하는 액션을 수행할 수 있다. 구현예에서, GUI(800)는 적어도 하나의 스킬 대상(803)을 더 포함하고, 사용자는 스킬 해제 조작에 의해, 사용자 캐릭터 대상(a10)을 제어하여 대응하는 스킬 해제 조작을 수행할 수 있다.
도 3에 도시한 예에서, GUI는 캐릭터 선택 영역(802)을 포함하고, 캐릭터 컨테이너 대상이 캐릭터 선택 영역(802) 내에 배치된다. 본 예에서, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상을 사용하여 나타내진다(즉, 캐릭터 컨테이너 대상은 바 형상의 디스플레이 효과를 나타낸다). 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함하고, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행된다. 캐릭터 조작 대상이 아바타를 사용하여 나타내지는 예가 사용되고, 즉, 캐릭터 선택 영역(802)은 적어도 하나의 아바타를 포함한다. 적어도 하나의 아바타는 각각 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상과 1 대 1 대응한다. 도 3에 도시한 바와 같이, 5 대 5 애플리케이션 시나리오가 본 예에서 사용된다. 사용자 캐릭터 대상(a10)과 동일한 그룹에 속하는 4개의 캐릭터 대상이 있고, 대응하여, 캐릭터 선택 영역(802) 내에 4개의 캐릭터 조작 대상, 예를 들어, 도 3에 도시한 캐릭터 조작 대상(a11), 캐릭터 조작 대상(a12), 캐릭터 조작 대상(a13), 및 캐릭터 조작 대상(a14)이 있다. 캐릭터 선택 영역(802) 내의 4개의 캐릭터 조작 대상은 사용자 캐릭터 대상과 동일한 그룹에 속하는 4개의 제2 캐릭터 대상과 1 대 1 대응한다는 것을 이해할 수 있다. 본 실시예는 적어도 2개의 그룹 멤버를 포함하는 다수의 사람의 배틀의 애플리케이션 시나리오에 적용될 수 있다.
구현예에서, 캐릭터 선택 영역(802) 내의 적어도 2개의 캐릭터 조작 대상 사이의 상호 위치 관계는 적어도 2개의 캐릭터 조작 대상에 의해 게임 시스템에 들어가는 시간 순서에 따라 결정된다. 도 3에 도시한 바와 같이, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상이 게임 시스템에 들어가는 시간은 캐릭터 조작 대상(a12)과 연관된 캐릭터 대상의 시간, 캐릭터 조작 대상(a13)의 시간, 및 캐릭터 조작 대상(a14)의 시간 등등 보다 앞서고, 상세들은 여기서 설명되지 않는다.
단계 403: 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, GUI에서 렌더링을 수행하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득한다.
여기서, 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 방법은 제1 명령을 생성하고 송신하는 단계 - 제1 명령은 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하고 비전 영상을 캡처하기 위해 가상 렌즈를 제어하도록 구성됨 -; 및 비전 획득 제스처를 검출하는 프로세스에서, 가상 렌즈에 의해 캡처된 비전 영상을 획득하는 단계를 더 포함한다.
구체적으로, 도 3을 참조하면, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 캐릭터 선택 영역(802) 내의 (도 3에 도시한 캐릭터 조작 대상(a11)과 같은) 캐릭터 조작 대상 상에서 긴 누름 제스처가 검출될 때, 단말기는 제1 명령을 생성하고, 제1 명령에 기초하여, 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기와의 네트워크 접속을 확립하고, 네트워크 접속에 기초하여, 제1 명령을 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기에 송신하여, 제1 명령에 기초하여, 또 하나의 단말기의 가상 렌즈를 인보크하고, 가상 렌즈를 사용하여 비전 영상을 캡처하도록 또 하나의 단말기를 제어한다. 캐릭터 조작 대상(a11) 상에서 긴 누름 제스처를 계속 검출하는 프로세스에서, 단말기는 실시간으로, 또 하나의 단말기에 의해 송신된 비전 영상을 획득하고, GUI에서 렌더링을 수행하여, 비전 영상을 획득한다. 도 3에 도시한 비전 영상 디스플레이 영역(801) 및 비전 영상 디스플레이 영역(801)의 확대된 뷰(801a)에 도시한 바와 같이, 캐릭터 조작 대상(a11)에 대응하는 비전 영상은 비전 영상 디스플레이 영역(801)에 디스플레이되고; 비전 영상은 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상을 제어하는 사용자가 볼 수 있는 영상이다. 예를 들어, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하면, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하는 비전 영상이 도 3에 도시한 바와 같이, GUI(800) 내의 비전 영상 디스플레이 영역(801)에 디스플레이된다. (긴 누름 제스처와 같은) 비전 획득 제스처에 의해, 단말기는 또 하나의 대응하는 단말기의 비전 영상으로 빠르게 전환할 수 있으므로, 단말기의 사용자가 팀메이트의 비전 영상을 빨리 획득할 수 있다는 것을 이해할 수 있다.
구현예에서, 비전 획득 제스처가 중지할 때 제2 명령이 생성되고, 제2 명령에 기초하여 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것이 중지된다.
구체적으로, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 제2 명령은 긴 누름 제스처가 중지할 때 생성되고, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것이 제2 명령에 기초하여 중지되고; 단말기와 또 하나의 단말기 사이의 네트워크 접속이 종료된다.
단계 404: GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 상태 속성 정보를 생성하고, 서버와 동기적으로 상태 속성 정보를 업데이트한다.
단계 405: 서버로부터, 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행한다.
본 실시예에서, 단말기가 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록할 때, 즉, 사용자 캐릭터 대상이 또 하나의 캐릭터 대상과 정보 교환을 수행하는 프로세스에서, 단말기는 실시간으로 사용자 캐릭터 대상의 상태 속성의 변화를 기록하여, 사용자 캐릭터 대상의 상태 속성 정보를 획득하고, 여기서 상태 속성 정보는 사용자 캐릭터 대상의 블러드 값, 히트 포인트, 또는 스킬 속성 정보를 포함하지만 이들로 제한되지 않는다. 단말기는 실시간으로 서버와 사용자 캐릭터 대상의 획득된 상태 속성 정보를 동기화시킨다. 대응하여, 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상에 대해, 제2 캐릭터 대상에 대응하는 단말기는 또한 실시간으로 제2 캐릭터 대상의 상태 속성 정보를 획득하고 서버와 상태 속성 정보를 동기화시킨다.
또한, 단말기는 서버로부터, 또 하나의 단말기에 의해 동기화된 적어도 하나의 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 즉, GUI 내의 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득한다. 단말기는 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 제2 캐릭터 대상의 상태 속성 정보에 대해 렌더링을 수행한다는 것을 이해할 수 있다. 도 6은 본 발명의 본 실시예에 따른 정보 처리 방법에서의 GUI의 제2 개략도이다. 도 6에 도시한 바와 같이, 상태 속성 정보가 블러드 값인 예가 사용된다. 캐릭터 선택 영역(802) 내의 캐릭터 조작 대상(a21)의 외부 원의 영역이 블러드 홈 디스플레이 영역(a211)으로서 사용되고, 대응하는 제2 캐릭터 대상의 현재의 블러드 값은 블러드 홈 디스플레이 영역에 대한 블러드 홈 디스플레이 영역 내의 블러드 값의 비율을 사용함으로써 나타내진다. 물론, 본 발명의 본 실시예에서, 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대응하는 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하는 방식은 도 6에 도시한 것으로 제한되지 않는다.
본 발명의 본 실시예에서의 기술적 해결책에 의해, 한편에서, GUI 내의 캐릭터 선택 영역에 배치된 캐릭터 컨테이너 대상 내의 윈도우 위치에 의해, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행되므로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빠르게 획득할 수 있음으로써, 상호작용 프로세스에서의 사용자의 조작 경험을 상당히 개선시킨다. 다른 한편에서, 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상과 연관된 제2 캐릭터 대상의 상태 속성 정보가 동일한 그룹에 속하는 제2 캐릭터 대상(즉, 팀메이트)의 상태 속성 정보를 동기화시킴으로써 획득되고, 렌더링이 특정한 방식으로 대응하는 윈도우 위치에서 상태 속성 정보에 대해 수행되고, 즉, 제2 캐릭터 대상(즉, 팀메이트)의 상태 속성 정보가 대응하는 캐릭터 조작 대상(UI 아바타)에 반영되므로, 사용자는 제2 캐릭터 대상(즉, 팀메이트)의 상태 속성 정보를 빨리 학습할 수 있음으로써, 정보 교환 프로세스에서 사용자의 조작 경험을 개선시킨다.
실시예 4
본 발명의 본 실시예는 정보 처리 방법을 제공한다. 도 7은 본 발명의 실시예 4에 따른 정보 처리 방법의 개략적 플로우차트이다. 정보 처리 방법은 단말기에 적용된다. 소프트웨어 애플리케이션이 단말기의 프로세서 상에서 실행되고 렌더링이 단말기의 디스플레이 상에서 수행되어, GUI를 획득한다. 프로세서, GUI, 및 소프트웨어 애플리케이션은 게임 시스템에서 구현된다. 도 7에 도시한 바와 같이,
단계 501: GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득한다.
단계 502: GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치한다.
본 실시예에서, GUI는 적어도 하나의 캐릭터 선택 영역을 포함하고, 캐릭터 선택 영역은 적어도 하나의 캐릭터 컨테이너 대상을 포함하고, 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함한다. 대응하는 캐릭터 조작 대상들이 적어도 일부 윈도우 위치들 내에 보유된다. 캐릭터 조작 대상은 GUI 내의 캐릭터 조작 대상과 연관된 캐릭터 대상의 식별자(식별자는 아바타일 수 있음)를 사용하여 나타내질 수 있다. 여기서, 캐릭터 조작 대상과 연관된 캐릭터 대상은 사용자 캐릭터 대상과 동일한 그룹에 속한다. 캐릭터 선택 영역 내의 캐릭터 컨테이너 대상에 대해 렌더링하는 방식은 바 형상 또는 환형 형상을 포함하지만, 이들로 제한되지 않고, 즉, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상 또는 캐릭터 선택 휠 대상을 사용하여 나타내질 수 있다.
구체적으로, 도 3을 참조하면, 단말기의 디스플레이 상의 렌더링을 통해 획득된 GUI(800)는 적어도 하나의 가상 리소스 대상을 포함한다. 가상 리소스 대상은 적어도 하나의 사용자 캐릭터 대상(a10)을 포함한다. 단말기의 사용자는 GUI, 즉 입력 사용자 명령을 사용하여 정보 교환을 수행할 수 있다. 사용자 캐릭터 대상(a10)은 단말기에 의해 검출된 제1 사용자 명령에 기초하여 제1 가상 조작을 수행할 수 있고, 여기서 제1 가상 조작은 이동 조작, 물리적 공격 조작, 스킬 공격 조작 등을 포함하지만, 이들로 제한되지 않는다. 사용자 캐릭터 대상(a10)은 단말기의 사용자에 의해 제어된 캐릭터 대상이라는 것을 이해할 수 있다. 게임 시스템에서, 사용자 캐릭터 대상(a10)은 사용자의 조작에 기초하여 GUI에서 대응하는 액션을 수행할 수 있다. 구현예에서, GUI(800)는 적어도 하나의 스킬 대상(803)을 더 포함하고, 사용자는 스킬 해제 조작에 의해, 사용자 캐릭터 대상(a10)을 제어하여 대응하는 스킬 해제 조작을 수행할 수 있다.
도 3에 도시한 예에서, GUI는 캐릭터 선택 영역(802)을 포함하고, 캐릭터 컨테이너 대상이 캐릭터 선택 영역(802) 내에 배치된다. 본 예에서, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상을 사용하여 나타내진다(즉, 캐릭터 컨테이너 대상은 바 형상의 디스플레이 효과를 나타낸다). 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함하고, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행된다. 캐릭터 조작 대상이 아바타를 사용하여 나타내지는 예가 사용되고, 즉, 캐릭터 선택 영역(802)은 적어도 하나의 아바타를 포함한다. 적어도 하나의 아바타는 각각 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상과 1 대 1 대응한다. 도 3에 도시한 바와 같이, 5 대 5 애플리케이션 시나리오가 본 예에서 사용된다. 사용자 캐릭터 대상(a10)과 동일한 그룹에 속하는 4개의 캐릭터 대상이 있고, 대응하여, 캐릭터 선택 영역(802) 내에 4개의 캐릭터 조작 대상, 예를 들어, 도 3에 도시한 캐릭터 조작 대상(a11), 캐릭터 조작 대상(a12), 캐릭터 조작 대상(a13), 및 캐릭터 조작 대상(a14)이 있다. 캐릭터 선택 영역(802) 내의 4개의 캐릭터 조작 대상은 사용자 캐릭터 대상과 동일한 그룹에 속하는 4개의 제2 캐릭터 대상과 1 대 1 대응한다는 것을 이해할 수 있다. 본 실시예는 적어도 2개의 그룹 멤버를 포함하는 다수의 사람의 배틀의 애플리케이션 시나리오에 적용될 수 있다.
구현예에서, 캐릭터 선택 영역(802) 내의 적어도 2개의 캐릭터 조작 대상 사이의 상호 위치 관계는 적어도 2개의 캐릭터 조작 대상에 의해 게임 시스템에 들어가는 시간 순서에 따라 결정된다. 도 3에 도시한 바와 같이, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상이 게임 시스템에 들어가는 시간은 캐릭터 조작 대상(a12)과 연관된 캐릭터 대상의 시간, 캐릭터 조작 대상(a13)의 시간, 및 캐릭터 조작 대상(a14)의 시간 등등 보다 앞서고, 상세들은 여기서 설명되지 않는다.
단계 503: 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, GUI에서 렌더링을 수행하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득한다.
여기서, 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 방법은 제1 명령을 생성하고 송신하는 단계 - 제1 명령은 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하고 비전 영상을 캡처하기 위해 가상 렌즈를 제어하도록 구성됨 -; 및 비전 획득 제스처를 검출하는 프로세스에서, 가상 렌즈에 의해 캡처된 비전 영상을 획득하는 단계를 더 포함한다.
구체적으로, 도 3을 참조하면, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 캐릭터 선택 영역(802) 내의 (도 3에 도시한 캐릭터 조작 대상(a11)과 같은) 캐릭터 조작 대상 상에서 긴 누름 제스처가 검출될 때, 단말기는 제1 명령을 생성하고, 제1 명령에 기초하여, 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기와의 네트워크 접속을 확립하고, 네트워크 접속에 기초하여, 제1 명령을 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기에 송신하여, 제1 명령에 기초하여, 또 하나의 단말기의 가상 렌즈를 인보크하고, 가상 렌즈를 사용하여 비전 영상을 캡처하도록 또 하나의 단말기를 제어한다. 캐릭터 조작 대상(a11) 상에서 긴 누름 제스처를 계속 검출하는 프로세스에서, 단말기는 실시간으로, 또 하나의 단말기에 의해 송신된 비전 영상을 획득하고, GUI에서 렌더링을 수행하여, 비전 영상을 획득한다. 도 3에 도시한 비전 영상 디스플레이 영역(801) 및 비전 영상 디스플레이 영역(801)의 확대된 뷰(801a)에 도시한 바와 같이, 캐릭터 조작 대상(a11)에 대응하는 비전 영상은 비전 영상 디스플레이 영역(801)에 디스플레이되고; 비전 영상은 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상을 제어하는 사용자가 볼 수 있는 영상이다. 예를 들어, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하면, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하는 비전 영상이 도 3에 도시한 바와 같이, GUI(800) 내의 비전 영상 디스플레이 영역(801)에 디스플레이된다. (긴 누름 제스처와 같은) 비전 획득 제스처에 의해, 단말기는 또 하나의 대응하는 단말기의 비전 영상으로 빠르게 전환할 수 있으므로, 단말기의 사용자가 팀메이트의 비전 영상을 빨리 획득할 수 있다는 것을 이해할 수 있다.
구현예에서, 비전 획득 제스처가 중지할 때 제2 명령이 생성되고, 제2 명령에 기초하여 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것이 중지된다.
구체적으로, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 제2 명령은 긴 누름 제스처가 중지할 때 생성되고, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것이 제2 명령에 기초하여 중지되고; 단말기와 또 하나의 단말기 사이의 네트워크 접속이 종료된다.
단계 504: GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 상태 속성 정보를 생성하고; GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정할 때 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고; 서버와 동기적으로 상태 속성 정보 및 스킬 속성 정보를 업데이트한다.
본 실시예에서, 한편에서, 단말기가 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록할 때, 즉, 사용자 캐릭터 대상이 또 하나의 캐릭터 대상과 정보 교환을 수행하는 프로세스에서, 단말기는 실시간으로 사용자 캐릭터 대상의 상태 속성의 변화를 기록하여, 사용자 캐릭터 대상의 상태 속성 정보를 획득하고, 여기서 상태 속성 정보는 사용자 캐릭터 대상의 블러드 값, 히트 포인트, 또는 스킬 속성 정보를 포함하지만 이들로 제한되지 않는다. 단말기는 실시간으로 서버와 사용자 캐릭터 대상의 획득된 상태 속성 정보를 동기화시킨다. 대응하여, 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상에 대해, 제2 캐릭터 대상에 대응하는 단말기는 또한 실시간으로 제2 캐릭터 대상의 상태 속성 정보를 획득하고 서버와 상태 속성 정보를 동기화시킨다.
다른 한편에서, 단말기가 GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속 기록할 때, 즉, 사용자 캐릭터 대상이 또 하나의 캐릭터 대상과 정보 교환을 수행하는 프로세스에서, 단말기는 실시간으로 사용자 캐릭터 대상의 스킬 속성의 변화를 기록한다. 사용자 캐릭터 대상이 스킬 대상을 해제한 후에, 스킬 대상은 시간 주기 후에 복원될 수 있고, 즉, 스킬 대상은 시간 주기 후에 다시 해제될 수 있다. 그러므로, 본 실시예에서, 단말기는 사용자 캐릭터 대상의 스킬 속성의 변화를 실시간으로 기록하고, 적어도 하나의 스킬 대상이 해제될 수 있다고 결정할 때, 사용자 캐릭터 대상의 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정하고, 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고, 여기서 스킬 속성 정보는 사용자 캐릭터 대상이 적어도 하나의 스킬 대상을 해제할 수 있다는 것을 나타낸다. 단말기는 실시간으로 서버와 사용자 캐릭터 대상의 획득된 스킬 속성 정보를 동기화시킨다. 대응하여, 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상에 대해, 제2 캐릭터 대상에 대응하는 단말기는 또한 실시간으로 제2 캐릭터 대상의 스킬 속성 정보를 획득하고 서버와 스킬 속성 정보를 동기화시킨다.
단계 505: 서버로부터, 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보 및 스킬 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하고, 제2 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 스킬 속성 정보에 대해 렌더링을 수행한다.
여기서, 한편에서, 단말기는 서버로부터, 또 하나의 단말기에 의해 동기화된 적어도 하나의 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 즉, GUI 내의 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득한다. 단말기는 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 제2 캐릭터 대상의 상태 속성 정보에 대해 렌더링을 수행한다는 것을 이해할 수 있다. 도 8은 본 발명의 본 실시예에 따른 정보 처리 방법에서의 GUI의 제3 개략도이다. 도 8에 도시한 바와 같이, 상태 속성 정보가 블러드 값인 예가 사용된다. 캐릭터 선택 영역(802) 내의 캐릭터 조작 대상(a31)의 외부 원의 영역이 블러드 홈 디스플레이 영역(a311)으로서 사용되고, 대응하는 제2 캐릭터 대상의 현재의 블러드 값은 블러드 홈 디스플레이 영역(a311)에 대한 블러드 홈 디스플레이 영역 내의 블러드 값의 비율을 사용함으로써 나타내진다. 물론, 본 발명의 본 실시예에서, 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대응하는 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하는 방식은 도 8에 도시한 것으로 제한되지 않는다.
다른 한편에서, 단말기는 서버로부터, 또 하나의 단말기에 의해 동기화된 적어도 하나의 제2 캐릭터 대상의 스킬 속성 정보를 획득하고, 즉, GUI 내의 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득한다. 단말기는 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상의 스킬 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 제2 캐릭터 대상의 스킬 속성 정보에 대해 렌더링을 수행하고, 여기서 캐릭터 조작 대상에 디스플레이된 스킬 속성 정보는 대응하는 제2 캐릭터 대상이 현재 적어도 하나의 스킬 대상을 해제할 수 있다는 것을 나타낸다는 것을 이해할 수 있다. 도 8을 참조하면, 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상(a31)의 우상부 모서리에, 스킬 속성 정보가 원형 식별자(a312)를 사용하여 나타내진다. 캐릭터 조작 대상이 원형 식별자(a312)를 디스플레이할 때, 그것은 캐릭터 조작 대상과 연관된 제2 캐릭터 대상이 현재 적어도 하나의 스킬 대상을 해제할 수 있다는 것을 나타낸다. 캐릭터 조작 대상이 원형 식별자를 디스플레이하지 않을 때, 그것은 캐릭터 조작 대상과 연관된 제2 캐릭터 대상이 현재 어떤 스킬 대상도 해제할 수 없다는 것을 나타낸다. 물론, 본 발명의 본 실시예에서, 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대응하는 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하는 방식은 도 8에 도시한 것으로 제한되지 않는다.
본 발명의 본 실시예에서의 기술적 해결책에 의해, 한편에서, GUI 내의 캐릭터 선택 영역에 배치된 캐릭터 컨테이너 대상 내의 윈도우 위치에 의해, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행되므로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빠르게 획득할 수 있음으로써, 상호작용 프로세스에서의 사용자의 조작 경험을 상당히 개선시킨다. 다른 한편에서, 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상과 연관된 제2 캐릭터 대상의 상태 속성 정보 및 스킬 속성 정보가 동일한 그룹에 속하는 제2 캐릭터 대상(즉, 팀메이트)의 상태 속성 정보 및 스킬 속성 정보를 동기화시킴으로써 획득되고, 렌더링이 특정한 방식들로 대응하는 윈도우 위치들 내의 상태 속성 정보 및 스킬 속성 정보에 대해 수행되고, 즉, 제2 캐릭터 대상(즉, 팀메이트)의 상태 속성 정보 및 스킬 속성 정보가 대응하는 캐릭터 조작 대상들(UI 아바타들)에 반영되므로, 사용자는 제2 캐릭터 대상(즉, 팀메이트)의 상태 속성 정보 및 스킬 속성 정보를 빨리 학습할 수 있음으로써, 정보 교환 프로세스에서 사용자의 조작 경험을 개선시킨다.
실시예 2 내지 실시예 4의 방법 실시예들에 기초하여, 2 대 2 애플리케이션 시나리오가 아래 상세한 설명을 위한 예로서 사용된다. 2 대 2 애플리케이션 시나리오는 단말기 1에 의해 제어되는 제1 캐릭터 대상 및 단말기 2에 의해 제어되는 제2 캐릭터 대상이 제1 그룹에 속하고 단말기 3에 의해 제어되는 제3 캐릭터 대상 및 단말기 4에 의해 제어되는 제4 캐릭터 대상과 정보 교환을 수행하는 애플리케이션 시나리오이다. 다른 애플리케이션 시나리오들에 대해, 본 애플리케이션 시나리오를 참조하고, 상세들은 본 실시예에서 다시 설명되지 않는다. 도 9는 본 발명의 본 실시예에 따른 정보 처리 방법에서의 상호작용의 개략적 애플리케이션도이다. 도 9에 도시한 바와 같이, 본 애플리케이션 시나리오에서, 단말기 1, 단말기 2, 단말기 3, 및 단말기 4, 및 서버 5가 포함된다. 사용자 1은 단말기 1을 사용하여 트리거링 및 제어를 수행하고, 사용자 2는 단말기 2를 사용하여 트리거링 및 제어를 수행하고, 사용자 3은 단말기 3을 사용하여 트리거링 및 제어를 수행하고, 사용자 4는 단말기 4를 사용하여 트리거링 및 제어를 수행하고; 방법은 다음 단계들을 포함한다:
사용자 1에 대해, 단계 11: 사용자 1은 게임 시스템을 트리거하고 신원 인증 정보를 등록하고, 여기서 신원 인증 정보는 사용자 이름 및 비밀 번호일 수 있다.
단계 12: 단말기 1은 서버 5에 획득된 신원 인증 정보를 송신하고, 서버 5는 신원 인증을 수행하고, 신원 인증이 성공한 후에 제1 GUI를 단말기 1에 돌려주고, 여기서 제1 GUI는 제1 캐릭터 대상을 포함하고, 제1 캐릭터 대상은 사용자 1의 트리거 조작에 기초하여 가상 조작을 수행할 수 있고, 가상 조작은 제1 캐릭터 대상의 이동 조작, 또 하나의 캐릭터 대상에 대한 제1 캐릭터 대상의 공격 조작 또는 스킬 해제 조작 등을 포함한다.
사용자 2에 대해, 단계 21: 사용자 2는 게임 시스템을 트리거하고 신원 인증 정보를 등록하고, 여기서 신원 인증 정보는 사용자 이름 및 비밀 번호일 수 있다.
단계 22: 단말기 2는 서버 5에 획득된 신원 인증 정보를 송신하고, 서버 5는 신원 인증을 수행하고, 신원 인증이 성공한 후에 제2 GUI를 단말기 2에 돌려주고, 여기서 제2 GUI는 제2 캐릭터 대상을 포함하고, 제2 캐릭터 대상은 사용자 2의 트리거 조작에 기초하여 가상 조작을 수행할 수 있고, 가상 조작은 제2 캐릭터 대상의 이동 조작, 또 하나의 캐릭터 대상에 대한 제2 캐릭터 대상의 공격 조작 또는 스킬 해제 조작 등을 포함한다.
본 실시예에서, 렌더링이 단말기 1에서 수행되는 제1 캐릭터 대상 및 렌더링이 단말기 2에서 수행되는 제2 캐릭터 대상은 동일한 그룹에 속하고, 단말기 1 내의 제1 GUI 내의 캐릭터 컨테이너 대상의 윈도우 위치는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상을 포함한다. 캐릭터 조작 대상이 (긴 누름 제스처와 같은) 비전 획득 제스처에 의해 조작될 때, 단말기 1은 단말기 2의 가상 렌즈를 인보크하여, 가상 렌즈를 사용하여 단말기 2의 비전 영상을 획득할 수 있고, (긴 누름 제스처와 같은) 비전 획득 제스처가 계속 조작될 때, 단말기 1은 비전 영상을 디스플레이한다. 대응하여, 단말기 2 내의 제2 GUI 내의 캐릭터 컨테이너 대상의 윈도우 위치는 제1 캐릭터 대상과 연관된 캐릭터 조작 대상을 포함하고, 단말기 1과 유사하게, 단말기 2의 캐릭터 조작 대상이 (긴 누름 제스처와 같은) 비전 획득 제스처에 의해 조작될 때, 단말기 2는 단말기 1의 가상 렌즈를 인보크하여, 가상 렌즈를 사용하여 단말기 1의 비전 영상을 획득할 수 있고; 상세들은 여기서 다시 설명되지 않는다.
사용자 3에 대해, 단계 31: 사용자 3은 게임 시스템을 트리거하고 신원 인증 정보를 등록하고, 여기서 신원 인증 정보는 사용자 이름 및 비밀 번호일 수 있다.
단계 32: 단말기 3은 서버 5에 획득된 신원 인증 정보를 송신하고, 서버 5는 신원 인증을 수행하고, 신원 인증이 성공한 후에 제3 GUI를 단말기 3에 돌려주고, 여기서 제3 GUI는 제3 캐릭터 대상을 포함하고, 제3 캐릭터 대상은 사용자 3의 트리거 조작에 기초하여 가상 조작을 수행할 수 있고, 가상 조작은 제3 캐릭터 대상의 이동 조작, 또 하나의 캐릭터 대상에 대한 제3 캐릭터 대상의 공격 조작 또는 스킬 해제 조작 등을 포함한다.
사용자 4에 대해, 단계 41: 사용자 4는 게임 시스템을 트리거하고 신원 인증 정보를 등록하고, 여기서 신원 인증 정보는 사용자 이름 및 비밀 번호일 수 있다.
단계 42: 단말기 4는 서버 5에 획득된 신원 인증 정보를 송신하고, 서버 5는 신원 인증을 수행하고, 신원 인증이 성공한 후에 제4 GUI를 단말기 5에 돌려주고, 여기서 제4 GUI는 제4 캐릭터 대상을 포함하고, 제4 캐릭터 대상은 사용자 5의 트리거 조작에 기초하여 가상 조작을 수행할 수 있고, 가상 조작은 제4 캐릭터 대상의 이동 조작, 또 하나의 캐릭터 대상에 대한 제4 캐릭터 대상의 공격 조작 또는 스킬 해제 조작 등을 포함한다.
단말기 1 및 단말기 2와 유사하게, 렌더링이 단말기 3 및 단말기의 각각에서 수행되어, 동일한 그룹 4에 속하는 또 하나의 캐릭터 대상과 연관된 캐릭터 조작 대상을 획득한다. 캐릭터 조작 대상 상에서 (긴 누름 제스처와 같은) 비전 획득 제스처가 검출될 때, 캐릭터 조작 대상과 연관된 캐릭터 대상의 비전 영상이 획득되고; 상세들은 여기서 다시 설명되지 않는다.
본 실시예에서, 사용자 1 및 사용자 2는 제1 그룹으로 분류되고, 사용자 3 및 사용자 4는 제2 그룹으로 분류되고; 제1 그룹 내의 캐릭터 대상 및 제2 그룹 내의 캐릭터 대상은 트리거 조작에 기초하여 정보 교환 대상들로 될 수 있다.
지금까지, 게임 시스템에서 사용자 1, 사용자 2, 사용자 3, 및 사용자 4의 로그인 조작들 및 초기화 조작들이 완료된다.
사용자 1에 대해, 단계 13: 사용자 1은 단말기 1에 의해 제시된 제1 GUI에 대해 트리거 조작을 수행하고, 여기서 트리거 조작은 임의의 스킬 대상에 대한 스킬 해제 조작, 임의의 캐릭터 대상에 대한 (물리적 공격 조작으로서 이해될 수 있는) 정보 교환 조작, 제1 캐릭터 대상의 이동 조작을 포함하여, 제1 GUI에서 임의의 가상 리소스 대상에 대해 수행될 수 있다. 본 실시예에서, 트리거 조작은 제1 GUI에서의 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상에 대한 비전 획득 제스처 조작이다.
단계 14: 단말기 1은 트리거 조작을 획득할 때, 트리거 조작 제스처에 대응하는 명령을 식별하고; 명령을 실행하고, 예를 들어, 대응하는 조작 대상에 대한 스킬 해제 명령을 실행하고, 대응하는 캐릭터 대상에 대한 (물리적 공격 명령과 같은) 정보 교환 명령을 실행하고, 또는 이동 명령을 실행하고; 명령을 실행하는 프로세스에서, 대응하는 데이터의 변화를 기록한다.
단계 15: 변화된 데이터를 단말기 1에 대응하는 제1 데이터로서 사용하고 제1 데이터를 서버 5와 동기화시킨다.
사용자 2에 대해, 단계 23: 사용자 2는 단말기 2에 의해 제시된 제2 GUI에 대해 트리거 조작을 수행하고, 여기서 트리거 조작은 임의의 스킬 대상에 대한 스킬 해제 조작, 임의의 캐릭터 대상에 대한 (물리적 공격 조작으로서 이해될 수 있는) 정보 교환 조작, 제2 캐릭터 대상의 이동 조작을 포함하여, 제2 GUI에서 임의의 가상 리소스 대상에 대해 수행될 수 있다. 본 실시예에서, 트리거 조작은 제2 GUI에서의 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상에 대한 비전 획득 제스처 조작이다.
단계 24: 단말기 2는 트리거 조작을 획득할 때, 트리거 조작 제스처에 대응하는 명령을 식별하고; 명령을 실행하고, 예를 들어, 대응하는 조작 대상에 대한 스킬 해제 명령을 실행하고, 대응하는 캐릭터 대상에 대한 (물리적 공격 명령과 같은) 정보 교환 명령을 실행하고, 또는 이동 명령을 실행하고; 명령을 실행하는 프로세스에서, 대응하는 데이터의 변화를 기록한다.
단계 25: 변화된 데이터를 단말기 2에 대응하는 제2 데이터로서 사용하고 제2 데이터를 서버 5와 동기화시킨다.
사용자 3에 대해, 단계 33: 사용자 3은 단말기 3에 의해 제시된 제3 GUI에 대해 트리거 조작을 수행하고, 여기서 트리거 조작은 임의의 스킬 대상에 대한 스킬 해제 조작, 임의의 캐릭터 대상에 대한 (물리적 공격 조작으로서 이해될 수 있는) 정보 교환 조작, 제3 캐릭터 대상의 이동 조작을 포함하여, 제3 GUI에서 임의의 가상 리소스 대상에 대해 수행될 수 있다. 본 실시예에서, 트리거 조작은 제3 GUI에서의 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상에 대한 비전 획득 제스처 조작이다.
단계 34: 단말기 3은 트리거 조작을 획득할 때, 트리거 조작 제스처에 대응하는 명령을 식별하고; 명령을 실행하고, 예를 들어, 대응하는 조작 대상에 대한 스킬 해제 명령을 실행하고, 대응하는 캐릭터 대상에 대한 (물리적 공격 명령과 같은) 정보 교환 명령을 실행하고, 또는 이동 명령을 실행하고; 명령을 실행하는 프로세스에서, 대응하는 데이터의 변화를 기록한다.
단계 35: 변화된 데이터를 단말기 3에 대응하는 제3 데이터로서 사용하고 제3 데이터를 서버 5와 동기화시킨다.
사용자 4에 대해, 단계 43: 사용자 4는 단말기 4에 의해 제시된 제4 GUI에 대해 트리거 조작을 수행하고, 여기서 트리거 조작은 임의의 스킬 대상에 대한 스킬 해제 조작, 임의의 캐릭터 대상에 대한 (물리적 공격 조작으로서 이해될 수 있는) 정보 교환 조작, 제4 캐릭터 대상의 이동 조작을 포함하여, 제4 GUI에서 임의의 가상 리소스 대상에 대해 수행될 수 있다. 본 실시예에서, 트리거 조작은 제4 GUI에서의 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상에 대한 비전 획득 제스처 조작이다.
단계 44: 단말기 4는 트리거 조작을 획득할 때, 트리거 조작 제스처에 대응하는 명령을 식별하고; 명령을 실행하고, 예를 들어, 대응하는 조작 대상에 대한 스킬 해제 명령을 실행하고, 대응하는 캐릭터 대상에 대한 (물리적 공격 명령과 같은) 정보 교환 명령을 실행하고, 또는 이동 명령을 실행하고; 명령을 실행하는 프로세스에서, 대응하는 데이터의 변화를 기록한다.
단계 45: 변화된 데이터를 단말기 4에 대응하는 제4 데이터로서 사용하고 제4 데이터를 서버 5와 동기화시킨다.
서버 5에 대해, 단계 50: 단말기 1에 의해 동기화된 제1 데이터, 단말기 2에 의해 동기화된 제2 데이터, 단말기 3에 의해 동기화된 제3 데이터, 및 단말기 4에 의해 동기화된 제4 데이터에 기초하여 데이터를 업데이트하고, 업데이트된 데이터를 각각 단말기 1, 단말기 2, 단말기 3, 및 단말기 4와 동기화시킨다.
전술한 방법 실시예의 설명들을 참조하여, 실제 애플리케이션 시나리오가 다음과 같이 본 발명의 본 실시예를 설명하기 위해 예로서 사용된다: 본 애플리케이션 시나리오는 멀티플레이어 온라인 배틀 아레나 게임즈(Multiplayer Online Battle Arena Games)(MOBA)에 관련된다. MOBA에서, 관련된 용어들은 다음과 같다: 1) UI 층, 즉, GUI 내의 아이콘; 2) 스킬 표시기: 특수 효과, 할로, 또는 스킬 해제를 보완하는 데 사용되는 조작; 3) 게임에서 카메라로서 이해될 수 있는 가상 렌즈; 및 4) 미니 맵: 레이더 맵으로서 이해될 수 있는 대형 맵의 축소된 버전이고, 여기서 양 당사자들의 정보 및 위치들이 맵에 디스플레이된다.
도 10은 본 발명의 본 실시예에 따른 정보 처리 방법에서의 GUI의 제4 개략도이다. 본 예는 실제 상호작용 프로세스에서 사용된 애플리케이션 시나리오에 기초한 것이다. 도 10을 참조하면, 본 실시예에서, 렌더링을 통해 획득된 GUI(90)는 캐릭터 선택 영역(92)을 포함하고, 캐릭터 선택 영역(92)은 캐릭터 컨테이너 대상을 포함하고, 본 예에서, 캐릭터 컨테이너 대상은 4개의 윈도우 위치를 포함한다. 한 캐릭터 조작 대상이 캐릭터 조작 대상(921), 캐릭터 조작 대상(922), 캐릭터 조작 대상(923), 및 캐릭터 조작 대상(924)을 포함하는, 각각의 윈도우 위치에서 렌더링을 통해 획득된다. 각각의 캐릭터 조작 대상은 하나의 캐릭터 대상과 연관되고, 4개의 캐릭터 대상이 사용자 캐릭터 대상과 동일한 그룹에 속한다. 본 예에서, GUI(90)는 영역(91)을 더 포함한다. 캐릭터 선택 영역(92) 내의 임의의 캐릭터 조작 대상 상에서 비전 획득 제스처가 검출되지 않을 때, 양 당사자의 배치 및 레이아웃의 미니 맵(도 10을 참조)이 영역(91) 내의 렌더링을 통해 획득된다. 캐릭터 선택 영역(92) 내의 (캐릭터 조작 대상(921)과 같은) 임의의 캐릭터 조작 대상 상에서 (긴 누름 제스처와 같은) 비전 획득 제스처가 검출될 때, 단말기는 명령을 사용하여, 캐릭터 조작 대상(921)과 연관된 캐릭터 대상에 대응하는 가상 렌즈를 인보크하여, 비전 영상을 캡처하고 비전 영상을 단말기 내의 GUI(90)에 돌려주도록 제어한다. 대응하는 캐릭터 조작 대상(921)과 연관된 캐릭터 대상의 (도 10에 도시하지 않은) 비전 영상이 영역(91)에서의 렌더링을 통해 획득된다. 이 방식으로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빨리 획득하기가 편리하게 됨으로써, 상호작용 프로세스에서 사용자의 조작 경험을 상당히 개선시킨다.
실시예 5
본 발명의 본 실시예는 단말기를 더 제공한다. 도 11은 본 발명의 실시예 5에 따른 단말기의 개략적 구조도이다. 도 11에 도시한 바와 같이, 단말기는 렌더링 처리 유닛(61), 배치 유닛(62), 검출 유닛(63), 및 조작 실행 유닛(64)을 포함한다.
렌더링 처리 유닛(61)은 소프트웨어 애플리케이션을 실행하고 렌더링을 수행하여, GUI를 획득하고; GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하도록 구성되고; GUI에서 렌더링을 수행하여, 조작 실행 유닛(64)에 의해 획득된 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 더 구성된다.
배치 유닛(62)은 GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하도록 구성된다.
검출 유닛(63)은 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출하도록 구성된다.
조작 실행 유닛(64)은 검출 유닛(63)이 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 구성된다.
본 실시예에서, GUI는 적어도 하나의 캐릭터 선택 영역을 포함하고, 캐릭터 선택 영역은 적어도 하나의 캐릭터 컨테이너 대상을 포함하고, 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함한다. 대응하는 캐릭터 조작 대상들이 적어도 일부 윈도우 위치들 내에 보유된다. 캐릭터 조작 대상은 GUI 내의 캐릭터 조작 대상과 연관된 캐릭터 대상의 식별자(식별자는 아바타일 수 있음)를 사용하여 나타내질 수 있다. 여기서, 캐릭터 조작 대상과 연관된 캐릭터 대상은 사용자 캐릭터 대상과 동일한 그룹에 속한다. 캐릭터 선택 영역 내의 캐릭터 컨테이너 대상에 대해 렌더링하는 방식은 바 형상 또는 환형 형상을 포함하지만, 이들로 제한되지 않고, 즉, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상 또는 캐릭터 선택 휠 대상을 사용하여 나타내질 수 있다.
구체적으로, 도 3을 참조하면, 렌더링 처리 유닛(61)에 의한 렌더링을 통해 획득된 GUI(800)는 적어도 하나의 가상 리소스 대상을 포함한다. 가상 리소스 대상은 적어도 하나의 사용자 캐릭터 대상(a10)을 포함한다. 단말기의 사용자는 GUI, 즉 입력 사용자 명령을 사용하여 정보 교환을 수행할 수 있다. 사용자 캐릭터 대상(a10)은 단말기에 의해 검출된 제1 사용자 명령에 기초하여 제1 가상 조작을 수행할 수 있고, 여기서 제1 가상 조작은 이동 조작, 물리적 공격 조작, 스킬 공격 조작 등을 포함하지만, 이들로 제한되지 않는다. 사용자 캐릭터 대상(a10)은 단말기의 사용자에 의해 제어된 캐릭터 대상이라는 것을 이해할 수 있다. 게임 시스템에서, 사용자 캐릭터 대상(a10)은 사용자의 조작에 기초하여 GUI에서 대응하는 액션을 수행할 수 있다. GUI(800)는 적어도 하나의 스킬 대상(803)을 더 포함하고, 사용자는 스킬 해제 조작에 의해, 사용자 캐릭터 대상(a10)을 제어하여 대응하는 스킬 해제 조작을 수행할 수 있다.
도 3에 도시한 예에서, 배치 유닛(62)은 GUI 내에 캐릭터 선택 영역(802)을 배치하고, 캐릭터 선택 영역(802) 내에 캐릭터 컨테이너 대상을 배치한다. 본 예에서, 캐릭터 컨테이너 대상은 캐릭터 선택 바 대상을 사용하여 나타내진다(즉, 캐릭터 컨테이너 대상은 바 형상의 디스플레이 효과를 나타낸다). 캐릭터 컨테이너 대상은 적어도 하나의 윈도우 위치를 포함하고, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행된다. 캐릭터 조작 대상이 아바타를 사용하여 나타내지는 예가 사용되고, 즉, 캐릭터 선택 영역(802)은 적어도 하나의 아바타를 포함한다. 적어도 하나의 아바타는 각각 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상과 1 대 1 대응한다. 도 3에 도시한 바와 같이, 5 대 5 애플리케이션 시나리오가 본 예에서 사용된다. 사용자 캐릭터 대상(a10)과 동일한 그룹에 속하는 4개의 캐릭터 대상이 있고, 대응하여, 캐릭터 선택 영역(802) 내에 4개의 캐릭터 조작 대상, 예를 들어, 도 3에 도시한 캐릭터 조작 대상(a11), 캐릭터 조작 대상(a12), 캐릭터 조작 대상(a13), 및 캐릭터 조작 대상(a14)이 있다. 캐릭터 선택 영역(802) 내의 4개의 캐릭터 조작 대상은 사용자 캐릭터 대상과 동일한 그룹에 속하는 4개의 제2 캐릭터 대상과 1 대 1 대응한다는 것을 이해할 수 있다. 본 실시예는 적어도 2개의 그룹 멤버를 포함하는 다수의 사람의 배틀의 애플리케이션 시나리오에 적용될 수 있다.
구현예에서, 캐릭터 선택 영역(802) 내의 적어도 2개의 캐릭터 조작 대상 사이의 상호 위치 관계는 적어도 2개의 캐릭터 조작 대상에 의해 게임 시스템에 들어가는 시간 순서에 따라 결정된다. 도 3에 도시한 바와 같이, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상이 게임 시스템에 들어가는 시간은 캐릭터 조작 대상(a12)과 연관된 캐릭터 대상의 시간, 캐릭터 조작 대상(a13)의 시간, 및 캐릭터 조작 대상(a14)의 시간 등등 보다 앞서고, 상세들은 여기서 설명되지 않는다.
본 실시예에서, 조작 실행 유닛(64)은 검출 유닛(63)이 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 제1 명령을 생성하고 송신하고 - 제1 명령은 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하고 비전 영상을 캡처하기 위해 가상 렌즈를 제어하도록 구성됨 -; 검출 유닛(63)이 비전 획득 제스처를 검출하는 프로세스에서, 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 구성된다.
구체적으로, 도 3을 참조하면, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 검출 유닛(63)이 캐릭터 선택 영역(802) 내의 (도 3에 도시한 캐릭터 조작 대상(a11)과 같은) 캐릭터 조작 대상 상에서 긴 누름 제스처를 검출할 때, 조작 실행 유닛(64)은 제1 명령을 생성하고, 제1 명령에 기초하여, 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기와의 네트워크 접속을 확립하고, 네트워크 접속에 기초하여, 제1 명령을 캐릭터 조작 대상과 연관된 캐릭터 대상에 대응하는 또 하나의 단말기에 송신하여, 제1 명령에 기초하여, 또 하나의 단말기의 가상 렌즈를 인보크하고, 가상 렌즈를 사용하여 비전 영상을 캡처하도록 또 하나의 단말기를 제어한다. 검출 유닛(63)이 캐릭터 조작 대상(a11) 상에서 긴 누름 제스처를 계속 검출하는 프로세스에서, 조작 실행 유닛(64)은 실시간으로, 또 하나의 단말기에 의해 송신된 비전 영상을 획득하고, GUI에서 렌더링을 수행하여, 비전 영상을 획득한다. 도 3에 도시한 비전 영상 디스플레이 영역(801) 및 비전 영상 디스플레이 영역(801)의 확대된 뷰(801a)에 도시한 바와 같이, 캐릭터 조작 대상(a11)에 대응하는 비전 영상은 비전 영상 디스플레이 영역(801)에 디스플레이되고; 비전 영상은 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상을 제어하는 사용자가 볼 수 있는 영상이다. 예를 들어, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하면, 캐릭터 조작 대상(a11)과 연관된 캐릭터 대상(c11)이 현재 또 하나의 캐릭터 대상(b11)을 향한 스킬 대상에 대해 해제 조작을 수행하는 비전 영상이 도 3에 도시한 바와 같이, GUI(800) 내의 비전 영상 디스플레이 영역(801)에 디스플레이된다. (긴 누름 제스처와 같은) 비전 획득 제스처에 의해, 단말기는 또 하나의 대응하는 단말기의 비전 영상으로 빠르게 전환할 수 있으므로, 단말기의 사용자가 팀메이트의 비전 영상을 빨리 획득할 수 있다는 것을 이해할 수 있다.
구현예에서, 조작 실행 유닛(64)은 검출 유닛(63)이 비전 획득 제스처가 중지하는 것을 검출할 때 제2 명령을 생성하고, 제2 명령에 기초하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것을 중지하도록 더 구성된다.
구체적으로, 비전 획득 제스처가 긴 누름 제스처인 예가 사용된다. 조작 실행 유닛(64)은 검출 유닛(63)이 긴 누름 제스처가 중지하는 것을 검출할 때 제2 명령을 생성하고, 제2 명령에 기초하여 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것을 중지하고; 단말기와 또 하나의 단말기 사이의 네트워크 접속이 종료된다.
본 기술 분야의 통상의 기술자는 본 발명의 본 실시예의 단말기 내의 처리 유닛들의 기능들이 정보 처리 방법의 관련된 설명들을 참조함으로써 이해될 수 있다는 것을 이해하여야 한다. 본 발명의 본 실시예의 정보 처리 단말기 내의 처리 유닛들은 본 발명의 본 실시예의 기능을 갖는 아날로그 회로를 구현함으로써 구현될 수 있거나 지능 단말기 상에서 본 발명의 본 실시예의 기능을 갖는 소프트웨어를 실행함으로써 구현될 수 있다.
실시예 6
실시예 5에 기초하여, 본 발명의 본 실시예는 단말기를 더 제공한다. 도 12는 본 발명의 실시예 6에 따른 단말기의 개략적 구조도이다. 도 12에 도시한 바와 같이, 단말기는 렌더링 처리 유닛(61), 배치 유닛(62), 검출 유닛(63), 조작 실행 유닛(64), 및 통신 유닛(65)을 포함한다.
렌더링 처리 유닛(61)은 소프트웨어 애플리케이션을 실행하고 렌더링을 수행하여, GUI를 획득하고; GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하도록 구성되고; GUI에서 렌더링을 수행하여, 조작 실행 유닛(64)에 의해 획득된 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 더 구성되고; 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 조작 실행 유닛(64)에 의해 획득된 상태 속성 정보에 대해 렌더링을 수행하도록 더 구성된다.
배치 유닛(62)은 GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하도록 구성된다.
검출 유닛(63)은 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출하도록 구성된다.
조작 실행 유닛(64)은 검출 유닛(63)이 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 구성되고; GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 상태 속성 정보를 생성하고, 통신 유닛(65)을 사용하여 서버와 동기적으로 상태 속성 정보를 업데이트하도록 더 구성되고; 통신 유닛(65)을 사용하여 서버로부터, 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득하도록 더 구성된다.
본 실시예에서, 렌더링 처리 유닛(61), 배치 유닛(62), 검출 유닛(63), 및 조작 실행 유닛(64)의 기능들에 대해, 실시예 5의 설명들을 참조하고, 상세들은 여기서 다시 설명되지 않는다. 차이점은 본 실시예에서, 조작 실행 유닛(64)이 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록할 때, 즉, 사용자 캐릭터 대상이 또 하나의 캐릭터 대상과 정보 교환을 수행하는 프로세스에서, 단말기는 실시간으로 사용자 캐릭터 대상의 상태 속성의 변화를 기록하여, 사용자 캐릭터 대상의 상태 속성 정보를 획득하고, 여기서 상태 속성 정보는 사용자 캐릭터 대상의 블러드 값, 히트 포인트, 또는 스킬 속성 정보를 포함하지만 이들로 제한되지 않는다는 것이다. 조작 실행 유닛(64)은 실시간으로 통신 유닛(65)을 사용하여 서버와 사용자 캐릭터 대상의 획득된 상태 속성 정보를 동기화시킨다. 대응하여, 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상에 대해, 제2 캐릭터 대상에 대응하는 단말기는 또한 실시간으로 제2 캐릭터 대상의 상태 속성 정보를 획득하고 서버와 상태 속성 정보를 동기화시킨다.
또한, 조작 실행 유닛(64)은 통신 유닛(65)을 사용하여 서버로부터, 또 하나의 단말기에 의해 동기화된 적어도 하나의 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 즉, GUI 내의 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득한다. 조작 실행 유닛(64)은 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 제2 캐릭터 대상의 상태 속성 정보에 대해 렌더링을 수행한다는 것을 이해할 수 있다. 도 6을 참조하면, 상태 속성 정보가 블러드 값인 예가 사용된다. 캐릭터 컨테이너 대상 내의 캐릭터 조작 대상의 외부 원의 영역이 블러드 홈 디스플레이 영역으로서 사용되고, 대응하는 제2 캐릭터 대상의 현재의 블러드 값은 블러드 홈 디스플레이 영역에 대한 블러드 홈 디스플레이 영역 내의 블러드 값의 비율을 사용함으로써 나타내진다. 물론, 본 발명의 본 실시예에서, 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대응하는 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하는 방식은 도 6에 도시한 것으로 제한되지 않는다.
구현예에서, 조작 실행 유닛(64)은 GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정할 때 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고; 통신 유닛(65)을 사용하여 서버와 동기적으로 스킬 속성 정보를 업데이트하도록 더 구성되고; 통신 유닛(65)을 사용하여 서버로부터, 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득하도록 더 구성된다.
대응하여, 렌더링 처리 유닛(61)은 제2 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 조작 실행 유닛(64)에 의해 획득된 스킬 속성 정보에 대해 렌더링을 수행하도록 더 구성된다.
구체적으로, 조작 실행 유닛(64)이 GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속 기록할 때, 즉, 사용자 캐릭터 대상이 또 하나의 캐릭터 대상과 정보 교환을 수행하는 프로세스에서, 조작 실행 유닛(64)은 실시간으로 사용자 캐릭터 대상의 스킬 속성의 변화를 기록한다. 사용자 캐릭터 대상이 스킬 대상을 해제한 후에, 스킬 대상은 시간 주기 후에 복원될 수 있고, 즉, 스킬 대상은 시간 주기 후에 다시 해제될 수 있다. 그러므로, 본 실시예에서, 조작 실행 유닛(64)은 사용자 캐릭터 대상의 스킬 속성의 변화를 실시간으로 기록하고, 적어도 하나의 스킬 대상이 해제될 수 있다고 결정할 때, 사용자 캐릭터 대상의 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정하고, 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고, 여기서 스킬 속성 정보는 사용자 캐릭터 대상이 적어도 하나의 스킬 대상을 해제할 수 있다는 것을 나타낸다. 조작 실행 유닛(64)은 통신 유닛(65)을 사용하여 실시간으로 서버와 사용자 캐릭터 대상의 획득된 스킬 속성 정보를 동기화시킨다. 대응하여, 사용자 캐릭터 대상과 동일한 그룹에 속하는 적어도 하나의 제2 캐릭터 대상에 대해, 제2 캐릭터 대상에 대응하는 단말기는 또한 실시간으로 제2 캐릭터 대상의 스킬 속성 정보를 획득하고 서버와 스킬 속성 정보를 동기화시킨다.
조작 실행 유닛(64)은 통신 유닛(65)을 사용하여 서버로부터, 또 하나의 단말기에 의해 동기화된 적어도 하나의 제2 캐릭터 대상의 상태 속성 정보를 획득하고, 즉, GUI 내의 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득한다. 조작 실행 유닛(64)은 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상의 스킬 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 제2 캐릭터 대상의 스킬 속성 정보에 대해 렌더링을 수행하고, 여기서 캐릭터 조작 대상에 디스플레이된 스킬 속성 정보는 대응하는 제2 캐릭터 대상이 현재 적어도 하나의 스킬 대상을 해제할 수 있다는 것을 나타낸다는 것을 이해할 수 있다. 도 8을 참조하면, 캐릭터 선택 영역(802) 내의 캐릭터 조작 대상의 우상부 모서리에, 스킬 속성 정보가 원형 식별자를 사용하여 나타내진다. 캐릭터 조작 대상이 원형 식별자를 디스플레이할 때, 그것은 캐릭터 조작 대상과 연관된 제2 캐릭터 대상이 현재 적어도 하나의 스킬 대상을 해제할 수 있다는 것을 나타낸다. 캐릭터 조작 대상이 원형 식별자를 디스플레이하지 않을 때, 그것은 캐릭터 조작 대상과 연관된 제2 캐릭터 대상이 현재 어떤 스킬 대상도 해제할 수 없다는 것을 나타낸다. 물론, 본 발명의 본 실시예에서, 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대응하는 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하는 방식은 도 8에 도시한 것으로 제한되지 않는다.
본 기술 분야의 통상의 기술자는 본 발명의 본 실시예의 단말기 내의 처리 유닛들의 기능들이 정보 처리 방법의 관련된 설명들을 참조함으로써 이해될 수 있다는 것을 이해하여야 한다. 본 발명의 본 실시예의 정보 처리 단말기 내의 처리 유닛들은 본 발명의 본 실시예의 기능을 갖는 아날로그 회로를 구현함으로써 구현될 수 있거나 지능 단말기 상에서 본 발명의 본 실시예의 기능을 갖는 소프트웨어를 실행함으로써 구현될 수 있다.
본 발명의 실시예 5 및 실시예 6에서, 실제 애플리케이션에서, 단말기 내의 렌더링 처리 유닛(61), 배치 유닛(62), 검출 유닛(63), 및 조작 실행 유닛(64)은 단말기 내의 중앙 처리 장치(CPU), 디지털 신호 프로세서(DSP) 또는 필드 프로그래머블 게이트 어레이(FPGA)에 의해 모두 구현될 수 있고; 실제 애플리케이션에서, 단말기 내의 통신 유닛(65)은 단말기 내의 송수신기 안테나 또는 통신 인터페이스에 의해 구현될 수 있다.
실시예 7
본 발명의 본 실시예는 단말기를 더 제공한다. 단말기는 PC와 같은 전자 디바이스일 수 있거나 태블릿 컴퓨터, 랩탑 컴퓨터, 또는 스마트폰과 같은 휴대용 전자 디바이스일 수 있다. 게임 시스템은 (게임 애플리케이션과 같은) 소프트웨어 애플리케이션을 설치함으로써 단말기에서 실행되고, 단말기는 데이터를 저장하는 적어도 하나의 메모리 및 데이터 처리를 위한 프로세서를 포함한다. 데이터 처리를 위한 프로세서에 대해, 처리 중에, CPU, DSP, 또는 FPGA가 구현을 위해 사용될 수 있다. 메모리는 동작 명령을 포함하고, 동작 명령은 컴퓨터 실행가능 코드일 수 있고, 본 발명의 실시예들의 정보 처리 방법의 절차의 단계들은 동작 명령을 사용하여 구현된다.
도 13은 본 발명의 실시예 7에 따른 단말기의 개략적 구조도이다. 도 13에 도시한 바와 같이, 단말기는 프로세서(71) 및 디스플레이(72)를 포함한다. 프로세서(71)는 소프트웨어 애플리케이션을 실행하고 디스플레이(72) 상에서 렌더링을 실행하여, GUI를 획득하도록 구성된다. 프로세서, GUI, 및 소프트웨어 애플리케이션은 게임 시스템 상에서 구현된다.
프로세서(71)는 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하고; GUI 내의 적어도 하나의 캐릭터 선택 영역 내의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하고;
캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, GUI에서 렌더링을 수행하여, 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 구성된다.
구체적으로, 프로세서(71)는 캐릭터 컨테이너 대상 내의 적어도 하나의 캐릭터 조작 대상 상에서 비전 획득 제스처를 검출할 때, 제1 명령을 생성하고 송신하고 - 제1 명령은 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하고 비전 영상을 캡처하기 위해 가상 렌즈를 제어하도록 구성됨 -; 비전 획득 제스처를 검출하는 프로세스에서, 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 구성된다.
구현예에서, 프로세서(71)는 비전 획득 제스처가 중지할 때 제2 명령을 생성하고, 제2 명령에 기초하여 적어도 하나의 캐릭터 조작 대상과 연관된 가상 렌즈를 인보크하는 것을 중지하도록 더 구성된다.
구현예에서, 서버는 통신 디바이스(74)를 더 포함하고, 프로세서(71)는 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 상태 속성 정보를 생성하고, 통신 디바이스(74)를 사용하여 서버와 동기적으로 상태 속성 정보를 업데이트하도록 더 구성된다.
대응하여, 프로세서(71)는 통신 디바이스(74)를 사용하여 서버로부터, 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상태 속성 정보에 대해 렌더링을 수행하도록 더 구성된다.
구현예에서, 프로세서(71)는 GUI에서 사용자 캐릭터 대상의 스킬 속성의 변화를 계속 기록하고, 사용자 캐릭터 대상의 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정할 때 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고, 통신 디바이스(74)를 사용하여 서버와 동기적으로 스킬 속성 정보를 업데이트하도록 더 구성된다.
대응하여, 프로세서(71)은 통신 디바이스(74)를 사용하여 서버로부터, 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득하고, 제2 미리 설정된 디스플레이 방식으로, 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 스킬 속성 정보에 대해 렌더링을 수행하도록 더 구성된다.
본 실시예에서, 단말기는 프로세서(71), 디스플레이(72), 메모리(73), 입력 디바이스(76), 버스(75), 및 통신 디바이스(74)를 포함한다. 프로세서(71), 메모리(73), 입력 디바이스(76), 디스플레이(72), 및 통신 디바이스(74)는 모두 버스(75)를 사용하여 접속되고, 버스(75)는 프로세서(71), 메모리(73), 디스플레이(72), 및 통신 디바이스(74) 간에 데이터를 전송하도록 구성된다.
입력 디바이스(76)는 주로 사용자의 입력 조작을 획득하도록 구성되고, 입력 디바이스(76)는 단말기에 따라 변화할 수 있다. 예를 들어, 단말기가 PC일 때, 입력 디바이스(76)는 마우스 또는 키보드와 같은 입력 디바이스(76)일 수 있고; 단말기가 스마트폰 또는 태블릿 컴퓨터와 같은 휴대용 디바이스일 때, 입력 디바이스(76)는 터치스크린일 수 있다.
본 실시예에서, 컴퓨터 저장 매체는 메모리(73) 내에 저장되고, 컴퓨터 실행가능 명령은 컴퓨터 저장 매체 내에 저장되고, 컴퓨터 실행가능 명령은 본 발명의 실시예들의 정보 처리 방법을 수행하도록 구성된다.
본원에서 제공된 몇가지 실시예들에서, 개시된 디바이스 및 방법은 다른 방식들로 구현될 수 있다는 것을 이해하여야 한다. 설명된 디바이스 실시예는 단지 예들이다. 예를 들어, 유닛 분할은 단지 논리 기능 분할이고 실제 구현 중에 다른 분할일 수 있다. 예를 들어, 다수의 유닛 또는 소자가 또 하나의 시스템 내로 조합 또는 통합될 수 있고, 또는 일부 특성들이 무시되거나 수행되지 않을 수 있다. 또한, 구성 부품들 간의 표시되거나 논의된 상호 결합들 또는 직접 결합들 또는 통신 접속들은 일부 인터페이스들을 통해 구현될 수 있다. 디바이스들 또는 유닛들 간의 간접 결합들 또는 통신 접속들이 전자적, 기계적 또는 다른 형태들로 구현될 수 있다.
별도의 부분들로서 설명된 유닛들은 물리적으로 분리되거나 분리되지 않을 수 있고, 유닛들로서 표시된 부분들은 물리적 유닛들이거나 아닐 수 있고, 한 위치에 배치될 수 있거나, 다수의 네트워크 유닛에 분산될 수 있다. 유닛들의 일부 또는 모두는 실시예들의 해결책들의 목적들을 달성하기 위해 실제 요구들에 따라 선택될 수 있다.
또한, 본 발명의 실시예들 내의 기능 유닛들은 모두 하나의 처리 유닛 내로 통합될 수 있고, 또는 유닛들 각각은 또한 독립적으로 존재할 수 있거나, 2개 이상의 유닛들이 하나의 유닛으로 통합될 수 있고, 통합된 유닛은 하드웨어 형태로 구현될 수 있거나, 소프트웨어 기능 유닛에 부가하여 하드웨어의 형태로 구현될 수 있다.
본 기술 분야의 통상의 기술자는 방법 실시예들의 단계들의 모두 또는 일부가 관련 하드웨어에 명령하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 프로그램은 컴퓨터-판독 가능 저장 매체 내에 저장될 수 있다. 프로그램이 실행할 때, 방법 실시예들의 단계들이 수행된다. 전술한 저장 매체는 휴대용 저장 디바이스, 리드-온리 메모리(ROM), 랜덤 액세스 메모리(RAM), 자기 디스크, 또는 광학 디스크와 같은, 프로그램을 저장할 수 있는 임의의 매체를 포함한다.
대안적으로, 본 개시내용에서, 통합된 유닛이 소프트웨어 기능 모듈들의 형태로 구현되거나 독립 제품으로서 판매되고 사용될 때, 통합된 유닛은 컴퓨터-판독 가능 저장 매체 내에 저장될 수 있다. 이러한 이해에 기초하여, 본질적으로 본 발명의 실시예들의 기술적 해결책, 또는 기존의 기술에 기여하는 다른 부분은 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체 내에 저장되고, 본 발명의 실시예들에서 설명된 방법들의 단계들의 모두 또는 일부를 수행하기 위해 (퍼스널 컴퓨터, 서버, 또는 네트워크 디바이스일 수 있는) 컴퓨터 디바이스에 명령하는 여러 명령을 포함한다. 전술한 저장 매체는 휴대용 저장 디바이스, ROM, RAM, 자기 디스크, 또는 광학 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
전술한 설명들은 단지 본 개시내용의 특정한 구현들이지, 본 개시내용의 보호 범위를 제한하려는 것이 아니다. 본 개시내용에서 개시된 기술적 범위 내에서 본 기술 분야의 통상의 기술자에 의해 용이하게 창출되는 임의의 변형 또는 대체는 본 개시내용의 보호 범위 내에 들 것이다. 그러므로, 본 개시내용의 보호 범위는 청구범위의 보호 범위 대상일 것이다.
산업상 이용가능성
본 발명의 실시예들에서, GUI 내의 캐릭터 선택 영역에 배치된 캐릭터 컨테이너 대상 내의 윈도우 위치에 의해, 렌더링이 사용자 캐릭터 대상과 동일한 그룹에 속하는 제2 캐릭터 대상과 연관된 캐릭터 조작 대상에 대해, 대응하는 윈도우 위치에서 수행되므로, 사용자가 캐릭터 조작 대상 상의 비전 획득 제스처에 의해 대응하는 제2 캐릭터 대상의 비전 영상을 빠르게 획득할 수 있음으로써, 상호작용 프로세스에서의 사용자의 조작 경험을 상당히 개선시킨다.

Claims (22)

  1. 정보 처리 방법으로서 - 소프트웨어 애플리케이션이 단말기의 프로세서 상에서 실행되고, 렌더링이 상기 단말기의 디스플레이 상에서 수행되어, 그래픽 사용자 인터페이스(GUI)를 획득하고, 상기 프로세서, 상기 GUI 및 상기 소프트웨어 애플리케이션은 게임 시스템에서 구현됨 -,
    상기 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하는 단계;
    상기 GUI 내의 적어도 하나의 캐릭터 선택 영역에서의 적어도 하나의 캐릭터 컨테이너 대상(character container object)이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하는 단계; 및
    상기 캐릭터 컨테이너 대상에서의 적어도 하나의 캐릭터 조작 대상에 대한 비전 획득 제스처(vision obtaining gesture)를 검출할 때, 상기 GUI에서 렌더링을 수행하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 가상 렌즈에 의해 캡처된 비전 영상을 획득하는 단계
    를 포함하는 정보 처리 방법.
  2. 제1항에 있어서,
    상기 캐릭터 컨테이너 대상에서의 상기 적어도 하나의 캐릭터 조작 대상에 대한 상기 비전 획득 제스처를 검출할 때, 상기 방법은,
    제1 명령을 생성하여 송신하는 단계 - 상기 제1 명령은 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈를 인보크하고, 상기 비전 영상을 캡처하기 위해 상기 가상 렌즈를 제어하도록 구성됨 -; 및
    상기 비전 획득 제스처를 검출하는 프로세스에서, 상기 가상 렌즈에 의해 캡처된 상기 비전 영상을 획득하는 단계
    를 더 포함하는 정보 처리 방법.
  3. 제2항에 있어서,
    상기 비전 획득 제스처가 중지할 때, 상기 방법은, 제2 명령을 생성하고, 상기 제2 명령에 기초하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈를 인보크하는 것을 중지하는 단계를 더 포함하는 정보 처리 방법.
  4. 제1항에 있어서,
    상기 방법은, 상기 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속해서 기록하고, 상기 사용자 캐릭터 대상의 상태 속성 정보를 생성하고, 상기 상태 속성 정보를 서버에 동기하여 업데이트하는 단계를 더 포함하는 정보 처리 방법.
  5. 제1항에 있어서,
    상기 방법은, 상기 GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속해서 기록하고, 상기 사용자 캐릭터 대상의 상기 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정할 때 상기 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고, 상기 스킬 속성 정보를 서버에 동기하여 업데이트하는 단계를 더 포함하는 정보 처리 방법.
  6. 제4항에 있어서,
    상기 방법은, 상기 서버로부터, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 상기 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상기 상태 속성 정보에 대해 렌더링을 수행하는 단계를 더 포함하는 정보 처리 방법.
  7. 제5항에 있어서,
    상기 방법은, 상기 서버로부터, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득하고, 제2 미리 설정된 디스플레이 방식으로, 상기 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상기 스킬 속성 정보에 대해 렌더링을 수행하는 단계를 더 포함하는 정보 처리 방법.
  8. 단말기로서,
    렌더링 처리 유닛, 배치 유닛, 검출 유닛 및 조작 실행 유닛을 포함하고,
    상기 렌더링 처리 유닛은 소프트웨어 애플리케이션을 실행하고, 렌더링을 수행하여, 그래픽 사용자 인터페이스(GUI)를 획득하고; 상기 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하도록 구성되고; 상기 GUI에서 렌더링을 수행하여, 상기 조작 실행 유닛에 의해 획득되는 적어도 하나의 캐릭터 조작 대상과 연관되는 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록 더 구성되고;
    상기 배치 유닛은, 상기 GUI 내의 적어도 하나의 캐릭터 선택 영역에서의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하도록 구성되고;
    상기 검출 유닛은, 상기 캐릭터 컨테이너 대상에서의 상기 적어도 하나의 캐릭터 조작 대상에 대한 비전 획득 제스처를 검출하도록 구성되고;
    상기 조작 실행 유닛은, 상기 캐릭터 컨테이너 대상에서의 상기 적어도 하나의 캐릭터 조작 대상에 대한 상기 비전 획득 제스처를 상기 검출 유닛이 검출할 때, 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈에 의해 캡처된 상기 비전 영상을 획득하도록 구성되는 단말기.
  9. 제8항에 있어서,
    상기 조작 실행 유닛은, 상기 캐릭터 컨테이너 대상에서의 상기 적어도 하나의 캐릭터 조작 대상에 대한 상기 비전 획득 제스처를 상기 검출 유닛이 검출할 때 제1 명령을 생성하여 송신하고 - 상기 제1 명령은 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈를 인보크하고, 상기 비전 영상을 캡처하기 위해 상기 가상 렌즈를 제어하도록 구성됨 -; 상기 검출 유닛이 상기 비전 획득 제스처를 검출하는 프로세스에서, 상기 가상 렌즈에 의해 캡처된 상기 비전 영상을 획득하도록 구성되는 단말기.
  10. 제9항에 있어서,
    상기 조작 실행 유닛은, 상기 비전 획득 제스처가 중지하는 것을 상기 검출 유닛이 검출할 때 제2 명령을 생성하고, 상기 제2 명령에 기초하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈를 인보크하는 것을 중지하도록 더 구성되는 단말기.
  11. 제8항에 있어서,
    상기 단말기는 통신 유닛을 더 포함하고,
    상기 조작 실행 유닛은, 상기 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속해서 기록하고, 상기 사용자 캐릭터 대상의 상태 속성 정보를 생성하고, 상기 통신 유닛을 사용함으로써 상기 상태 속성 정보를 서버에 동기하여 업데이트하도록 더 구성되는 단말기.
  12. 제8항에 있어서,
    상기 단말기는 통신 유닛을 더 포함하고,
    상기 조작 실행 유닛은, 상기 GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속해서 기록하고, 상기 사용자 캐릭터 대상의 상기 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정할 때 상기 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고, 상기 통신 유닛을 사용함으로써 상기 스킬 속성 정보를 서버에 동기하여 업데이트하도록 더 구성되는 단말기.
  13. 제11항에 있어서,
    상기 조작 실행 유닛은, 상기 통신 유닛을 사용함으로써 상기 서버로부터, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득하도록 더 구성되고,
    이에 대응하여, 상기 렌더링 처리 유닛은, 제1 미리 설정된 디스플레이 방식으로, 상기 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상기 조작 실행 유닛에 의해 획득된 상기 상태 속성 정보에 대해 렌더링을 수행하도록 더 구성되는 단말기.
  14. 제12항에 있어서,
    상기 조작 실행 유닛은, 상기 통신 유닛을 사용함으로써 상기 서버로부터, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득하도록 더 구성되고,
    이에 대응하여, 상기 렌더링 처리 유닛은, 제2 미리 설정된 디스플레이 방식으로, 상기 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상기 조작 실행 유닛에 의해 획득된 상기 스킬 속성 정보에 대해 렌더링을 수행하도록 더 구성되는 단말기.
  15. 단말기로서,
    프로세서 및 디스플레이를 포함하고,
    상기 프로세서는 소프트웨어 애플리케이션을 실행하고, 상기 디스플레이 상에서 렌더링을 수행하여, 그래픽 사용자 인터페이스(GUI)를 획득하도록 구성되고; 상기 프로세서, 상기 GUI 및 상기 소프트웨어 애플리케이션은 게임 시스템 상에서 구현되고;
    상기 프로세서는,
    상기 GUI에서 렌더링을 수행하여, 적어도 하나의 가상 리소스 대상을 획득하고; 상기 GUI 내의 적어도 하나의 캐릭터 선택 영역에서의 적어도 하나의 캐릭터 컨테이너 대상이 적어도 하나의 윈도우 위치를 포함하도록 하는 방식으로 배치하고;
    상기 캐릭터 컨테이너 대상에서의 적어도 하나의 캐릭터 조작 대상에 대한 비전 획득 제스처를 검출할 때, 상기 GUI에서 렌더링을 수행하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 가상 렌즈에 의해 캡처된 비전 영상을 획득하도록
    구성되는 단말기.
  16. 제15항에 있어서,
    상기 프로세서는, 상기 캐릭터 컨테이너 대상에서의 상기 적어도 하나의 캐릭터 조작 대상에 대한 상기 비전 획득 제스처를 검출할 때 제1 명령을 생성하여 송신하고 - 상기 제1 명령은 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈를 인보크하고, 상기 비전 영상을 캡처하기 위해 상기 가상 렌즈를 제어하도록 구성됨 -; 상기 비전 획득 제스처를 검출하는 프로세스에서, 상기 가상 렌즈에 의해 캡처된 상기 비전 영상을 획득하도록 구성되는 단말기.
  17. 제16항에 있어서,
    상기 프로세서는, 상기 비전 획득 제스처가 중지할 때 제2 명령을 생성하고, 상기 제2 명령에 기초하여, 상기 적어도 하나의 캐릭터 조작 대상과 연관되는 상기 가상 렌즈를 인보크하는 것을 중지하도록 더 구성되는 단말기.
  18. 제15항에 있어서,
    상기 단말기는 통신 디바이스를 더 포함하고,
    상기 프로세서는, 상기 GUI 내의 사용자 캐릭터 대상의 상태 속성의 변화를 계속해서 기록하고, 상기 사용자 캐릭터 대상의 상태 속성 정보를 생성하고, 상기 통신 디바이스를 사용함으로써 상기 상태 속성 정보를 서버에 동기하여 업데이트하도록 더 구성되는 단말기.
  19. 제15항에 있어서,
    상기 단말기는 통신 디바이스를 더 포함하고,
    상기 프로세서는, 상기 GUI 내의 사용자 캐릭터 대상의 스킬 속성의 변화를 계속해서 기록하고, 상기 사용자 캐릭터 대상의 상기 스킬 속성이 미리 설정된 조건을 충족시킨다고 결정할 때 상기 사용자 캐릭터 대상의 스킬 속성 정보를 생성하고, 상기 통신 디바이스를 사용함으로써 상기 스킬 속성 정보를 서버에 동기하여 업데이트하도록 더 구성되는 단말기.
  20. 제18항에 있어서,
    상기 프로세서는, 상기 통신 디바이스를 사용함으로써 상기 서버로부터, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 상태 속성 정보를 획득하고, 제1 미리 설정된 디스플레이 방식으로, 상기 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상기 상태 속성 정보에 대해 렌더링을 수행하도록 더 구성되는 단말기.
  21. 제19항에 있어서,
    상기 프로세서는, 상기 통신 디바이스를 사용함으로써 상기 서버로부터, 상기 적어도 하나의 캐릭터 조작 대상과 연관된 적어도 하나의 캐릭터 대상의 스킬 속성 정보를 획득하고, 제2 미리 설정된 디스플레이 방식으로, 상기 연관된 캐릭터 조작 대상에 대응하는 적어도 하나의 윈도우 위치에서 상기 스킬 속성 정보에 대해 렌더링을 수행하도록 더 구성되는 단말기.
  22. 컴퓨터 저장 매체로서,
    컴퓨터 실행가능 명령이 상기 컴퓨터 저장 매체에 저장되고, 상기 컴퓨터 실행가능 명령은 제1항 내지 제7항 중 어느 한 항에 따른 정보 처리 방법을 수행하도록 구성되는 컴퓨터 저장 매체.
KR1020177035385A 2015-09-29 2016-05-04 정보 처리 방법, 단말기 및 컴퓨터 저장 매체 KR20180005689A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510633319.2 2015-09-29
CN201510633319.2A CN105159687B (zh) 2015-09-29 2015-09-29 一种信息处理方法、终端及计算机存储介质
PCT/CN2016/081051 WO2017054452A1 (zh) 2015-09-29 2016-05-04 一种信息处理方法、终端及计算机存储介质

Publications (1)

Publication Number Publication Date
KR20180005689A true KR20180005689A (ko) 2018-01-16

Family

ID=54800554

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177035385A KR20180005689A (ko) 2015-09-29 2016-05-04 정보 처리 방법, 단말기 및 컴퓨터 저장 매체

Country Status (8)

Country Link
US (1) US10661171B2 (ko)
EP (1) EP3285156B1 (ko)
JP (1) JP6830447B2 (ko)
KR (1) KR20180005689A (ko)
CN (1) CN105159687B (ko)
CA (1) CA2985867C (ko)
MY (1) MY195861A (ko)
WO (1) WO2017054452A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159687B (zh) 2015-09-29 2018-04-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105653187A (zh) * 2015-12-24 2016-06-08 杭州勺子网络科技有限公司 一种用于多点触摸终端的触摸控制方法
CN106445588B (zh) * 2016-09-08 2018-05-04 腾讯科技(深圳)有限公司 属性信息的更新方法及装置
CN106453638B (zh) * 2016-11-24 2018-07-06 腾讯科技(深圳)有限公司 一种应用业务内信息交互方法及系统
WO2018103634A1 (zh) 2016-12-06 2018-06-14 腾讯科技(深圳)有限公司 一种数据处理的方法及移动终端
CN106774907B (zh) * 2016-12-22 2019-02-05 腾讯科技(深圳)有限公司 一种在虚拟场景中调整虚拟对象可视区域的方法及移动终端
CN106598438A (zh) * 2016-12-22 2017-04-26 腾讯科技(深圳)有限公司 一种基于移动终端的场景切换方法及移动终端
CN107174824B (zh) * 2017-05-23 2021-01-15 网易(杭州)网络有限公司 特效信息处理方法、装置、电子设备及存储介质
CN107617213B (zh) * 2017-07-27 2019-02-19 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN107704165B (zh) * 2017-08-18 2020-05-15 网易(杭州)网络有限公司 虚拟镜头的控制方法及装置、存储介质、电子设备
CN108434742B (zh) 2018-02-02 2019-04-30 网易(杭州)网络有限公司 游戏场景中虚拟资源的处理方法和装置
US11093103B2 (en) 2018-04-09 2021-08-17 Spatial Systems Inc. Augmented reality computing environments-collaborative workspaces
CN108804013B (zh) * 2018-06-15 2021-01-15 网易(杭州)网络有限公司 信息提示的方法、装置、电子设备及存储介质
CN108920124B (zh) * 2018-07-25 2020-11-03 腾讯科技(深圳)有限公司 一种信息显示方法、装置及存储介质
CN109331468A (zh) * 2018-09-26 2019-02-15 网易(杭州)网络有限公司 游戏视角的显示方法、显示装置和显示终端
JP7094216B2 (ja) * 2018-12-28 2022-07-01 グリー株式会社 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
JP7202981B2 (ja) * 2019-06-28 2023-01-12 グリー株式会社 動画配信システム、プログラム、及び情報処理方法
CN111124226B (zh) * 2019-12-17 2021-07-30 网易(杭州)网络有限公司 游戏画面的显示控制方法、装置、电子设备及存储介质
CN113326212B (zh) * 2020-02-28 2023-11-03 加特兰微电子科技(上海)有限公司 数据处理方法、装置及相关设备
JP7051941B6 (ja) 2020-06-30 2022-05-06 グリー株式会社 端末装置の制御プログラム、端末装置の制御方法、端末装置、サーバ装置の制御方法、一又は複数のプロセッサにより実行される方法、及び配信システム
CN111773703B (zh) * 2020-07-31 2023-10-20 网易(杭州)网络有限公司 游戏对象显示方法、装置、存储介质与终端设备
JP7018617B1 (ja) 2020-12-11 2022-02-14 正啓 榊原 プレイ記録動画作成システム
CN113318444B (zh) * 2021-06-08 2023-01-10 天津亚克互动科技有限公司 角色的渲染方法和装置、电子设备和存储介质
CN113633963A (zh) * 2021-07-15 2021-11-12 网易(杭州)网络有限公司 游戏控制的方法、装置、终端和存储介质
CN113633989A (zh) * 2021-08-13 2021-11-12 网易(杭州)网络有限公司 游戏对象的显示控制方法、装置和电子设备
US11811681B1 (en) 2022-07-12 2023-11-07 T-Mobile Usa, Inc. Generating and deploying software architectures using telecommunication resources

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000070549A (ja) * 1998-09-01 2000-03-07 Konami Co Ltd ゲームシステム、画像の保存方法及びゲームプログラムが記録された記録媒体
JP3734815B2 (ja) * 2003-12-10 2006-01-11 任天堂株式会社 携帯ゲーム装置及びゲームプログラム
CN100441256C (zh) * 2005-06-19 2008-12-10 珠海市西山居软件有限公司 一种网络游戏系统及其实现方法
US8316408B2 (en) * 2006-11-22 2012-11-20 Verizon Patent And Licensing Inc. Audio processing for media content access systems and methods
JP5425407B2 (ja) 2008-03-31 2014-02-26 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9737796B2 (en) * 2009-07-08 2017-08-22 Steelseries Aps Apparatus and method for managing operations of accessories in multi-dimensions
JP4977248B2 (ja) * 2010-12-10 2012-07-18 株式会社コナミデジタルエンタテインメント ゲーム装置及びゲーム制御プログラム
CN103107982B (zh) * 2011-11-15 2016-04-20 北京神州泰岳软件股份有限公司 一种互联网络中群组成员互动的方法和系统
US8535163B2 (en) * 2012-01-10 2013-09-17 Zynga Inc. Low-friction synchronous interaction in multiplayer online game
CN107257403A (zh) * 2012-04-09 2017-10-17 英特尔公司 使用交互化身的通信
US8954890B2 (en) * 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
US8814674B2 (en) * 2012-05-24 2014-08-26 Supercell Oy Graphical user interface for a gaming system
US9403090B2 (en) * 2012-04-26 2016-08-02 Riot Games, Inc. Video game system with spectator mode hud
CN103365596A (zh) * 2013-07-01 2013-10-23 天脉聚源(北京)传媒科技有限公司 一种控制虚拟世界的方法及装置
JP2017104145A (ja) * 2014-03-07 2017-06-15 株式会社ソニー・インタラクティブエンタテインメント ゲームシステム、表示制御方法、表示制御プログラム及び記録媒体
JP6025806B2 (ja) * 2014-11-17 2016-11-16 株式会社ソニー・インタラクティブエンタテインメント 装置、表示制御方法、プログラム及び情報記憶媒体
CN105159687B (zh) * 2015-09-29 2018-04-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
US20180288354A1 (en) * 2017-03-31 2018-10-04 Intel Corporation Augmented and virtual reality picture-in-picture

Also Published As

Publication number Publication date
MY195861A (en) 2023-02-24
US10661171B2 (en) 2020-05-26
CN105159687B (zh) 2018-04-17
US20180028916A1 (en) 2018-02-01
JP2018525050A (ja) 2018-09-06
CN105159687A (zh) 2015-12-16
CA2985867C (en) 2021-09-28
EP3285156B1 (en) 2021-02-17
CA2985867A1 (en) 2017-04-06
EP3285156A1 (en) 2018-02-21
JP6830447B2 (ja) 2021-02-17
EP3285156A4 (en) 2018-12-12
WO2017054452A1 (zh) 2017-04-06

Similar Documents

Publication Publication Date Title
KR20180005689A (ko) 정보 처리 방법, 단말기 및 컴퓨터 저장 매체
JP6529659B2 (ja) 情報処理方法、端末及びコンピュータ記憶媒体
US10768812B2 (en) Method, terminal, and storage medium for operating objects displayed on a graphical user interface
US11003261B2 (en) Information processing method, terminal, and computer storage medium
CA2985870C (en) Information processing method, terminal, and computer storage medium
JP6628443B2 (ja) 情報処理方法、端末、およびコンピュータ記憶媒体
WO2017054464A1 (zh) 一种信息处理方法、终端及计算机存储介质
EP2919103B1 (en) Information processing device, information processing method and computer-readable recording medium
WO2013182142A1 (zh) 一种终端设备桌面的实现方法、系统及终端设备
EP2965164B1 (en) Causing specific location of an object provided to a device
CN116159308A (zh) 游戏交互方法、装置、计算机设备和计算机可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E902 Notification of reason for refusal
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2020101001181; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20200424

Effective date: 20210309