KR20230049096A - 방법, 컴퓨터 가독 매체, 및 정보 처리 장치 - Google Patents

방법, 컴퓨터 가독 매체, 및 정보 처리 장치 Download PDF

Info

Publication number
KR20230049096A
KR20230049096A KR1020237004912A KR20237004912A KR20230049096A KR 20230049096 A KR20230049096 A KR 20230049096A KR 1020237004912 A KR1020237004912 A KR 1020237004912A KR 20237004912 A KR20237004912 A KR 20237004912A KR 20230049096 A KR20230049096 A KR 20230049096A
Authority
KR
South Korea
Prior art keywords
user
game
progress
unit
operation instruction
Prior art date
Application number
KR1020237004912A
Other languages
English (en)
Inventor
나루아쓰 바바
Original Assignee
가부시키가이샤 코로프라
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 코로프라 filed Critical 가부시키가이샤 코로프라
Publication of KR20230049096A publication Critical patent/KR20230049096A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/49Saving the game status; Pausing or ending the game
    • A63F13/497Partially or entirely replaying previous game actions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

프로세서(10), 메모리(11) 및 조작부(151)를 구비하는 컴퓨터(100)에 의한 게임의 진행을 위한 방법으로서, 프로세서에 의한, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 NPC의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것, 및, 조작부를 통한 사용자의 입력 조작에 응함으로써, 제1 파트(스토리 파트)의 진행을 실행하는 단계(S1a)와, 제1 파트에 있어서 사용자에 의한 특정 행동을 받아들이는 단계로서, 특정 행동의 결과에 따라, 게임이, 제1 파트로부터 제2 파트(라이브 전송 파트)로 전환되는, 단계(S13a)와, 외부 장치(200, 300)로부터 전송되는 제2 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써, 제2 파트의 제1의 진행을 실행하는 단계로서, 제2 동작 지시 데이터가, 사용자에 의한 직접 조작의 대상이 아닌 NPC에 관련지어지는 오퍼레이터가 입력하고 있는 모션 데이터 및 음성 데이터를 포함하는, 단계(S5a)를 포함한다.

Description

방법, 컴퓨터 가독 매체, 및 정보 처리 장치
본 개시는 방법, 컴퓨터 가독 매체, 및 정보 처리 장치에 관한 것이다.
종래, 사용자가 선택한 선택지에 따라 결말이 상이하도록 이야기가 진행되는 게임이 널리 알려져 있다. 예를 들면, 비특허 문헌 1에는, 여자 아이의 캐릭터와 가상적으로 친목을 다지는 것을 주된 목적으로 하는 연애 시뮬레이션 게임이 개시되어 있다. 사용자는, 제시된 선택지 중에서 캐릭터에 대한 작용으로서 최적이라고 생각하는 것을 선택하고, 그 작용에 대해 당해 캐릭터가 반응하는 것을 반복함으로써 이야기가 진행된다.
"전격 온라인 - 게임·앱·만화·애니메이션 정보 사이트", [online], KADOKAWA CORPORATION, [2018년 5월 8일 검색], 인터넷(URL:http://dengekionline.com/elem/000/000/279/279193/index-2.html)
비특허 문헌 1에 개시되어 있는 게임에서는, 캐릭터의 응답 패턴이 미리 준비되어 있다. 그리고, 사용자의 입력 조작에 따라, 당해 캐릭터의 응답이, 당해 응답 패턴 중에서 결정되어 출력되고, 게임이 진행된다. 따라서, 캐릭터의 동작의 베리에이션은, 미리 준비된 데이터의 내용을 초과하여 넓어지는 경우가 없다. 그 때문에, 사용자는, 캐릭터와의 관계에 대해, 당해 캐릭터가 마치 현실의 세계에 있을 것 같은 현실감을 느낄 수 없으며, 머지않아 싫증난다는 문제가 있다. 일반적으로, 사용자에게 길게 플레이시키는 것을 의도하여 개발된 게임에 있어서는, 사용자가 게임에 싫증난다는 문제에 어떻게 대처할지가 중요하다. 게임에는, 항상, 사용자에게 플레이를 동기 부여할 매력적인 콘텐츠를 제공하는 것이 요구된다. 특히, 사용자가, 캐릭터와의 관계에 흥취(興趣)성을 찾아내는 게임에 있어서는, 캐릭터는, 사용자가 게임의 세계에 몰입할 수 있을 정도의 높은 현실감을 구비하고 있는 것이 바람직하다.
본 개시의 일 양태는, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시키는 것을 목적으로 한다.
본 개시에 따른 방법은, 프로세서, 메모리 및 조작부를 구비하는 컴퓨터에 의한 게임의 진행을 위한 방법이다. 본 개시에 따른 방법은, 프로세서에 의한, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것, 및, 조작부를 통한 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 단계와, 제1 파트에 있어서 사용자에 의한 특정 행동을 받아들이는 단계로서, 특정 행동의 결과에 따라, 게임이, 제1 파트로부터 제2 파트로 전환되는, 단계와, 외부 장치로부터 전송되는 제2 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써, 제2 파트의 제1의 진행을 실행하는 단계로서, 제2 동작 지시 데이터가, 사용자에 의한 직접 조작의 대상이 아닌 NPC에 관련지어지는 오퍼레이터가 입력하고 있는 모션 데이터 및 음성 데이터를 포함하는, 단계를 포함한다.
본 개시에 따른 방법은, 프로세서, 메모리 및 조작부를 구비하는 컴퓨터에 의한 게임의 진행을 위한 방법이다. 본 개시에 따른 방법은, 프로세서에 의한, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것, 및, 조작부를 통한 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 단계와, 종료 완료된 제2 파트의 진행을 요구하는 단계와, 외부 장치로부터 기록 완료된 제2 동작 지시 데이터를 수신하는 단계로서, 제2 동작 지시 데이터가, 사용자에 의한 직접 조작의 대상이 아닌 NPC에 관련지어지는 오퍼레이터가 입력한 모션 데이터 및 음성 데이터를 포함하는, 단계와, 제2 동작 지시 데이터에 의거하여, 사용자에 의한 직접 조작의 대상이 아닌 NPC를 동작시킴으로써, 제2 파트의 진행을 실행하는 단계를 포함한다.
본 개시의 일 양태에 의하면, 게임의 흥취성을 향상시키는 효과를 나타낸다.
도 1은, 게임 시스템의 하드웨어 구성을 나타내는 도면이다.
도 2는, 사용자 단말, 서버 및 동작 지시 장치의 기능적 구성을 나타내는 블록도이다.
도 3은, 본 실시 형태에 따른 방법에 의거하여 실행되는 게임의 기본적인 게임 진행에 대해 그 일례를 나타내는 플로차트이다.
도 4는, 동작 지시 데이터의 데이터 구조의 일례를 나타내는 도면이다.
도 5는, 게임 정보의 데이터 구조의 일례를 나타내는 도면이다.
도 6은, 사용자 단말의 표시부에 표시되는 퀘스트 제시 화면의 일례를 나타내는 도면이다.
도 7은, 사용자 단말의 표시부에 표시되는 퀘스트 해결 화면의 일례를 나타내는 도면이다.
도 8은, 사용자 단말의 표시부에 표시되는 보수 화면의 일례를 나타내는 도면이다.
도 9는, 사용자 단말의 표시부에 표시되는 동영상 재생 화면의 일례를 나타내는 도면이다.
도 10은, 게임 시스템에 있어서 실행되는 처리의 흐름을 나타내는 플로차트이다.
도 11은, 본 실시 형태에 따른 방법에 의거하여 실행되는 게임의 기본적인 게임 진행에 대해 그 일례를 나타내는 플로차트이다.
도 12는, 사용자 단말에 의해 실행되는, 동작 지시 데이터를 해석하는 처리의 흐름을 나타내는 플로차트이다.
도 13은, 라이브 전송 파트의 사용자 행동 이력 정보의 데이터 구조의 일례를 나타내는 도면이다.
도 14는, 본 실시 형태에 따른 방법에 의거하여 실행되는 게임의 기본적인 게임 진행에 대해 그 일례를 나타내는 플로차트이다.
〔실시 형태 1〕
본 개시에 따른 게임 시스템은, 게임 플레이어인 복수의 사용자에게 게임을 제공하기 위한 시스템이다. 이하, 게임 시스템에 대해 도면을 참조하면서 설명한다. 또한, 본 발명은 이들 예시에 한정되는 것은 아니며, 특허 청구의 범위에 의해 나타내어지고, 특허 청구의 범위와 균등한 의미 및 범위 내에서의 모든 변경이 본 발명에 포함되는 것이 의도된다. 이하의 설명에서는, 도면의 설명에 있어서 동일한 요소에는 동일한 부호를 붙이고, 중복되는 설명을 반복하지 않는다.
<게임 시스템(1)의 하드웨어 구성>
도 1은, 게임 시스템(1)의 하드웨어 구성을 나타내는 도면이다. 게임 시스템(1)은 도시한 바와 같이, 복수의 사용자 단말(100)과, 서버(200)를 포함한다. 각 사용자 단말(100)은, 서버(200)와 네트워크(2)를 통해 접속한다. 네트워크(2)는, 인터넷 및 도시하지 않는 무선 기지국에 의해 구축되는 각종 이동 통신 시스템 등으로 구성된다. 이 이동 통신 시스템으로서는, 예를 들면, 소위 3G, 4G 이동 통신 시스템, LTE(Long Term Evolution), 및 소정의 액세스 포인트에 의해 인터넷에 접속 가능한 무선 네트워크(예를 들면 Wi-Fi(등록상표)) 등을 들 수 있다.
서버(200)(컴퓨터, 정보 처리 장치)는, 워크 스테이션 또는 퍼스널 컴퓨터 등의 범용 컴퓨터이면 된다. 서버(200)는, 프로세서(20)와, 메모리(21)와, 스토리지(22)와, 통신 IF(23)와, 입출력 IF(24)를 구비한다. 서버(200)가 구비하는 이러한 구성은, 통신 버스에 의해 서로 전기적으로 접속된다.
사용자 단말(100)(컴퓨터, 정보 처리 장치)은, 스마트폰, 피처폰, PDA(Personal Digital Assistant), 또는 태블릿형 컴퓨터 등의 휴대 단말이면 된다. 사용자 단말(100)은, 게임 플레이에 적합한 게임 장치여도 된다. 사용자 단말(100)은 도시한 바와 같이, 프로세서(10)와, 메모리(11)와, 스토리지(12)와, 통신 인터페이스(IF)(13)와, 입출력 IF(14)와, 터치 스크린(15)(표시부)과, 카메라(17)와, 측거 센서(18)를 구비한다. 사용자 단말(100)이 구비하는 이러한 구성은, 통신 버스에 의해 서로 전기적으로 접속된다. 또한, 사용자 단말(100)은, 터치 스크린(15)을 대신하여, 또는, 추가하여, 사용자 단말(100) 본체와는 별도로 구성된 디스플레이(표시부)를 접속 가능한 입출력 IF(14)를 구비하고 있어도 된다.
또, 도 1에 나타내는 바와 같이, 사용자 단말(100)은, 1개 이상의 컨트롤러(1020)와 통신 가능하게 구성되는 것으로 해도 된다. 컨트롤러(1020)는, 예를 들면, Bluetooth(등록상표) 등의 통신 규격에 따라, 사용자 단말(100)과 통신을 확립한다. 컨트롤러(1020)는, 1개 이상의 버튼 등을 갖고 있어도 되고, 당해 버튼 등에 대한 사용자의 입력 조작에 의거하는 출력값을 사용자 단말(100)에 송신한다. 또, 컨트롤러(1020)는, 가속도 센서, 및, 각속도 센서 등의 각종 센서를 갖고 있어도 되고, 당해 각종 센서의 출력값을 사용자 단말(100)에 송신한다.
또한, 사용자 단말(100)이 카메라(17) 및 측거 센서(18)를 구비하는 것을 대신하여, 또는, 추가하여, 컨트롤러(1020)가 카메라(17) 및 측거 센서(18)를 갖고 있어도 된다.
사용자 단말(100)은, 예를 들면 게임 개시 시에, 컨트롤러(1020)를 사용하는 사용자에게, 당해 사용자의 이름 또는 로그인 ID 등의 사용자 식별 정보를, 당해 컨트롤러(1020)를 통해 입력시키는 것이 바람직하다. 이에 의해, 사용자 단말(100)은, 컨트롤러(1020)와 사용자를 연관시키는 것이 가능해져, 수신한 출력값의 송신원(컨트롤러(1020))에 의거하여, 당해 출력값이 어느 사용자의 것인지를 특정할 수 있다.
사용자 단말(100)이 복수의 컨트롤러(1020)와 통신하는 경우, 각 컨트롤러(1020)를 각 사용자가 파지(把持)함으로써, 네트워크(2)를 통해 서버(200) 등의 다른 장치와 통신하지 않고, 당해 1대의 사용자 단말(100)로 멀티플레이를 실현할 수 있다. 또, 각 사용자 단말(100)이 무선 LAN(Local Area Network) 규격 등의 무선 규격에 의해 서로 통신 접속함(서버(200)를 통하지 않고 통신 접속함)으로써, 복수 대의 사용자 단말(100)에 의해 로컬로 멀티플레이를 실현할 수도 있다. 1대의 사용자 단말(100)에 의해 로컬로 상술의 멀티플레이를 실현하는 경우, 사용자 단말(100)은, 또한, 서버(200)가 구비하는 후술하는 여러 가지의 기능의 적어도 일부를 구비하고 있어도 된다. 또, 복수의 사용자 단말(100)에 의해 로컬로 상술의 멀티플레이를 실현하는 경우, 복수의 사용자 단말(100)은, 서버(200)가 구비하는 후술하는 여러 가지의 기능을 분산하여 구비하고 있어도 된다.
또한, 로컬로 상술의 멀티플레이를 실현하는 경우에도, 사용자 단말(100)은 서버(200)와 통신을 행해도 된다. 예를 들면, 어느 게임에 있어서의 성적 또는 승패 등의 플레이 결과를 나타내는 정보와, 사용자 식별 정보를 대응지어 서버(200)에 송신해도 된다.
또, 컨트롤러(1020)는, 사용자 단말(100)에 착탈 가능한 구성으로 해도 된다. 이 경우, 사용자 단말(100)의 하우징에 있어서의 적어도 어느 하나의 면에, 컨트롤러(1020)와의 결합부가 설치되어 있어도 된다. 당해 결합부를 통해 유선에 의해 사용자 단말(100)과 컨트롤러(1020)가 결합하고 있는 경우는, 사용자 단말(100)과 컨트롤러(1020)는, 유선을 통해 신호를 송수신한다.
도 1에 나타내는 바와 같이, 사용자 단말(100)은, 외부의 메모리 카드 등의 기억 매체(1030)의 장착을, 입출력 IF(14)를 통해 받아들여도 된다. 이에 의해, 사용자 단말(100)은, 기억 매체(1030)에 기록되는 프로그램 및 데이터를 읽어들일 수 있다. 기억 매체(1030)에 기록되는 프로그램은, 예를 들면 게임 프로그램이다.
사용자 단말(100)은, 서버(200) 등의 외부의 장치와 통신함으로써 취득한 게임 프로그램을 사용자 단말(100)의 메모리(11)에 기억해도 되고, 기억 매체(1030)로부터 읽어들임으로써 취득한 게임 프로그램을 메모리(11)에 기억해도 된다.
이상으로 설명한 바와 같이, 사용자 단말(100)은, 당해 사용자 단말(100)에 대해 정보를 입력하는 기구의 일례로서, 통신 IF(13), 입출력 IF(14), 터치 스크린(15), 카메라(17), 및, 측거 센서(18)를 구비한다. 입력하는 기구로서의 상술의 각 부는, 사용자의 입력 조작을 받아들이도록 구성된 조작부로 파악할 수 있다.
예를 들면, 조작부가, 카메라(17) 및 측거 센서(18) 중 적어도 어느 한쪽에서 구성되는 경우, 당해 조작부가, 사용자 단말(100)의 근방의 물체(1010)를 검출하고, 당해 물체의 검출 결과로부터 입력 조작을 특정한다. 일례로서, 물체(1010)로서의 사용자의 손, 미리 정해진 형상의 마커 등이 검출되고, 검출 결과로서 얻어진 물체(1010)의 색, 형상, 움직임, 또는, 종류 등에 의거하여 입력 조작이 특정된다. 보다 구체적으로는, 사용자 단말(100)은, 카메라(17)의 촬영 화상으로부터 사용자의 손이 검출되었을 경우, 당해 촬영 화상에 의거하여 검출되는 제스처(사용자의 손의 일련의 움직임)를, 사용자의 입력 조작으로서 특정하고, 받아들인다. 또한, 촬영 화상은 정지 영상이어도 동영상이어도 된다.
혹은, 조작부가 터치 스크린(15)으로 구성되는 경우, 사용자 단말(100)은, 터치 스크린(15)의 입력부(151)에 대해 실시된 사용자의 조작을 사용자의 입력 조작으로서 특정하고, 받아들인다. 혹은, 조작부가 통신 IF(13)로 구성되는 경우, 사용자 단말(100)은, 컨트롤러(1020)로부터 송신되는 신호(예를 들면, 출력값)를 사용자의 입력 조작으로서 특정하고, 받아들인다. 혹은, 조작부가 입출력 IF(14)로 구성되는 경우, 당해 입출력 IF(14)와 접속되는 컨트롤러(1020)와는 상이한 입력 장치(도시하지 않음)로부터 출력되는 신호를 사용자의 입력 조작으로서 특정하고, 받아들인다.
본 실시 형태에서는, 게임 시스템(1)은, 또한, 동작 지시 장치(300)를 포함한다. 동작 지시 장치(300)는, 서버(200) 및 사용자 단말(100) 각각과, 네트워크(2)를 통해 접속한다. 동작 지시 장치(300)는, 게임 시스템(1)에 적어도 1대 설치되어 있다. 동작 지시 장치(300)는, 서버(200)가 제공하는 서비스를 이용하는 사용자 단말(100)의 수에 따라, 복수 대 설치되어 있어도 된다. 1대의 사용자 단말(100)에 대해, 1대의 동작 지시 장치(300)가 설치되어 있어도 된다. 복수 대의 사용자 단말(100)에 대해, 1대의 동작 지시 장치(300)가 설치되어 있어도 된다.
동작 지시 장치(300)(NPC 제어 장치, 캐릭터 제어 장치)는, 서버, 데스크톱 PC, 노트북 컴퓨터, 또는, 태블릿 등의 컴퓨터, 및, 이들을 조합한 컴퓨터군이어도 된다. 동작 지시 장치(300)는, 도시한 바와 같이, 프로세서(30)와, 메모리(31)와, 스토리지(32)와, 통신 IF(33)와, 입출력 IF(34)와, 터치 스크린(35)(표시부)을 구비한다. 동작 지시 장치(300)가 구비하는 이러한 구성은, 통신 버스에 의해 서로 전기적으로 접속된다. 또한, 동작 지시 장치(300)는, 터치 스크린(35)을 대신하여, 또는, 추가하여, 동작 지시 장치(300) 본체와는 별도로 구성된 디스플레이(표시부)를 접속 가능한 입출력 IF(34)를 구비하고 있어도 된다.
또, 도 1에 나타내는 바와 같이, 동작 지시 장치(300)는, 1개 이상의 마이크(3010), 1개 이상의 모션 캡처 장치(3020), 및, 1개 이상의 컨트롤러(3030) 등의 주변 기기와, 무선 또는 유선을 통해, 통신 가능하게 구성되어도 된다. 무선으로 접속되는 주변 기기는, 예를 들면, Bluetooth(등록상표) 등의 통신 규격에 따라, 동작 지시 장치(300)와 통신을 확립한다.
마이크(3010)는, 주위에서 발생한 음성을 취득하여, 이것을 전기 신호로 변환한다. 전기 신호로 변환된 음성은, 음성 데이터로서, 동작 지시 장치(300)에 송신되고, 통신 IF(33)를 통해 동작 지시 장치(300)에 받아들여진다.
모션 캡처 장치(3020)는, 추적 대상(예를 들면, 사람)의 모션(얼굴의 표정, 입의 움직임 등도 포함한다)을 추적하고, 추적 결과로서의 출력값을 동작 지시 장치(300)에 송신한다. 출력값인 모션 데이터는, 통신 IF(33)를 통해 동작 지시 장치(300)에 받아들여진다. 모션 캡처 장치(3020)의 모션 캡처 방식은 특별히 한정되지 않는다. 모션 캡처 장치(3020)는, 채용된 방식에 따라, 카메라, 각종 센서, 마커, 모델(인물)이 착용하는 슈트, 신호 송출기 등, 모션을 캡처하기 위한 모든 기구를 선택적으로 구비하고 있다.
컨트롤러(3030)는, 1개 이상의 버튼, 레버, 스틱, 휠 등의 물리적인 입력 기구를 갖고 있어도 된다. 컨트롤러(3030)는, 동작 지시 장치(300)의 오퍼레이터가, 당해 입력 기구에 대해 입력한 입력 조작에 의거하는 출력값을 동작 지시 장치(300)에 송신한다. 또, 컨트롤러(3030)는, 가속도 센서, 및, 각속도 센서 등의 각종 센서를 갖고 있어도 되고, 당해 각종 센서의 출력값을 동작 지시 장치(300)에 송신해도 된다. 상술의 출력값은, 통신 IF(33)를 통해 동작 지시 장치(300)에 받아들여진다. 또한, 이하에서는, 동작 지시 장치(300)에 구비된 조작부 또는 동작 지시 장치(300)와 통신 가능하게 접속된 각종의 입력 기구를 이용하여, 동작 지시 장치(300)에 대해, 어떠한 입력 조작을 행하는 사람을 오퍼레이터로 칭한다. 오퍼레이터에는, 입력부(351), 컨트롤러(3030) 등을 이용하여 동작 지시 장치(300)를 조작하는 사람도 포함되고, 마이크(3010)를 통해 음성을 입력하는 성우도 포함되며, 모션 캡처 장치(3020)를 통해 움직임을 입력하는 모델도 포함된다. 또한, 오퍼레이터는, 게임 플레이어인 사용자에는 포함되지 않는다.
동작 지시 장치(300)는, 도시하지 않는, 카메라와, 측거 센서를 구비하고 있어도 된다. 동작 지시 장치(300)가 구비하는 것을 대신하여, 또는, 추가하여, 모션 캡처 장치(3020) 및 컨트롤러(3030)가 카메라와, 측거 센서를 갖고 있어도 된다.
이상으로 설명한 바와 같이, 동작 지시 장치(300)는, 당해 동작 지시 장치(300)에 대해 정보를 입력하는 기구의 일례로서, 통신 IF(33), 입출력 IF(34), 터치 스크린(35)을 구비한다. 필요에 따라, 카메라, 및, 측거 센서를 추가로 구비하고 있어도 된다. 입력하는 기구로서의 상술의 각 부는, 사용자의 입력 조작을 받아들이도록 구성된 조작부로 파악할 수 있다.
조작부가 터치 스크린(35)으로 구성되어 있어도 된다. 이 경우, 동작 지시 장치(300)는, 터치 스크린(35)의 입력부(351)에 대해 실시된 사용자의 조작을 사용자의 입력 조작으로서 특정하고, 받아들인다. 혹은, 조작부가 통신 IF(33)로 구성되는 경우, 동작 지시 장치(300)는, 컨트롤러(3030)로부터 송신되는 신호(예를 들면, 출력값)를 사용자의 입력 조작으로서 특정하고, 받아들인다. 혹은, 조작부가 입출력 IF(34)로 구성되는 경우, 당해 입출력 IF(34)와 접속되는 컨트롤러(3030)와는 상이한 입력 장치(도시하지 않음)로부터 출력되는 신호를 사용자의 입력 조작으로서 특정하고, 받아들인다.
<게임 개요>
실시 형태 1에 따른 게임 시스템(1)이 실행하는 게임(이하, 본 게임)은, 일례로서, 1 이상의 캐릭터를 등장시키고, 그 캐릭터 중 적어도 1개를 동작 지시 데이터에 의거하여 동작시키는 게임이다. 당해 게임에 등장하는 캐릭터는, 플레이어 캐릭터(이하, PC)여도 되고, 논플레이어 캐릭터(이하, NPC)여도 된다. PC는, 게임 플레이어인 사용자가 직접 조작 가능한 캐릭터이다. NPC는, 게임 프로그램 및 동작 지시 데이터에 따라 동작하는, 즉, 게임 플레이어인 사용자가 직접 조작할 수 없는 캐릭터이다. 이하에서는, 양자를 특별히 구별할 필요가 없을 경우에는, 총칭으로서, "캐릭터"를 이용한다.
일례로서, 본 게임은, 육성 시뮬레이션 게임이다. 구체적으로는, 당해 육성 시뮬레이션 게임은, 사용자인 주인공이, 캐릭터와의 교류를 돈독히 하여, 작용해 감으로써, 당해 캐릭터를 유명한 동영상 전송자로 키워내고, 당해 캐릭터가 품는 꿈을 실현하는 것을 목적으로 하고 있다. 또한, 당해 육성 시뮬레이션 게임은, 주인공이, 캐릭터와의 교류를 통해 친밀도를 높이는 것을 목적으로 하는 연애 시뮬레이션 게임의 요소를 포함하고 있어도 된다.
또한, 본 게임에는, 일례로서, 라이브 전송 파트가 적어도 포함되어 있는 것이 바람직하다. 게임 시스템(1)에 있어서, 동작 지시 데이터가, 본 게임을 실행 중의 사용자 단말(100)에 대해, 당해 사용자 단말(100) 이외의 다른 장치로부터, 임의의 타이밍으로 공급된다. 사용자 단말(100)은, 당해 동작 지시 데이터를 수신한 것을 트리거로 하여, 당해 동작 지시 데이터를 해석한다(렌더링한다). 라이브 전송 파트란, 사용자 단말(100)이, 상술의 해석된 동작 지시 데이터에 따라 동작하는 캐릭터를, 사용자에게 리얼타임으로 제시하는 파트이다. 이에 의해, 사용자는, 캐릭터가 정말로 존재할 것 같은 현실감을 느낄 수 있어, 보다 한층 더 게임의 세계에 몰입하여 본 게임에 재미를 붙일 수 있다.
본 실시 형태에서는, 게임은, 복수의 플레이 파트로 구성되어 있어도 된다. 이 경우, 1개의 캐릭터가, 어느 파트에서는, PC이며, 다른 파트에서는, NPC인 것과 같이, 파트마다 캐릭터의 성질이 상이해도 된다.
게임의 장르는, 특정 장르에 한정되지 않는다. 게임 시스템(1)은, 모든 장르의 게임을 실행할 수 있다. 예를 들면, 테니스, 탁구, 피구, 야구, 축구 및 하키 등의 스포츠를 소재로 한 게임, 퍼즐 게임, 퀴즈 게임, RPG(Role-Playing Game), 어드벤처 게임, 슈팅 게임, 시뮬레이션 게임, 육성 게임, 그리고, 액션 게임 등이어도 된다.
또, 게임 시스템(1)에 있어서 실행되는 게임의 플레이 형태는, 특정 플레이 형태에 한정되지 않는다. 게임 시스템(1)은, 모든 플레이 형태의 게임을 실행할 수 있다. 예를 들면, 단일의 사용자에 의한 싱글플레이 게임, 및, 복수의 사용자에 의한 멀티플레이 게임, 또, 멀티플레이 게임 중에서도, 복수의 사용자가 대전(對戰)하는 대전 게임, 및, 복수의 사용자가 협력하는 협력 플레이 게임 등이어도 된다.
<각 장치의 하드웨어 구성요소>
프로세서(10)는, 사용자 단말(100) 전체의 동작을 제어한다. 프로세서(20)는, 서버(200) 전체의 동작을 제어한다. 프로세서(30)는, 동작 지시 장치(300) 전체의 동작을 제어한다. 프로세서(10, 20 및 30)는, CPU(Central Processing Unit), MPU(Micro Processing Unit), 및 GPU(Graphics Processing Unit)를 포함한다.
프로세서(10)는 후술하는 스토리지(12)로부터 프로그램을 읽어내고, 후술하는 메모리(11)에 전개한다. 프로세서(20)는 후술하는 스토리지(22)로부터 프로그램을 읽어내고, 후술하는 메모리(21)에 전개한다. 프로세서(30)는 후술하는 스토리지(32)로부터 프로그램을 읽어내고, 후술하는 메모리(31)에 전개한다. 프로세서(10), 프로세서(20) 및 프로세서(30)는 전개한 프로그램을 실행한다.
메모리(11, 21 및 31)는 주(主)기억 장치이다. 메모리(11, 21 및 31)는, ROM(Read Only Memory) 및 RAM(Random Access Memory) 등의 기억 장치로 구성된다. 메모리(11)는, 프로세서(10)가 후술하는 스토리지(12)로부터 읽어낸 프로그램 및 각종 데이터를 일시적으로 기억함으로써, 프로세서(10)에 작업 영역을 제공한다. 메모리(11)는, 프로세서(10)가 프로그램에 따라 동작하고 있는 동안에 생성한 각종 데이터도 일시적으로 기억한다. 메모리(21)는, 프로세서(20)가 후술하는 스토리지(22)로부터 읽어낸 각종 프로그램 및 데이터를 일시적으로 기억함으로써, 프로세서(20)에 작업 영역을 제공한다. 메모리(21)는, 프로세서(20)가 프로그램에 따라 동작하고 있는 동안에 생성한 각종 데이터도 일시적으로 기억한다. 메모리(31)는, 프로세서(30)가 후술하는 스토리지(32)로부터 읽어낸 각종 프로그램 및 데이터를 일시적으로 기억함으로써, 프로세서(30)에 작업 영역을 제공한다. 메모리(31)는, 프로세서(30)가 프로그램에 따라 동작하고 있는 동안에 생성한 각종 데이터도 일시적으로 기억한다.
본 실시 형태에 있어서 프로그램이란, 게임을 사용자 단말(100)에 의해 실현하기 위한 게임 프로그램이어도 된다. 혹은, 당해 프로그램은, 당해 게임을 사용자 단말(100)과 서버(200)의 협동에 의해 실현하기 위한 게임 프로그램이어도 된다. 혹은, 당해 프로그램은, 당해 게임을 사용자 단말(100)과 서버(200)와 동작 지시 장치(300)의 협동에 의해 실현하기 위한 게임 프로그램이어도 된다. 또한, 사용자 단말(100)과 서버(200)의 협동에 의해 실현되는 게임 및 사용자 단말(100)과 서버(200)와 동작 지시 장치(300)의 협동에 의해 실현되는 게임은, 일례로서, 사용자 단말(100)에 있어서 기동된 브라우저 상에서 실행되는 게임이어도 된다. 혹은, 당해 프로그램은, 당해 게임을 복수의 사용자 단말(100)의 협동에 의해 실현하기 위한 게임 프로그램이어도 된다. 또, 각종 데이터란, 사용자 정보 및 게임 정보 등의 게임에 관한 데이터, 그리고, 게임 시스템(1)의 각 장치 간에서 송수신하는 지시 또는 통지를 포함하고 있다.
스토리지(12, 22 및 32)는 보조 기억 장치이다. 스토리지(12, 22 및 32)는, 플래시 메모리 또는 HDD(Hard Disk Drive) 등의 기억 장치로 구성된다. 스토리지(12, 22 및 32)에는, 게임에 관한 각종 데이터가 저장된다.
통신 IF(13)는, 사용자 단말(100)에 있어서의 각종 데이터의 송수신을 제어한다. 통신 IF(23)는, 서버(200)에 있어서의 각종 데이터의 송수신을 제어한다. 통신 IF(33)는, 동작 지시 장치(300)에 있어서의 각종 데이터의 송수신을 제어한다. 통신 IF(13, 23 및 33)는 예를 들면, 무선 LAN(Local Area Network)을 통한 통신, 유선 LAN, 무선 LAN, 또는 휴대 전화 회선망을 통한 인터넷 통신, 그리고 근거리 무선 통신 등을 이용한 통신을 제어한다.
입출력 IF(14)는, 사용자 단말(100)이 데이터의 입력을 받아들이기 위한 인터페이스이며, 또 사용자 단말(100)이 데이터를 출력하기 위한 인터페이스이다. 입출력 IF(14)는, USB(Universal Serial Bus) 등을 통해 데이터의 입출력을 행해도 된다. 입출력 IF(14)는, 예를 들면, 사용자 단말(100)의 물리 버튼, 카메라, 마이크, 또는, 스피커 등을 포함할 수 있다. 서버(200)의 입출력 IF(24)는, 서버(200)가 데이터의 입력을 받아들이기 위한 인터페이스이며, 또 서버(200)가 데이터를 출력하기 위한 인터페이스이다. 입출력 IF(24)는, 예를 들면, 마우스 또는 키보드 등의 정보 입력 기기인 입력부와, 화상을 표시 출력하는 기기인 표시부를 포함할 수 있다. 동작 지시 장치(300)의 입출력 IF(34)는, 동작 지시 장치(300)가 데이터의 입력을 받아들이기 위한 인터페이스이며, 또 동작 지시 장치(300)가 데이터를 출력하기 위한 인터페이스이다. 입출력 IF(34)는, 예를 들면, 마우스, 키보드, 스틱, 레버 등의 정보 입력 기기, 액정 디스플레이 등의 화상을 표시 출력하는 기기, 및, 주변 기기(마이크(3010), 모션 캡처 장치(3020), 및, 컨트롤러(3030))와의 사이에서 데이터를 송수신하기 위한 접속부를 포함할 수 있다.
사용자 단말(100)의 터치 스크린(15)은, 입력부(151)와 표시부(152)를 조합한 전자 부품이다. 동작 지시 장치(300)의 터치 스크린(35)은, 입력부(351)와 표시부(352)를 조합한 전자 부품이다. 입력부(151, 351)는, 예를 들면 터치 센시티브한 디바이스이며, 예를 들면 터치 패드에 의해 구성된다. 표시부(152, 352)는, 예를 들면 액정 디스플레이, 또는 유기 EL(Electro-Luminescence) 디스플레이 등에 의해 구성된다.
입력부(151, 351)는, 입력면에 대해 사용자의 조작(주로 터치 조작, 슬라이드 조작, 스와이프 조작, 및 탭 조작 등의 물리적 접촉 조작)이 입력된 위치를 검지하고, 위치를 나타내는 정보를 입력 신호로서 송신하는 기능을 구비한다. 입력부(151, 351)는, 도시하지 않는 터치 센싱부를 구비하고 있으면 된다. 터치 센싱부는, 정전 용량 방식 또는 저항막 방식 등 중 어떠한 방식을 채용한 것이어도 된다.
도시하지 않지만, 사용자 단말(100)은, 당해 사용자 단말(100)의 유지 자세를 특정하기 위한 1 이상의 센서를 구비하고 있어도 된다. 이 센서는, 예를 들면, 가속도 센서, 또는, 각속도 센서 등이어도 된다. 사용자 단말(100)이 센서를 구비하고 있는 경우, 프로세서(10)는, 센서의 출력으로부터 사용자 단말(100)의 유지 자세를 특정하고, 유지 자세에 따른 처리를 행하는 것도 가능해진다. 예를 들면, 프로세서(10)는, 사용자 단말(100)이 세로 방향으로 유지되고 있을 때에는, 세로로 긴 화상을 표시부(152)에 표시시키는 세로 화면 표시로 해도 된다. 한편, 사용자 단말(100)이 가로 방향으로 유지되고 있을 때에는, 가로로 긴 화상을 표시부에 표시시키는 가로 화면 표시로 해도 된다. 이와 같이, 프로세서(10)는, 사용자 단말(100)의 유지 자세에 따라 세로 화면 표시와 가로 화면 표시를 전환 가능해도 된다.
카메라(17)는, 이미지 센서 등을 포함하고, 렌즈로부터 입사하는 입사광을 전기 신호로 변환함으로써 촬영 화상을 생성한다.
측거 센서(18)는, 측정 대상물까지의 거리를 측정하는 센서이다. 측거 센서(18)는, 예를 들면, 펄스 변환한 광을 발하는 광원과, 광을 받는 수광 소자를 포함한다. 측거 센서(18)는, 광원으로부터의 발광 타이밍과, 당해 광원으로부터 발해진 광이 측정 대상물에 닿아 반사되어 발생하는 반사광의 수광 타이밍에 의해, 측정 대상물까지의 거리를 측정한다. 측거 센서(18)는, 지향성을 갖는 광을 발하는 광원을 갖는 것으로 해도 된다.
여기서, 사용자 단말(100)이, 카메라(17)와 측거 센서(18)를 이용하여, 사용자 단말(100)의 근방의 물체(1010)를 검출한 검출 결과를, 사용자의 입력 조작으로서 받아들이는 예를 추가로 설명한다. 카메라(17) 및 측거 센서(18)는, 예를 들면, 사용자 단말(100)의 하우징의 측면에 설치되어도 된다. 카메라(17)의 근방에 측거 센서(18)가 설치되어도 된다. 카메라(17)로서는, 예를 들면 적외선 카메라를 이용할 수 있다. 이 경우, 적외선을 조사하는 조명 장치 및 가시광을 차단하는 필터 등이, 카메라(17)에 설치되어도 된다. 이에 의해, 옥외나 옥내에 관계없이, 카메라(17)의 촬영 화상에 의거하는 물체의 검출 정밀도를 한층 더 향상시킬 수 있다.
프로세서(10)는, 카메라(17)의 촬영 화상에 대해, 예를 들면 이하의 (1)~(5)에 나타내는 처리 중 1개 이상의 처리를 행해도 된다. (1) 프로세서(10)는, 카메라(17)의 촬영 화상에 대해 화상 인식 처리를 행함으로써, 당해 촬영 화상에 사용자의 손이 포함되어 있는지 여부를 특정한다. 프로세서(10)는, 상술의 화상 인식 처리에 있어서 채용하는 해석 기술로서, 예를 들면 패턴 매칭 등의 기술을 이용해도 된다. (2) 또, 프로세서(10)는, 사용자의 손의 형상으로부터, 사용자의 제스처를 검출한다. 프로세서(10)는, 예를 들면, 촬영 화상으로부터 검출되는 사용자의 손의 형상으로부터, 사용자의 손가락의 개수(뻗어 있는 손가락의 개수)를 특정한다. 프로세서(10)는 또한, 특정 손가락의 개수로부터, 사용자가 행한 제스처를 특정한다. 예를 들면, 프로세서(10)는, 손가락의 개수가 5개인 경우, 사용자가 「보」의 제스처를 행했다고 판정한다. 또, 프로세서(10)는, 손가락의 개수가 0개인(손가락이 검출되지 않았음) 경우, 사용자가 「주먹」의 제스처를 행했다고 판정한다. 또, 프로세서(10)는, 손가락의 개수가 2개인 경우, 사용자가 「가위」의 제스처를 행했다고 판정한다. (3) 프로세서(10)는, 카메라(17)의 촬영 화상에 대해, 화상 인식 처리를 행함으로써, 사용자의 손가락이 집게손가락만 세운 상태인지, 사용자의 손가락이 튕기는 듯한 움직임을 했는지를 검출한다. (4) 프로세서(10)는, 카메라(17)의 촬영 화상의 화상 인식 결과, 및, 측거 센서(18)의 출력값 등 중 적어도 어느 1개에 의거하여, 사용자 단말(100)의 근방의 물체(1010)(사용자의 손 등)와 사용자 단말(100)의 거리를 검출한다. 예를 들면, 프로세서(10)는, 카메라(17)의 촬영 화상으로부터 특정되는 사용자의 손의 형상의 대소에 따라, 사용자의 손이 사용자 단말(100)의 근방(예를 들면 소정값 미만의 거리)에 있는지, 먼 곳(예를 들면 소정값 이상의 거리)에 있는지를 검출한다. 또한, 촬영 화상이 동영상인 경우, 프로세서(10)는, 사용자의 손이 사용자 단말(100)에 접근하고 있는지 멀어지고 있는지를 검출해도 된다. (5) 카메라(17)의 촬영 화상의 화상 인식 결과 등에 의거하여, 사용자의 손이 검출되고 있는 상태에서, 사용자 단말(100)과 사용자의 손의 거리가 변화하고 있는 것이 판명되었을 경우, 프로세서(10)는, 사용자가 손을 카메라(17)의 촬영 방향에 있어서 흔들고 있다고 인식한다. 카메라(17)의 촬영 범위보다 지향성이 강한 측거 센서(18)에 있어서, 물체가 검출되거나 되지 않거나 하는 경우에, 프로세서(10)는, 사용자가 손을 카메라의 촬영 방향에 직교하는 방향으로 흔들고 있다고 인식한다.
이와 같이, 프로세서(10)는, 카메라(17)의 촬영 화상에 대한 화상 인식에 의해, 사용자가 손을 움켜쥐고 있는지 여부(「주먹」의 제스처인지, 그 이외의 제스처(예를 들면 「보」)인지)를 검출한다. 또, 프로세서(10)는, 사용자의 손의 형상과 함께, 사용자가 이 손을 어떻게 이동시키고 있는지를 검출한다. 또, 프로세서(10)는, 사용자가 이 손을 사용자 단말(100)에 대해 접근시키고 있는지 멀리하고 있는지를 검출한다. 이러한 조작은, 예를 들면, 마우스 또는 터치 패널 등의 포인팅 디바이스를 이용한 조작에 대응시킬 수 있다. 사용자 단말(100)은, 예를 들면, 사용자의 손의 이동에 따라, 터치 스크린(15)에 있어서 포인터를 이동시켜, 사용자의 제스처 「주먹」을 검출한다. 이 경우, 사용자 단말(100)은, 사용자가 선택 조작을 계속 중이라고 인식한다. 선택 조작의 계속이란, 예를 들면, 마우스가 클릭되어 밀어넣어진 상태가 유지되는 것, 또는, 터치 패널에 대해 터치다운 조작이 이루어진 후 터치된 상태가 유지되는 것에 대응한다. 또, 사용자 단말(100)은, 사용자의 제스처 「주먹」이 검출되고 있는 상태에서, 추가로 사용자가 손을 이동시키면, 이러한 일련의 제스처를, 스와이프 조작(또는 드래그 조작)에 대응하는 조작으로서 인식할 수도 있다. 또, 사용자 단말(100)은, 카메라(17)의 촬영 화상에 의한 사용자의 손의 검출 결과에 의거하여, 사용자가 손가락을 튕기는 듯한 제스처를 검출했을 경우에, 당해 제스처를, 마우스의 클릭 또는 터치 패널로의 탭 조작에 대응하는 조작으로서 인식해도 된다.
<게임 시스템(1)의 기능적 구성>
도 2는, 게임 시스템(1)에 포함되는 사용자 단말(100), 서버(200) 및 동작 지시 장치(300)의 기능적 구성을 나타내는 블록도이다. 사용자 단말(100), 서버(200) 및 동작 지시 장치(300) 각각은, 도시하지 않는, 일반적인 컴퓨터로서 기능하는 경우에 필요한 기능적 구성, 및, 게임에 있어서의 공지의 기능을 실현하기 위해 필요한 기능적 구성을 포함할 수 있다.
사용자 단말(100)은, 사용자의 입력 조작을 받아들이는 입력 장치로서의 기능과, 게임의 화상이나 음성을 출력하는 출력 장치로서의 기능을 갖는다. 사용자 단말(100)은, 프로세서(10), 메모리(11), 스토리지(12), 통신 IF(13), 및 입출력 IF(14) 등의 협동에 의해, 제어부(110) 및 기억부(120)로서 기능한다.
서버(200)는, 각 사용자 단말(100)과 통신하여, 사용자 단말(100)이 게임을 진행시키는 것을 지원하는 기능을 갖는다. 예를 들면, 사용자 단말(100)이 본 게임에 따른 애플리케이션을 처음 다운로드할 때에는, 초회 게임 개시 시에 사용자 단말(100)에 기억시켜 두어야 할 데이터를 사용자 단말(100)에 제공한다. 예를 들면, 서버(200)는, 캐릭터를 동작시키기 위한 동작 지시 데이터를 사용자 단말(100)에 송신한다. 동작 지시 데이터는, 미리, 모델 등의 액터의 움직임을 입력한 모션 캡처 데이터를 포함하고 있어도 되고, 성우 등의 액터의 음성을 녹음한 음성 데이터를 포함하고 있어도 되며, 캐릭터를 동작시키기 위한 입력 조작의 이력을 나타내는 조작 이력 데이터를 포함하고 있어도 되고, 상술의 일련의 입력 조작에 대응지어진 커맨드를 시계열로 늘어놓은 모션 커맨드군을 포함하고 있어도 된다. 본 게임이 멀티플레이 게임인 경우에는, 서버(200)는, 게임에 참가하는 각 사용자 단말(100)과 통신하여, 사용자 단말(100)끼리의 주고받음을 중개하는 기능 및 동기(同期) 제어 기능을 갖고 있어도 된다. 또, 서버(200)는, 사용자 단말(100)과 동작 지시 장치(300)를 중개하는 기능을 구비하고 있다. 이에 의해, 동작 지시 장치(300)는, 적시에, 수신인을 틀리지 않고, 사용자 단말(100) 또는 복수의 사용자 단말(100)의 그룹에 대해 동작 지시 데이터를 공급하는 것이 가능해진다. 서버(200)는, 프로세서(20), 메모리(21), 스토리지(22), 통신 IF(23), 및 입출력 IF(24) 등의 협동에 의해, 제어부(210) 및 기억부(220)로서 기능한다.
동작 지시 장치(300)는, 사용자 단말(100)에 있어서의 캐릭터의 동작을 지시하기 위한 동작 지시 데이터를 생성하여, 사용자 단말(100)에 공급하는 기능을 갖는다. 동작 지시 장치(300)는, 프로세서(30), 메모리(31), 스토리지(32), 통신 IF(33), 및 입출력 IF(34) 등의 협동에 의해, 제어부(310) 및 기억부(320)로서 기능한다.
기억부(120, 220 및 320)는, 게임 프로그램(131), 게임 정보(132) 및 사용자 정보(133)를 저장한다. 게임 프로그램(131)은, 사용자 단말(100), 서버(200) 및 동작 지시 장치(300)가 실행하는 게임 프로그램이다. 게임 정보(132)는, 제어부(110, 210 및 310)가 게임 프로그램(131)을 실행할 때에 참조하는 데이터이다. 사용자 정보(133)는, 사용자의 어카운트에 관한 데이터이다. 기억부(220 및 320)에 있어서, 게임 정보(132) 및 사용자 정보(133)는, 사용자 단말(100)별로 저장되어 있다. 기억부(320)는, 또한, 캐릭터 제어 프로그램(134)을 저장한다. 캐릭터 제어 프로그램(134)은, 동작 지시 장치(300)가 실행하는 프로그램이며, 상술의 게임 프로그램(131)에 의거하는 게임에 등장시키는 캐릭터의 동작을 제어하기 위한 프로그램이다.
(서버(200)의 기능적 구성)
제어부(210)는, 기억부(220)에 저장된 게임 프로그램(131)을 실행함으로써, 서버(200)를 통괄적으로 제어한다. 예를 들면, 제어부(210)는, 사용자 단말(100)에 각종 데이터 및 프로그램 등을 송신한다. 제어부(210)는, 게임 정보 혹은 사용자 정보의 일부 또는 전부를 사용자 단말(100)로부터 수신한다. 게임이 멀티플레이 게임인 경우에는, 제어부(210)는, 사용자 단말(100)로부터 멀티플레이의 동기의 요구를 수신하고, 동기를 위한 데이터를 사용자 단말(100)에 송신해도 된다. 또, 제어부(210)는, 필요에 따라, 사용자 단말(100) 및 동작 지시 장치(300)와 통신하여, 정보의 송수신을 행한다.
제어부(210)는, 게임 프로그램(131)의 기술(記述)에 따라, 진행 지원부(211) 및 공유 지원부(212)로서 기능한다. 제어부(210)는, 실행하는 게임의 성질에 따라, 사용자 단말(100)에 있어서의 게임의 진행을 지원하기 위해, 도시하지 않는 그 외의 기능 블록으로서도 기능할 수 있다.
진행 지원부(211)는, 사용자 단말(100)과 통신하고, 사용자 단말(100)이, 본 게임에 포함되는 각종 파트를 진행하기 위한 지원을 행한다. 예를 들면, 진행 지원부(211)는, 사용자 단말(100)이, 게임을 진행시킬 때, 당해 게임을 진행시키기 위해 필요한 정보를 사용자 단말(100)에 제공한다.
공유 지원부(212)는, 복수의 사용자 단말(100)과 통신하고, 복수의 사용자가, 각각의 사용자 단말(100)로 서로의 데크를 서로 공유하기 위한 지원을 행한다. 또, 공유 지원부(212)는, 온라인의 사용자 단말(100)과 동작 지시 장치(300)를 매칭하는 기능을 갖고 있어도 된다. 이에 의해, 사용자 단말(100)과 동작 지시 장치(300) 사이의 정보의 송수신이 원활하게 실시된다.
(사용자 단말(100)의 기능적 구성)
제어부(110)는, 기억부(120)에 저장된 게임 프로그램(131)을 실행함으로써, 사용자 단말(100)을 통괄적으로 제어한다. 예를 들면, 제어부(110)는, 게임 프로그램(131) 및 사용자의 조작에 따라, 게임을 진행시킨다. 또, 제어부(110)는, 게임을 진행시키고 있는 동안, 필요에 따라, 서버(200) 및 동작 지시 장치(300)와 통신하여, 정보의 송수신을 행한다.
제어부(110)는, 게임 프로그램(131)의 기술에 따라, 조작 접수부(111), 표시 제어부(112), 사용자 인터페이스(이하, UI) 제어부(113), 애니메이션 생성부(114), 게임 진행부(115), 해석부(116) 및 진척 정보 생성부(117)로서 기능한다. 제어부(110)는, 실행하는 게임의 성질에 따라, 게임을 진행시키기 위해, 도시하지 않는 그 외의 기능 블록으로서도 기능할 수 있다.
조작 접수부(111)는, 입력부(151)에 대한 사용자의 입력 조작을 검지하여 받아들인다. 조작 접수부(111)는, 터치 스크린(15) 및 그 외의 입출력 IF(14)를 통한 콘솔에 대해 사용자가 미친 작용으로부터, 어떠한 입력 조작이 이루어졌는지를 판별하여, 그 결과를 제어부(110)의 각 요소에 출력한다.
예를 들면, 조작 접수부(111)는, 입력부(151)에 대한 입력 조작을 받아들이고, 당해 입력 조작의 입력 위치의 좌표를 검출하여, 당해 입력 조작의 종류를 특정한다. 조작 접수부(111)는, 입력 조작의 종류로서, 예를 들면 터치 조작, 슬라이드 조작, 스와이프 조작, 및 탭 조작 등을 특정한다. 또, 조작 접수부(111)는, 연속하여 검지되고 있었던 입력이 중단되면, 터치 스크린(15)으로부터 접촉 입력이 해제된 것을 검지한다.
UI 제어부(113)는, UI를 구축하기 위해 표시부(152)에 표시시키는 UI 오브젝트를 제어한다. UI 오브젝트는, 사용자가, 게임의 진행상 필요한 입력을 사용자 단말(100)에 대해 행하기 위한 툴, 또는, 게임의 진행 중에 출력되는 정보를 사용자 단말(100)로부터 얻기 위한 툴이다. UI 오브젝트는, 이것에는 한정되지 않는데, 예를 들면, 아이콘, 버튼, 리스트, 메뉴 화면 등이다.
애니메이션 생성부(114)는, 각종 오브젝트의 제어 양태에 의거하여, 각종 오브젝트의 모션을 나타내는 애니메이션을 생성한다. 예를 들면, 애니메이션 생성부(114)는, 캐릭터가 마치 그곳에 있는 것처럼 움직이거나, 입을 움직이거나, 표정을 바꾸거나 하는 모습을 표현한 애니메이션 등을 생성해도 된다.
표시 제어부(112)는, 터치 스크린(15)의 표시부(152)에 대해, 상술의 각 요소에 의해 실행된 처리 결과가 반영된 게임 화면을 출력한다. 표시 제어부(112)는, 애니메이션 생성부(114)에 의해 생성된 애니메이션을 포함하는 게임 화면을 표시부(152)에 표시해도 된다. 또, 표시 제어부(112)는, UI 제어부(113)에 의해 제어되는 상술의 UI 오브젝트를, 당해 게임 화면에 중첩하여 묘화해도 된다.
게임 진행부(115)는, 게임을 진행시킨다. 본 실시 형태에서는, 게임 진행부(115)는, 본 게임을, 조작 접수부(111)를 통해 입력되는 사용자의 입력 조작에 따라 진행시킨다. 게임 진행부(115)는, 게임의 진행 중, 1 이상의 캐릭터를 등장시키고, 당해 캐릭터를 동작시킨다. 게임 진행부(115)는, 캐릭터를, 사전에 다운로드된 게임 프로그램(131)에 따라 동작시켜도 되고, 사용자의 입력 조작에 따라 동작시켜도 되며, 동작 지시 장치(300)로부터 공급되는 동작 지시 데이터에 따라 동작시켜도 된다.
본 게임이, 제1 파트, 제2 파트…와 같이 복수의 파트로 나누어져 구성되어 있는 경우, 게임 진행부(115)는, 파트마다의 사양에 따라 게임을 진행시킨다.
일례를 들어 구체적으로 설명하면, 제1 파트가, 캐릭터와 대화함으로써 게임 중의 이야기가 진행되는 스토리 파트라고 하자. 이 경우, 게임 진행부(115)는, 이하와 같이 스토리 파트를 진행시킨다. 구체적으로는, 게임 진행부(115)는, 캐릭터를, 미리 다운로드된 게임 프로그램(131) 또는 동일하게 미리 다운로드된 동작 지시 데이터(제1 동작 지시 데이터) 등에 따라 캐릭터를 동작시킨다. 게임 진행부(115)는, 조작 접수부(111)가 받아들인 사용자의 입력 조작에 의거하여, 당해 사용자가 선택한 선택지를 특정하고, 당해 선택지에 대응지어져 있는 동작을 캐릭터로 하여금 행하게 한다. 제2 파트가, 동작 지시 장치(300)로부터 공급된 동작 지시 데이터에 의거하여 캐릭터를 동작시키는 라이브 전송 파트라고 하자. 이 경우, 게임 진행부(115)는, 동작 지시 장치(300)로부터 동작 지시 데이터에 의거하여, 캐릭터를 동작시켜 라이브 전송 파트를 진행시킨다.
해석부(116)는, 동작 지시 데이터를 해석하고(렌더링하고), 해석 결과에 의거하여 캐릭터를 동작시키도록 게임 진행부(115)에 지시한다. 본 실시 형태에서는, 해석부(116)는, 동작 지시 장치(300)에 의해 공급된 동작 지시 데이터가 통신 IF(33)를 통해 수신된 것을 트리거로 하여, 당해 동작 지시 데이터의 렌더링을 개시한다. 동작 지시 장치(300)는, 해석 결과를 게임 진행부(115)에 전달하고, 곧바로 동작 지시 데이터에 의거하여 캐릭터를 동작시키도록 지시한다. 즉, 게임 진행부(115)는, 동작 지시 데이터가 수신된 것을 트리거로 하여, 당해 동작 지시 데이터에 의거하여 캐릭터를 동작시킨다. 이에 의해, 리얼타임으로 동작하는 캐릭터를 사용자에게 보이는 것이 가능해진다.
진척 정보 생성부(117)는, 게임 진행부(115)가 실행하고 있는 게임의 진척을 나타내는 진척 정보를 생성하고, 적시에, 서버(200) 또는 동작 지시 장치(300)에 송신한다. 진척 정보는, 예를 들면, 현재 표시되고 있는 게임 화면을 지정하는 정보를 포함하고 있어도 되고, 게임의 진척을, 시계열로 문자 및 기호 등에 의해 나타낸 진행 로그를 포함하고 있어도 된다. 게임 시스템(1)에 있어서, 서버(200) 및 동작 지시 장치(300)가 진척 정보를 필요로 하지 않는 실시 형태에서는, 진척 정보 생성부(117)는 생략되어도 된다.
(동작 지시 장치(300)의 기능적 구성)
제어부(310)는, 기억부(320)에 저장된 캐릭터 제어 프로그램(134)을 실행함으로써, 동작 지시 장치(300)를 통괄적으로 제어한다. 예를 들면, 제어부(310)는, 캐릭터 제어 프로그램(134) 및 오퍼레이터의 조작에 따라, 동작 지시 데이터를 생성하여, 사용자 단말(100)에 공급한다. 제어부(310)는, 필요에 따라, 추가로 게임 프로그램(131)을 실행해도 된다. 또, 제어부(310)는, 서버(200) 및 본 게임을 실행 중의 사용자 단말(100)과 통신하여, 정보의 송수신을 행한다.
제어부(310)는, 캐릭터 제어 프로그램(134)의 기술에 따라, 조작 접수부(311), 표시 제어부(312), UI 제어부(313), 애니메이션 생성부(314), 진척 모의부(315) 및 캐릭터 제어부(316)로서 기능한다. 제어부(310)는, 게임 시스템(1)에 있어서 실행되는 게임의 성질에 따라, 당해 게임에 등장하는 캐릭터를 제어하기 위해, 도시하지 않는 그 외의 기능 블록으로서도 기능할 수 있다.
조작 접수부(311)는, 입력부(351)에 대한 오퍼레이터의 입력 조작을 검지하여 받아들인다. 조작 접수부(311)는, 터치 스크린(35) 및 그 외의 입출력 IF(34)를 통한 콘솔에 대해, 오퍼레이터가 미친 작용으로부터, 어떠한 입력 조작이 이루어졌는지를 판별하고, 그 결과를 제어부(310)의 각 요소에 출력한다. 조작 접수부(311)의 기능의 상세는, 사용자 단말(100)에 있어서의 조작 접수부(111)의 그것과 거의 동일하다.
UI 제어부(313)는, 표시부(352)에 표시시키는 UI 오브젝트를 제어한다.
애니메이션 생성부(314)는, 각종 오브젝트의 제어 상태에 의거하여, 각종 오브젝트의 모션을 나타내는 애니메이션을 생성한다. 예를 들면, 애니메이션 생성부(314)는, 통신 상대가 되는 사용자 단말(100)상 실제로 표시되고 있는 게임 화면을 재현한 애니메이션 등을 생성해도 된다.
표시 제어부(312)는, 터치 스크린(35)의 표시부(352)에 대해, 상술의 각 요소에 의해 실행된 처리 결과가 반영된 게임 화면을 출력한다. 표시 제어부(312)의 기능의 상세는, 사용자 단말(100)에 있어서의 표시 제어부(112)의 그것과 거의 동일하다.
진척 모의부(315)는, 사용자 단말(100)로부터 수신하는 게임의 진척을 나타내는 진척 정보에 의거하여, 사용자 단말(100)에 있어서의 게임의 진척을 파악한다. 그리고, 진척 모의부(315)는, 당해 사용자 단말(100)의 거동을 동작 지시 장치(300)에 있어서 모의적으로 재현함으로써, 오퍼레이터에 대해, 사용자 단말(100)의 진척을 제시한다.
예를 들면, 진척 모의부(315)는, 사용자 단말(100)로 표시되고 있는 게임 화면을 재현한 것을 자(自)장치의 표시부(352)에 표시해도 된다. 또, 진척 모의부(315)는, 사용자 단말(100)에 있어서, 게임의 진척을 상술의 진행 로그로서 표시부(352)에 표시해도 된다.
또, 진척 모의부(315)의 기능의 일부는, 제어부(310)가 게임 프로그램(131)을 실행함으로써 실현되어도 된다. 예를 들면, 우선 진척 모의부(315)는, 진척 정보에 의거하여, 사용자 단말(100)의 게임의 진척을 파악한다. 그리고, 진척 모의부(315)는, 사용자 단말(100)에 있어서 게임 프로그램(131)에 의거하여 현재 표시되고 있는, 게임 화면을, 완전하게 또는 간략화하여 자장치의 표시부(352)에 재현해도 된다. 혹은, 진척 모의부(315)는, 현시점의 게임의 진척을 파악하고, 게임 프로그램(131)에 의거하여 현시점 이후의 게임 진행을 예측하여, 예측 결과를 표시부(352)에 출력해도 된다.
캐릭터 제어부(316)는, 사용자 단말(100)에 표시시키는 캐릭터의 거동을 제어한다. 구체적으로는, 캐릭터를 동작시키기 위한 동작 지시 데이터를 생성하여, 사용자 단말(100)에 공급한다. 예를 들면, 캐릭터 제어부(316)는, 오퍼레이터(성우 등)가, 마이크(3010)를 통해 입력한 음성 데이터에 의거하여, 제어 대상의 캐릭터로 하여금 발언하게 하는 것을 지시하는 동작 지시 데이터를 생성한다. 이와 같이 하여 생성된 동작 지시 데이터에는, 상술의 음성 데이터가 적어도 포함된다. 또, 예를 들면, 오퍼레이터(모델 등)가, 모션 캡처 장치(3020)를 통해 입력한 모션 캡처 데이터에 의거하는 움직임을 제어 대상의 캐릭터로 하여금 행하게 하는 것을 지시하는 동작 지시 데이터를 생성한다. 이와 같이 하여 생성된 동작 지시 데이터에는, 상술의 모션 캡처 데이터가 적어도 포함된다. 또, 예를 들면, 오퍼레이터가, 컨트롤러(3030) 등의 입력 기구 또는 입력부(351) 등의 조작부를 통해 입력한 입력 조작의 이력, 즉, 조작 이력 데이터에 의거하여, 제어 대상의 캐릭터를 동작시키는 것을 지시하는 동작 지시 데이터를 생성한다. 이와 같이 하여 생성된 동작 지시 데이터에는, 상술의 조작 이력 데이터가 적어도 포함된다. 조작 이력 데이터는, 예를 들면, 표시부에 어느 화면이 표시되고 있을 때에, 오퍼레이터가, 컨트롤러(3030)의 어느 버튼을 어느 타이밍으로 눌렀는지를 나타내는 조작 로그가 시계열로 정리되어 있는 정보이다. 여기서의 표시부는, 컨트롤러(3030)와 연동된 표시부이며, 터치 스크린(35)의 표시부(352)여도 되고, 입출력 IF(34)를 통해 접속된 다른 표시부여도 된다. 혹은, 캐릭터 제어부(316)는, 오퍼레이터가 상술의 입력 기구 또는 조작부를 통해 입력한 입력 조작에 대응지어진, 캐릭터의 동작을 지시하는 커맨드를 특정한다. 그리고, 캐릭터 제어부(316)는, 당해 커맨드를 입력된 순으로 늘어놓고 캐릭터의 일련의 동작을 나타내는 모션 커맨드군을 생성하여, 당해 모션 커맨드군에 따라 캐릭터를 동작시키는 것을 지시하는 동작 지시 데이터를 생성해도 된다. 이와 같이 하여 생성된 동작 지시 데이터에는, 상술의 모션 커맨드군이 적어도 포함된다.
반응 처리부(317)는, 사용자 단말(100)로부터 사용자의 반응에 대해 피드백을 받아들이고, 이것을 동작 지시 장치(300)의 오퍼레이터에 대해 출력한다. 본 실시 형태에서는, 예를 들면, 사용자 단말(100)은, 상술의 동작 지시 데이터에 따라 캐릭터를 동작시키고 있는 동안, 당해 캐릭터 앞으로, 사용자가 코멘트를 작성할 수 있다. 반응 처리부(317)는, 당해 코멘트의 코멘트 데이터를 받아들이고, 이것을, 출력한다. 반응 처리부(317)는, 사용자의 코멘트에 대응하는 텍스트 데이터를, 표시부(352)에 표시해도 되고, 사용자의 코멘트에 대응하는 음성 데이터를, 도시하지 않는 스피커로부터 출력해도 된다.
또한, 도 2에 나타내는 사용자 단말(100), 서버(200) 및 동작 지시 장치(300)의 기능은 일례에 지나지 않는다. 사용자 단말(100), 서버(200) 및 동작 지시 장치(300)의 각 장치는, 다른 장치가 구비하는 기능의 적어도 일부를 구비하고 있어도 된다. 또한, 사용자 단말(100), 서버(200) 및 동작 지시 장치(300) 이외의 추가로 다른 장치를 게임 시스템(1)의 구성요소로 하고, 당해 다른 장치에 게임 시스템(1)에 있어서의 처리의 일부를 실행시켜도 된다. 즉, 본 실시 형태에 있어서 게임 프로그램을 실행하는 컴퓨터는, 사용자 단말(100), 서버(200), 동작 지시 장치(300) 및 그 이외의 다른 장치 중 어느 쪽이어도 되고, 이들 복수의 장치의 조합에 의해 실현되어도 된다.
또한, 본 실시 형태에서는, 진척 모의부(315)는, 생략되어도 된다. 또, 본 실시 형태에서는, 제어부(310)는, 캐릭터 제어 프로그램(134)의 기술에 따라, 반응 처리부(317)로서 기능할 수 있다.
<게임의 구성>
도 3은, 본 게임의 기본적인 게임 진행에 대해 그 일례를 나타내는 플로차트이다. 본 게임은, 예를 들면, 2개의 게임 플레이 파트로 나누어져 있다. 일례로서, 제1 파트는, 스토리 파트, 제2 파트는, 라이브 전송 파트이다. 본 게임에는, 그 외에도, 사용자가 보유하는 유가(有價) 데이터와 상환하여, 게임에서 이용 가능한 디지털 데이터인 게임 매체를 사용자로 하여금 획득하게 하는 획득 파트가 포함되어 있어도 된다. 본 실시 형태에서는, 각 파트의 플레이 순서는 특별히 한정되지 않는다. 도 3에는, 사용자 단말(100)이, 스토리 파트, 획득 파트, 라이브 전송 파트의 순으로 게임을 실행했을 경우가 나타내어져 있다.
단계 S1에서는, 게임 진행부(115)는, 스토리 파트를 실행한다. 스토리 파트에는, 고정 시나리오(S11a) 및 획득 시나리오(12a)가 포함된다(후술). 스토리 파트에는, 예를 들면, 사용자가 조작하는 주인공과 캐릭터가 대화하는 신이 포함된다. 본 실시 형태에서는, 일례로서, 디지털 데이터로서 하나로 합쳐진 「시나리오」는, 캐릭터에 얽힌 이야기의 1화분에 대응하여, 서버(200)로부터 공급되고, 일단 기억부(120)에 저장된다. 게임 진행부(115)는, 스토리 파트에 있어서, 기억부(120)에 저장되어 있는 시나리오를 1개 읽어내고, 결말을 맞이할 때까지 1개 시나리오를 사용자의 입력 조작에 따라 진행시킨다. 시나리오에는, 사용자로 하여금 선택하게 하는 선택지, 당해 선택지에 대응하는 캐릭터의 응답 패턴 등이 포함되어 있으며, 사용자가 어느 선택지를 선택할지에 따라, 1개의 시나리오 중에서도, 상이한 결말이 얻어져도 된다. 구체적으로는, 게임 진행부(115)는, 주인공으로부터 캐릭터에 대한 작용에 대응하는 복수의 선택지를 사용자가 선택 가능하게 제시하고, 당해 사용자가 선택한 선택지에 따라, 시나리오를 진행시킨다.
단계 S2에서는, 사용자가 마지막까지 시나리오를 플레이하면, 게임 진행부(115)는, 결말에 따른 보수를 당해 사용자로 하여금 획득하게 해도 된다. 보수는, 예를 들면, 게임 상에서 이용 가능한 디지털 데이터인 게임 매체로서 사용자에게 제공된다. 게임 매체는, 예를 들면, 캐릭터로 하여금 몸에 걸치게 할 수 있는 복식품 등의 아이템이어도 된다. 여기서, 「보수를 사용자로 하여금 획득하게 한다」란, 일례로서, 사용자에 대응지어 관리되고 있는 보수로서의 게임 매체의 스테이터스를, 사용 불가에서 사용 가능하게 천이시키는 것이어도 된다. 혹은, 게임 매체를, 사용자 식별 정보 또는 사용자 단말 ID 등에 대응지어, 게임 시스템(1)에 포함되는 적어도 어느 하나의 메모리(메모리(11), 메모리(21), 메모리(31))에 기억시키는 것이어도 된다.
단계 S3에서는, 게임 진행부(115)가 획득 파트를 실행한다. 획득 파트에 있어서, 사용자로 하여금 획득하게 하는 게임 매체는, 초회 다운로드 시에 사용자 단말(100)에 제공되는 시나리오와는 다른 새로운 시나리오여도 된다. 이하에서는, 전자의 시나리오를 고정 시나리오, 후자의 시나리오를 획득 시나리오라고 칭한다. 양자를 구별할 필요가 없을 경우는, 간단히, 시나리오라고 칭한다.
획득 파트에서는, 예를 들면, 게임 진행부(115)는, 사용자의 유가 데이터를 소비하는 것과 상환하여, 사용자가 이미 보유하고 있는 고정 시나리오와는 다른 획득 시나리오를 사용자로 하여금 보유하게 한다. 사용자로 하여금 획득하게 하는 시나리오는, 게임 진행부(115), 또는, 서버(200)의 진행 지원부(211)에 의해, 소정의 규칙에 따라 결정되어도 된다. 보다 구체적으로는, 게임 진행부(115), 또는, 진행 지원부(211)는, 추첨을 실행하고, 복수의 획득 시나리오 중에서 랜덤으로, 사용자로 하여금 획득하게 하는 시나리오를 결정해도 된다. 획득 파트는, 스토리 파트 및 라이브 전송 파트의 전후의 임의의 타이밍으로 실행되어도 된다.
단계 S4에서는, 게임 진행부(115)는, 네트워크를 통해 외부의 장치로부터, 동작 지시 데이터를 수신했는지 여부를 판정한다. 동작 지시 데이터를 외부의 장치로부터 수신하기 전에는, 게임 진행부(115)는, 단계 S4의 NO로부터, 예를 들면, 단계 S1로 돌아와, 스토리 파트를 실행해도 된다. 혹은, 게임 진행부(115)는, 단계 S3의 획득 파트를 실행해도 된다. 한편, 동작 지시 데이터를 외부의 장치로부터 수신했을 경우는, 게임 진행부(115)는, 단계 S4의 YES로부터 단계 S5로 진행된다.
단계 S5에서는, 게임 진행부(115)는, 라이브 전송 파트(제2 파트)를 실행한다. 구체적으로는, 게임 진행부(115)는, 단계 S4에서 수신한 동작 지시 데이터에 따라 캐릭터를 동작시킴으로써, 라이브 전송 파트를 진행시킨다. 사용자는, 단계 S1에서는, 시나리오에 있어서, 미리 정해진 반응을 나타내는 캐릭터와 간단히 UI를 통해 대화하는 것뿐이었다. 그러나, 사용자는, 라이브 전송 파트에 있어서는, 외부의 장치로부터 송신된 동작 지시 데이터에 의거하여 리얼타임으로 동작하는 캐릭터와 자유롭게 인터랙티브하게 대화할 수 있다. 보다 구체적으로는, 해석부(116)는, 사용자의 입력 조작의 내용에 따라 생성된 음성 데이터 및 모션 데이터를 포함하는 동작 지시 데이터를 동작 지시 장치(300)로부터 수신한다. 그리고, 게임 진행부(115)는, 수신된 동작 지시 데이터에 포함되는 음성 데이터에 의거하여, 캐릭터로 하여금 발화(發話)하게 함과 더불어, 상술의 모션 데이터에 의거하여 캐릭터에 움직임을 붙인다. 이에 의해, 상술의 사용자의 입력 조작에 대한 캐릭터의 반응을, 사용자에게 제시할 수 있다.
<처리 개요>
본 실시 형태에서는, 사용자 단말(100)은, 게임 프로그램(131)에 의거하여, 게임의 흥취성을 향상시키기 위해 이하의 단계를 실행하도록 구성되어 있다. 구체적으로는, 사용자 단말(100)은, 사용자 및 다른 사용자 모두가 조작하지 않는 NPC의 동작을 지정하는 동작 지시 데이터이며, 메모리(11)에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시켜, 조작부(입출력 IF(14), 터치 스크린(15), 카메라(17), 측거 센서(18))를 통해 입력된 사용자의 입력 조작에 따라 제1 파트를 진행시키는 단계와, NPC 제어 장치(동작 지시 장치(300))로부터 수신한 제2 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써 제2 파트를 진행시키는 단계를 실행한다.
상술의 구성에 의하면, 사용자 단말(100)은, 제1 파트에 있어서, 미리 다운로드된 제1 동작 지시 데이터에 의거하여 NPC를 동작시킨다. 이에 추가하여, 사용자 단말(100)은, 동작 지시 장치(300)로부터 제2 동작 지시 데이터를 수신하고, 제2 파트에 있어서, 제2 동작 지시 데이터에 의거하여 NPC를 동작시킨다. 동작 지시 장치(300)로부터 수신한 제2 동작 지시 데이터에 의거하여 NPC를 동작시킬 수 있기 때문에, NPC의 동작은, 틀에 박히지 않고, 그 표현은 큰폭으로 넓어진다. 그 때문에, 사용자는, 게임 플레이 중의 NPC와의 관계를 통해, 당해 NPC가 마치 현실의 세계에 있을 것 같은 현실감을 느낄 수 있다. 결과적으로, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시킨다는 효과를 나타낸다.
<데이터 구조>
(동작 지시 데이터)
도 4는, 본 실시 형태에 따른 게임 시스템(1)에서 처리되는 동작 지시 데이터의 데이터 구조의 일례를 나타내는 도면이다. 일례로서, 동작 지시 데이터는, 메타 정보인, 「수신인」, 「작성원」의 각 항목과, 데이터의 내용인, 「캐릭터 ID」, 「음성」, 「움직임」의 각 항목을 포함하여 구성되어 있다.
항목 「수신인」에는, 수신인 지정 정보가 저장되어 있다. 수신인 지정 정보는, 당해 동작 지시 데이터가, 어느 장치 앞으로 송신된 것인지를 나타내는 정보이다. 수신인 지정 정보는, 예를 들면, 사용자 단말(100) 고유의 주소여도 되고, 사용자 단말(100)이 소속해 있는 그룹의 식별 정보여도 된다. 어느 조건을 만족하는 모든 사용자 단말(100)을 수신인으로 하고 있는 것을 나타내는 기호(예를 들면, 「ALL」 등)여도 된다.
항목 「작성원」에는, 작성원 정보가 저장되어 있다. 작성원 정보는, 당해 동작 지시 데이터가, 어느 장치에 의해 작성된 것인지를 나타내는 정보이다. 작성원 정보는, 예를 들면, 사용자 ID, 사용자 단말 ID, 사용자 단말의 고유 주소 등, 어느 특정 사용자를 특정 가능한, 사용자에 관련되는 정보(이하, 사용자 관련 정보)이다. 작성원 정보는, 서버(200) 또는 동작 지시 장치(300)를 가리키는 ID 또는 주소여도 되고, 작성원이, 서버(200) 또는 동작 지시 장치(300)인 경우에는, 당해 항목의 값을 빈 채로 해 두어도 되며, 당해 항목 자체를 동작 지시 데이터에 형성하지 않도록 해도 된다.
항목 「캐릭터 ID」에는, 본 게임에 등장하는 캐릭터를 일의로 식별하기 위한 캐릭터 ID가 저장되어 있다. 여기에 저장되어 있는 캐릭터 ID는, 당해 동작 지시 데이터가 어느 캐릭터의 동작을 지시하기 위한 것인지를 나타내고 있다.
항목 「음성」에는, 캐릭터로 하여금 발현하게 하는 음성 데이터가 저장되어 있다. 항목 「움직임」에는, 캐릭터의 움직임을 지정하는 모션 데이터가 저장되어 있다. 모션 데이터는, 일례로서, 모션 캡처 장치(3020)를 통해 동작 지시 장치(300)가 취득한 모션 캡처 데이터여도 된다. 모션 캡처 데이터는, 액터의 몸 전체의 움직임을 추적한 데이터여도 되고, 액터의 얼굴의 표정 및 입의 움직임을 추적한 데이터여도 되며, 그 양쪽이어도 된다. 모션 데이터는, 다른 예로서, 컨트롤러(3030)를 통해 동작 지시 장치(300)의 오퍼레이터가 입력한 조작에 의해 특정된, 캐릭터의 일련의 움직임을 지시하는 모션 커맨드군이어도 된다. 예를 들면, 컨트롤러(3030)의 버튼 A, 버튼 B, 버튼 C, 버튼 D에 각각, 「오른손을 든다」, 「왼손을 든다」, 「걷는다」, 「달린다」의 커맨드가 할당되어 있는 경우에, 오퍼레이터가, 버튼 A, 버튼 B, 버튼 C, 버튼 D를 계속하여 순서대로 눌렀다고 하자. 이 경우에는, 「오른손을 든다」, 「왼손을 든다」, 「걷는다」, 「달린다」의 각 커맨드가 상술의 순으로 늘어놓아진 모션 커맨드군이, 모션 데이터로서, 「움직임」의 항목에 저장된다. 또한, 본 실시 형태에서는, 음성 데이터와 모션 데이터는 동기가 취해진 상태로, 동작 지시 데이터에 포함되어 있다.
이러한 동작 지시 데이터를 수신함으로써, 게임 진행부(115)는, 게임에 등장하는 캐릭터를, 당해 동작 지시 데이터의 작성원의 의도대로 동작시킬 수 있다. 구체적으로는, 게임 진행부(115)는, 동작 지시 데이터에 음성 데이터가 포함되어 있는 경우에는, 당해 음성 데이터에 의거하여 캐릭터로 하여금 발화하게 한다. 또, 게임 진행부(115)는, 동작 지시 데이터에 모션 데이터가 포함되어 있는 경우에는, 당해 모션 데이터에 의거하여 캐릭터를 움직인다, 즉, 모션 데이터에 의거하는 움직임을 하도록 당해 캐릭터의 애니메이션을 생성한다.
(게임 정보)
도 5는, 본 실시 형태에 따른 게임 시스템(1)에서 처리되는 게임 정보(132)의 데이터 구조의 일례를 나타내는 도면이다. 게임 정보(132)에 있어서 형성되는 항목은, 게임의 장르, 성질, 내용 등에 따라 적절히 결정되는 것이며, 예시의 항목은, 본 발명의 범위를 한정하는 것은 아니다. 일례로서, 게임 정보(132)는, 「플레이 이력」, 「아이템」, 「친밀도」, 「지명도」 및 「전송 이력」의 각 항목을 포함하여 구성되어 있다. 이들 각 항목은, 게임 진행부(115)가 게임을 진행시킬 때에 적절히 참조된다.
항목 「플레이 이력」에는, 사용자의 플레이 이력이 저장되어 있다. 플레이 이력은, 기억부(120)에 기억되어 있는 시나리오별로, 사용자의 플레이가 완수되어 있는지 여부를 나타내는 정보이다. 예를 들면, 플레이 이력은, 플레이 초회에 다운로드된 고정 시나리오의 리스트와, 획득 파트에 있어서 나중에 획득된 획득 시나리오의 리스트를 포함한다. 각각의 리스트에 있어서, 시나리오별로, 「플레이 완료」, 「미(未)플레이」, 「플레이 가능」, 「플레이 불가」 등의 스테이터스가 연관되어 있다.
항목 「아이템」에는, 사용자가 보유하는 게임 매체로서의 아이템 일람이 저장되어 있다. 본 게임에 있어서, 아이템은, 일례로서, 캐릭터로 하여금 몸에 걸치게 하는 복식품이다. 사용자는, 시나리오를 플레이함으로써 얻어진 아이템을, 캐릭터로 하여금 몸에 걸치게 하여, 캐릭터의 외형을 커스터마이즈할 수 있다.
항목 「친밀도」에는, 캐릭터의 스테이터스의 하나인 친밀도가 저장되어 있다. 친밀도는, 사용자의 말하자면 분신인 「주인공」을, 캐릭터와의 사이의 좋음을 나타내는 파라미터이다. 예를 들면, 게임 진행부(115)는, 친밀도가 높을수록, 게임을 사용자에게 있어서 유리하게 진행시켜도 된다. 예를 들면, 게임 진행부(115)는, 시나리오의 플레이 결과의 좋고 나쁨에 따라, 친밀도를 증감해도 된다. 일례로서, 게임 진행부(115)는, 사용자가 잘 선택지를 선택하여, 시나리오에 있어서 맞이한 결말이 좋은 내용일수록, 친밀도를 많이 증분한다. 반대로, 게임 진행부(115)는, 사용자가, 시나리오를 배드엔드로 맞이했을 경우에는, 친밀도를 줄여도 된다.
항목 「지명도」에는, 캐릭터의 스테이터스의 하나인 지명도가 저장되어 있다. 지명도는, 캐릭터가, 동영상 전송자로서 갖는 인기의 높음 및 인지도 등을 나타내는 파라미터이다. 캐릭터의 동영상 전송 활동을 응원하여, 당해 캐릭터의 지명도를 높여, 당해 캐릭터의 꿈을 실현하는 것이 본 게임의 목적의 하나가 된다. 일례로서, 일정 이상의 지명도를 달성할 수 있었던 사용자에 대해서는, 특별한 시나리오가 보수로서 제공되어도 된다.
항목 「전송 이력」에는, 라이브 전송 파트에 있어서, 과거에 캐릭터로부터 라이브 전송된 동영상, 이른바 백넘버의 일람이 저장되어 있다. 라이브 전송 파트에 있어서, 리얼타임으로 PUSH 전송되고 있는 동영상은, 그 때 밖에 열람할 수 없다. 한편, 과거의 전송분의 동영상은, 서버(200) 또는 동작 지시 장치(300)에 있어서 녹화되어 있으며, 사용자 단말(100)로부터의 리퀘스트에 따라, PULL 전송하는 것이 가능하다. 본 실시 형태에서는, 일례로서, 백넘버는, 사용자가 과금함으로써, 다운로드할 수 있도록 해도 된다.
<스토리 파트의 화면예>
도 6은, 사용자 단말(100)의 표시부(152)에 표시되는 퀘스트 제시 화면(400)의 일례를 나타내는 도면이다. 게임 진행부(115)는, 스토리 파트에 있어서, 시나리오를 진행 중, 게임 프로그램(131)에 따라, 사용자에 대해 퀘스트를 제시한다. 구체적으로는, 게임 진행부(115)는, 주인공과 캐릭터의 대화 속에서, 캐릭터로부터 주인공에 대해, 퀘스트에 상당하는 의뢰 사항을 발언하게 한다. 이 때, 예를 들면, 게임 진행부(115)는, 도 6에 나타내는 퀘스트 제시 화면(400)을 표시부(152)에 표시시켜도 된다.
「캐릭터로 하여금 의뢰 사항을 발언하게 한다」라는 일련의 동작을 행하는 캐릭터를 제시하는 방법은 특별히 한정되지 않는다. 예를 들면, 게임 진행부(115)는, 미리 기억부(120)에 기억되어 있는, 의뢰 사항에 대응하는 텍스트 데이터에 의거하여, 그것을 발화하는 캐릭터를 정지 영상으로 표시해도 된다. 구체적으로는, 게임 진행부(115)는, 캐릭터(401)와, 캐릭터(401)의 발언임을 나타내는 말풍선(402)과, 말풍선(402) 내에 배치된 의뢰 사항의 텍스트 데이터를 포함하는 퀘스트 제시 화면(400)을 표시부(152)에 표시시킨다. 혹은, 게임 진행부(115)는, 미리 기억부(120)에 기억되어 있는, 의뢰 사항을 발화하는 신에 대응하는 동작 지시 데이터에 의거하여, 그것을 발화하는 캐릭터의 애니메이션을 표시해도 된다. 구체적으로는, 게임 진행부(115)는, 캐릭터(401)를, 동작 지시 데이터에 포함되는 모션 캡처 데이터에 따라 움직이면서, 당해 동작 지시 데이터에 포함되는 음성 데이터를 사용자 단말(100)이 구비하는 도시하지 않는 스피커로부터 음성으로서 출력한다.
본 실시 형태에서는, 일례로서, 게임 진행부(115)는, 퀘스트를, 사용자 단말(100)의 위치 등록 정보를 이용한 위치 정보 게임에 의해 실현해도 된다. 게임 진행부(115)는, 사용자 단말(100)에 구비되어 있는 도시하지 않는 위치 등록 시스템으로부터, 사용자 단말(100)의 현재 위치 정보(예를 들면, 주소 정보, 위도 경도 정보 등)를 취득한다. 그리고, 취득한 현재 위치 정보에 의거하여, 사용자 단말(100)이 있는 장소 주변의 지도(403)를 생성하여, 퀘스트 제시 화면(400)에 배치한다. 또한 지도(403)를 생성하는 바탕이 되는 지도 데이터는, 미리 사용자 단말(100)의 기억부(120)에 기억되어 있어도 되고, 지도 데이터를 제공하는 다른 서비스 제공 장치로부터 네트워크를 통해 취득되어도 된다.
계속하여, 게임 진행부(115)는, 의뢰 사항을 해결할 수 있는 사물(이하, 목표물)을 획득할 수 있는 위치(주소, 위도 경도 등)를 결정하고, 결정한 위치에 대응하는 지도 상의 위치에, 목표 아이콘(404)을 중첩 표시시킨다. 이에 의해, 사용자는, 사용자 단말(100)을 갖고, 지도(403) 상의 목표 아이콘(404)의 위치까지 이동하면, 목표물을 획득하여, 퀘스트를 클리어할 수 있다고 이해할 수 있다. 목표물의 위치에 대해, 게임 진행부(115)는, 랜덤으로 결정해도 되고, 시나리오, 퀘스트, 목표물의 내용에 따라 미리 결정되어 있어도 된다.
사용자가, 목표 아이콘(404)의 위치에 상당하는 실제의 위치에 사용자 단말(100)을 들고 가면, 게임 진행부(115)는, 주인공이 목표물에 도달했다고 판정하여, 사용자로 하여금, 목표물을 획득하게 한다. 게임 진행부(115)는, 이에 의해, 퀘스트가 클리어되었다고 판정한다.
본 실시 형태에서는, 게임 진행부(115)는, 퀘스트가 클리어되면, 퀘스트 해결 화면(500)을 생성하여, 표시부(152)에 표시시켜도 된다. 도 7은, 사용자 단말(100)의 표시부(152)에 표시되는 퀘스트 해결 화면(500)의 일례를 나타내는 도면이다. 일례로서, 퀘스트 해결 화면(500)은, 캐릭터(401)를 포함한다. 예를 들면, 게임 진행부(115)는, 캐릭터(401)로 하여금, 「의뢰 사항이 해결된 것에 대해 주인공에 대해 예를 표한다」라는 동작을 행하게 한다. 게임 진행부(115)는, 이 동작을, 미리 기억되어 있는 동작 지시 데이터에 의거하여 캐릭터(401)로 하여금 행하게 해도 된다. 혹은, 게임 진행부(115)는, 캐릭터(401)의 정지 영상과 발언 내용에 대응하는 텍스트 데이터(501)를 퀘스트 해결 화면(500)에 배치함으로써, 캐릭터(401)가 예를 표하고 있는 신을 재현해도 된다.
본 실시 형태에서는, 게임 진행부(115)는, 퀘스트가 클리어된 보수로서, 의뢰주인 캐릭터(401)에 얽힌 새로운 고정 시나리오를 1개 해방하여, 사용자가 플레이 가능한 상태로 천이시켜도 된다. 구체적으로는, 게임 진행부(115)는, 도 5에 나타내는 플레이 이력을 읽어내고, 소정의 고정 시나리오의 스테이터스를 「플레이 불가」에서 「플레이 가능」으로 갱신한다.
또한, 게임 진행부(115)는, 퀘스트가 클리어된 것에 의거하여, 주인공과 캐릭터의 친밀도를 증분해도 된다. 게임 진행부(115)는, 퀘스트의 플레이 내용(소요 시간, 이동 거리, 획득 개수, 캐릭터의 기쁨의 정도, 획득된 목표물의 희귀도 등)이 좋을수록, 친밀도를 높이는 구성이어도 된다.
사용자가 1 이상의 퀘스트를 클리어하거나, 선택지를 선택하거나 함으로써, 캐릭터와의 대화가 진행되고, 시나리오가 진행되어 간다. 시나리오가 1개의 결말을 맞이하면, 사용자는, 시나리오의 플레이를 완수한 것이 된다.
게임 진행부(115)는, 시나리오를 사용자가 플레이한 것의 보수로서, 아이템을 사용자로 하여금 획득하게 해도 된다. 아이템은, 예를 들면, 캐릭터(401)로 하여금 몸에 걸치게 하는 복식품이다. 게임 진행부(115)는, 사용자로 하여금 획득하게 하는 아이템을 소정의 규칙에 의거하여 결정한다. 예를 들면, 게임 진행부(115)는, 플레이된 시나리오에 미리 대응지어져 있는 아이템을 사용자에게 부여해도 되고, 시나리오의 플레이 내용(퀘스트 클리어의 소요 시간, 획득된 친밀도, 좋은 선택지를 선택했는지, 등)에 따라 결정된 아이템을 부여해도 된다. 혹은, 사용자에게 부여하는 아이템은, 복수의 후보 중에서 랜덤으로 결정되어도 된다.
본 실시 형태에서는, 게임 진행부(115)는, 사용자로 하여금 획득하게 한 아이템을 통지하기 위한 보수 화면(600)을 생성하여, 표시부(152)에 표시시켜도 된다. 도 8은, 사용자 단말(100)의 표시부(152)에 표시되는 보수 화면(600)의 일례를 나타내는 도면이다. 일례로서, 보수 화면(600)은, 획득된 아이템의 아이콘(601), 및, 당해 아이템의 명칭(602)을 포함하고 있어도 된다. 이에 의해, 사용자는, 자신이 획득할 수 있었던 아이템을 확인할 수 있다. 또, 게임 진행부(115)는, 도 5에 나타내는 항목 「아이템」에 저장되어 있는 아이템 리스트에, 상술의 획득된 아이템을 추가한다.
<라이브 전송 파트의 화면예>
게임 진행부(115)는, 예를 들면 동작 지시 장치(300) 등의 외부의 장치로부터 동작 지시 데이터를 수신하면, 라이브 전송 파트에 있어서, 캐릭터를 당해 동작 지시 데이터에 의거하여 동작시킨다. 예를 들면, 라이브 전송 파트에 있어서 동작 지시 데이터에 의거하여 동작하는 캐릭터를 포함하는 동영상 재생 화면(800)을 생성하여, 표시부(152)에 표시시킨다.
도 9는, 사용자 단말(100)의 표시부(152)에 표시되는 동영상 재생 화면(800)의 일례를 나타내는 도면이다. 동영상 재생 화면(800)은, 일례로서, 스토리 파트에서 대화 상대였던 캐릭터(도시의 예에서는, 캐릭터(802))를 적어도 포함한다.
본 실시 형태에서는, 게임 진행부(115)는, 외부의 장치(이하, 동작 지시 장치(300)로 한다)로부터 공급된 동작 지시 데이터에 포함되어 있는 모션 캡처 데이터가 나타내는 움직임을 캐릭터(802)의 움직임에 반영시킨다. 모션 캡처 데이터는, 동작 지시 장치(300)의 설치 장소에 있어서, 모델(702)의 움직임을, 모션 캡처 장치(3020)를 통해 취득한 것이다. 따라서, 모델(702)의 움직임이, 그대로, 표시부(152)에 표시되는 캐릭터(802)의 움직임에 반영된다.
본 실시 형태에서는, 게임 진행부(115)는, 동작 지시 장치(300)로부터 공급된 동작 지시 데이터에 포함되어 있는 음성 데이터(801)를, 캐릭터(802)가 발한 음성으로 하여, 캐릭터(802)의 움직임과 동기하여 출력한다. 음성 데이터는, 동작 지시 장치(300)의 설치 장소에 있어서, 성우(701)의 음성(700)을, 마이크(3010)를 통해 취득한 것이다. 따라서, 성우(701)가 발한 음성(700)에 대응하는 음성 데이터(801)가, 그대로, 사용자 단말(100)의 스피커로부터 출력된다.
상술의 구성에 의하면, 동작 지시 장치(300)의 설치 장소에 있어서, 실재하는 성우(701) 및 모델(702)의 음성 및 움직임이, 그대로, 캐릭터(802)의 음성 및 움직임에 반영된다. 이러한 동작을 행하는 캐릭터(802)를 보고, 사용자는, 캐릭터(802)에 대해, 마치, 현실의 세계에 존재할 것 같은 현실감을 느낄 수 있어, 게임의 세계에 몰입할 수 있다.
또한, 본 실시 형태에서는, 게임 진행부(115)는, 스토리 파트(제1 파트)에 있어서의 사용자의 입력 조작에 의거하여, 스토리 파트의 플레이 결과를 결정해도 된다. 그리고, 게임 진행부(115)는, 라이브 전송 파트(제2 파트)에 있어서, 동작 지시 데이터에 의거하여 동작시키는 캐릭터를, 당해 플레이 결과에 따른 표시 양태로, 표시부(152)에 표시시켜도 된다.
일례로서, 게임 진행부(115)는, 지금까지 플레이된 스토리 파트에 있어서, 상술의 캐릭터로 하여금 몸에 걸치게 하는 것이 가능한 아이템이 획득되어 있으면, 그 아이템의 오브젝트를 캐릭터(802)의 오브젝트에 합성하는 것이 바람직하다. 상술의 구성에 의하면, 사용자가 스토리 파트를 플레이함으로써 획득한 아이템을, 라이브 전송 파트에서 동작하는 캐릭터(802)의 복식품에 반영시킬 수 있다. 예를 들면, 도 8에 나타내는 바와 같이, 스토리 파트에 있어서 시나리오를 플레이한 것에 의해 복식품으로서의 아이템(예를 들면, 토끼귀 머리띠)이 획득되어 있다. 이 경우에는, 게임 진행부(115)는, 도 5에 나타내는 게임 정보(132)로부터, 당해 복식품의 정보를 읽어내고, 당해 아이템의 오브젝트(도시의 예에서는, 복식품(803))를, 캐릭터(802)에 합성한다.
이에 의해, 사용자는, 캐릭터(802)에 보다 애착을 느껴 라이브 전송 파트를 보다 한층 더 즐길 수 있다. 또한, 캐릭터(802)의 복식품을 버전 업시키고 싶다는 사용자의 의욕을 키울 수 있어, 결과적으로, 스토리 파트를 플레이하는 동기 부여를 강화하는 것이 가능해진다.
또한, 본 실시 형태에서는, 게임 진행부(115)는, 캐릭터(802)의 동작에 반응하여, 캐릭터(802) 앞으로 보낸 코멘트를 입력하는 것이 가능해도 된다. 일례로서, 게임 진행부(115)는, 동영상 재생 화면(800)에, 코멘트 입력 버튼(804)을 배치한다. 사용자는, 코멘트 입력 버튼(804)에 터치하여, 코멘트를 입력하기 위한 UI를 불러내고, 당해 UI를 조작하여, 캐릭터(802) 앞으로 보낸 코멘트를 입력한다. 당해 UI는, 미리 준비된 몇 개의 코멘트 중에서 사용자가 원하는 코멘트를 선택하기 위한 것이어도 된다. 당해 UI는, 사용자가 문자를 편집하여 코멘트를 입력하기 위한 것이어도 된다. 당해 UI는, 사용자가 음성으로 코멘트를 입력하기 위한 것이어도 된다.
<처리 플로>
도 10은, 게임 시스템(1)을 구성하는 각 장치가 실행하는 처리의 흐름을 나타내는 플로차트이다.
단계 S101에서, 사용자 단말(100)의 게임 진행부(115)는, 사용자로부터 게임 개시의 입력 조작을 받아들이면, 서버(200)에 액세스하여, 로그인의 요구를 행한다.
단계 S102에서, 서버(200)의 진행 지원부(211)는, 사용자 단말(100)의 스테이터스가 온라인임을 확인하고, 로그인을 받아들인 취지 응답한다.
단계 S103에서, 게임 진행부(115)는, 필요에 따라, 서버(200)와 통신하면서, 사용자의 입력 조작에 따라 게임을 진행시킨다. 게임 진행부(115)는, 스토리 파트를 진행시켜도 되고, 새로운 시나리오를 획득하기 위한 획득 파트를 진행시켜도 된다.
단계 S104에서, 진행 지원부(211)는, 필요에 따라, 사용자 단말(100)에 대해 필요한 정보를 제공하는 등 하여, 사용자 단말(100)에 있어서의 게임 진행을 지원한다.
단계 S105에서, 라이브 전송 시각이 되면, 서버(200)의 공유 지원부(212)는, 단계 S105의 YES로부터 단계 S106으로 진행된다. 라이브 전송 시각은, 예를 들면, 게임 마스터에 의해 미리 결정되어 있으며, 서버(200) 및 동작 지시 장치(300)에 있어서 관리되고 있다. 또, 사용자 단말(100)에 대해, 라이브 전송 시각은 미리 통지되어 있어도 되고, 실제로 라이브 전송 시각이 될 때까지 비밀로 되어 있어도 된다. 전자의 경우, 사용자에 대해 안정적으로 라이브 전송을 공급할 수 있고, 후자의 경우, 서프라이즈 전송으로서, 사용자에게 특별한 부가가치가 붙은 라이브 전송을 공급하는 것이 가능해진다.
단계 S106에서, 공유 지원부(212)는, 라이브 전송을 받을 권리가 있는 1 이상의 사용자 단말(100)을 탐색한다. 라이브 전송을 받을 수 있는 조건은, 적절히 게임 마스터가 설정하면 되는데, 적어도, 본 게임의 애플리케이션을 인스톨하고 있는 것, 및, 라이브 전송 시각 시점에서 온라인인 것 등이 조건으로서 들어진다. 본 실시 형태에서는 일례로서, 라이브 전송 시각 시점에서 온라인인, 즉, 본 게임의 애플리케이션을 기동하고 있는 사용자 단말(100)을, 라이브 전송을 받을 권리가 있는 사용자 단말(100)로서 탐색한다. 혹은, 공유 지원부(212)는, 또한, 라이브 전송을 받기 위한 대가를 지불 완료된 사용자가 소유하는 사용자 단말(100)인 것을 조건에 더해도 된다. 혹은, 공유 지원부(212)는, 사전에, 상술의 라이브 전송 시각에 있어서, 라이브 전송을 받는 취지의 예약을 행한 특정 사용자 단말(100)을, 라이브 전송을 받을 권리가 있는 사용자 단말(100)로서 탐색해도 된다.
단계 S107에서, 공유 지원부(212)는, 검출한 1 이상의 사용자 단말(100)을 동작 지시 장치(300)에 통지한다. 예를 들면, 공유 지원부(212)는, 사용자 단말(100)의 단말 ID, 사용자 단말(100)의 소유자인 사용자의 사용자 ID, 및, 사용자 단말(100)의 주소 등을 동작 지시 장치(300)에 통지해도 된다.
한편, 단계 S108에서, 동작 지시 장치(300)의 캐릭터 제어부(316)는, 라이브 전송 시각이 되면, 단계 S108의 YES로부터 단계 S109~S110으로 진행된다. 단계 S109~S110은, 어느 쪽이 먼저 실행되어도 상관없다.
단계 S109에서, 캐릭터 제어부(316)는, 성우 등의 액터가 마이크(3010)를 통해 입력한 음성을 음성 데이터로서 취득한다.
단계 S110에서, 캐릭터 제어부(316)는, 모델 등의 액터가 모션 캡처 장치(3020)를 통해 입력한 움직임을 모션 캡처 데이터로서 취득한다.
단계 S111에서, 캐릭터 제어부(316)는, 동작 지시 데이터(제2 동작 지시 데이터)를 생성한다. 구체적으로는, 캐릭터 제어부(316)는, 상술의 라이브 전송 개시 시각에 동영상을 전송시키는 캐릭터를 특정하고, 당해 캐릭터의 캐릭터 ID를, 동작 지시 데이터의 「캐릭터 ID」의 항목에 저장한다. 어느 시각에 어느 캐릭터의 동영상을 전송할지는, 게임 마스터에 의해 미리 스케줄링되어, 동작 지시 장치(300)에 등록되어 있어도 된다. 혹은, 동작 지시 장치(300)의 오퍼레이터가, 어느 캐릭터의 동작 지시 데이터를 작성할지를 동작 지시 장치(300)에 대해 미리 지정해 두어도 된다. 캐릭터 제어부(316)는, 단계 S109에서 취득한 음성 데이터를, 동작 지시 데이터의 「음성」의 항목에 저장한다. 캐릭터 제어부(316)는, 단계 S110에서 취득한 모션 캡처 데이터를, 동작 지시 데이터의 「움직임」의 항목에 저장한다. 캐릭터 제어부(316)는, 음성 데이터와 모션 캡처 데이터가 동기하도록, 음성 데이터와 모션 캡처 데이터를 연관시킨다. 캐릭터 제어부(316)는, 단계 S107에서 서버(200)로부터 통지된 1 이상의 사용자 단말(100)이 수신인이 되도록, 이들 사용자 단말(100)의 그룹의 그룹 식별 정보, 또는, 1대의 사용자 단말(100)의 주소를, 수신인 지정 정보로서, 동작 지시 데이터의 「수신인」의 항목에 저장한다.
단계 S112에서, 캐릭터 제어부(316)는, 통신 IF(33)를 통해, 상술과 같이 생성한 동작 지시 데이터를, 수신인으로서 지정한 각 사용자 단말(100)에 송신한다. 캐릭터 제어부(316)는, 액터가 소리를 내거나, 움직이거나 하여 얻어진 음성 데이터 및 모션 캡처 데이터를, 취득하여 즉각 동작 지시 데이터로 렌더링하고, 리얼타임으로, 각 사용자 단말(100)에 전송하는 것이 바람직하다.
단계 S113에서, 사용자 단말(100)의 해석부(116)는, 통신 IF(13)를 통해, 상술의 동작 지시 데이터를 수신한다. 예를 들면, 해석부(116)는, 동작 지시 장치(300) 또는 서버(200)로부터 미리 라이브 전송한다고 예고된 시각에, 동작 지시 데이터를 수신해도 된다.
단계 S114에서, 해석부(116)는, 수신한 것을 트리거로 하여, 수신한 동작 지시 데이터를 해석한다.
단계 S115에서, 게임 진행부(115)는, 상술의 동작 지시 데이터를 수신했을 때에, 라이브 전송 파트를 실행하고 있지 않으면, 당해 라이브 전송 파트를 개시한다. 이 때, 게임 진행부(115)는, 다른 파트를 실행하고 있으면, 당해 파트의 진행을 중단하고 나서, 라이브 전송 파트를 개시한다. 여기서, 게임 진행부(115)는, 라이브 전송이 개시되었기 때문에 실행 중의 파트를 일시 중단하는 취지의 메시지를 표시부(152)에 출력하고, 당해 파트의 진척을 기억부(120)에 보존해 두는 것이 바람직하다. 또한, 상술의 동작 지시 데이터를 수신한 시점에서, 이미, 라이브 전송 파트를 실행하고 있으면, 게임 진행부(115)는, 단계 S115를 생략해도 된다. 이 경우, 게임 진행부(115)는, 동작 지시 데이터(즉, 캐릭터가 라이브 전송하는 몸의 동영상)의 전송이 개시된 취지의 메시지를 표시부(152)에 출력해도 된다.
단계 S116에서, 게임 진행부(115)는, 해석부(116)에 의해 해석된 동영상 지시 데이터에 의거하여 캐릭터를 동작시킴으로써, 라이브 전송 파트를 진행시킨다. 구체적으로는, 게임 진행부(115)는, 도 9에 나타내는 동영상 재생 화면(800) 등을 표시부(152)에 표시시킨다. 게임 진행부(115)는, 성우(701), 모델(702) 등의 액터가 동작 지시 장치(300)의 설치 장소에서, 소리를 내거나, 움직이거나 하고 있는 것과 거의 동시에, 리얼타임으로, 그 음성 및 움직임을, 동영상 재생 화면(800)에 있어서의 캐릭터(802)의 발언 및 움직임에 반영시킨다. 해석부(116) 및 게임 진행부(115)는, 리얼타임의 동영상의 렌더링 및 재생을, 동작 지시 장치(300)로부터 동작 지시 데이터를 계속하여 수신하고 있는 동안 계속한다. 구체적으로는, 게임 진행부(115)는, 사용자로부터 어떠한 입력 조작도 받아들이지 않고, 동작 지시 데이터가 수신되고 있는 동안은, 단계 S117의 NO로부터 단계 S113으로 돌아와, 이후의 각 단계를 반복한다.
단계 S117에서, 동작 지시 데이터에 의거하여 캐릭터가 동작하고 있는 동안에, 조작 접수부(111)가, 사용자로부터 입력 조작을 받아들이면, 게임 진행부(115)는, 단계 S117의 YES로부터 단계 S118로 진행된다. 예를 들면, 조작 접수부(111)는, 동영상 재생 화면(800)에 있어서의 코멘트 입력 버튼(804)에 대한 입력 조작을 받아들인다.
단계 S118에서, 게임 진행부(115)는, 상술의 입력 조작에 따라 생성한 코멘트 데이터를 동작 지시 장치(300)에 송신한다. 구체적으로는, 게임 진행부(115)는, 선택된 코멘트의 코멘트 ID를 코멘트 데이터로서 송신해도 된다. 혹은, 게임 진행부(115)는, 사용자에 의해 입력된 문장의 텍스트 데이터를 코멘트 데이터로서 송신해도 된다. 혹은, 게임 진행부(115)는, 사용자에 의해 입력된 음성의 음성 데이터를 코멘트 데이터로서 송신해도 된다. 혹은, 게임 진행부(115)는, 사용자에 의해 입력된 음성을 인식하여, 텍스트 데이터로 변환한 것을 코멘트 데이터로서 송신해도 된다.
단계 S119에서, 동작 지시 장치(300)의 반응 처리부(317)는, 통신 IF(33)를 통해, 사용자 단말(100)로부터 송신된 코멘트 데이터를 수신한다.
단계 S120에서, 반응 처리부(317)는, 수신한 코멘트 데이터를, 동작 지시 장치(300)에 출력한다. 예를 들면, 반응 처리부(317)는, 코멘트 데이터에 포함되는 텍스트 데이터를 표시부(352)에 표시한다. 이에 의해, 오퍼레이터는, 자기가 움직인 캐릭터에 대해, 사용자가 어떠한 반응을 나타냈는지를 나타내는 피드백을 받는 것이 가능해진다. 그리고, 오퍼레이터는, 이 피드백에 맞춰, 가일층의 캐릭터의 동작을 결정할 수 있다. 즉, 동작 지시 장치(300)는, 단계 S109로 돌아와, 음성 데이터 및 모션 캡처 데이터의 취득을 계속하여, 동작 지시 데이터를 사용자 단말(100)에 계속 제공한다. 사용자 단말(100)은, 자(自)단말에 있어서의 입력 조작의 내용이 동작 지시 장치(300)에 의해 수신된 후, 당해 동작 지시 장치(300)로부터 송신된 동작 지시 데이터를 수신한다. 구체적으로는, 사용자 단말(100)은, 캐릭터의 발언 내용에 대응하는 음성 데이터, 및, 캐릭터의 움직임에 대응하는 모션 캡처 데이터 등이 포함된 동작 지시 데이터를 수신한다. 그리고, 사용자 단말(100)은, 계속적으로, 당해 동작 지시 데이터에 의거하여, 캐릭터를 동작시킨다. 결과적으로, 사용자로 하여금, 캐릭터와의 리얼타임으로 인터랙티브한 주고받음을 체험하게 하는 것이 가능해진다. 또한, 모션 캡처 데이터를 대신하여, 캐릭터의 동작을 지시하는 1 이상의 커맨드가, 동작 지시 장치(300)의 오퍼레이터가 지시한 순으로 늘어서 있는 모션 커맨드군이, 사용자 단말(100)에 의해 수신되어도 된다.
<변형예 1>
실시 형태 1의 변형예 1에서는, 라이브 전송 파트에 있어서 동영상을 라이브 전송하는 캐릭터는, 다른 파트에 있어서, NPC가 아니어도 된다. 즉, 다른 파트에 있어서, 사용자의 조작에 의거하여 동작하는 PC가, 라이브 전송 파트에 있어서 NPC로서 동영상을 라이브 전송하는 게임에 대해서도, 본 발명을 적용할 수 있다.
변형예 1에서는, 사용자 단말(100)은, 게임 프로그램(131)에 의거하여, 게임의 흥취성을 향상시키기 위해 이하의 단계를 실행하도록 구성되어 있다. 구체적으로는, 사용자 단말(100)은, 조작부(입출력 IF(14), 터치 스크린(15), 카메라(17), 측거 센서(18))를 통해 컴퓨터(사용자 단말(100))에 입력된 사용자의 입력 조작에 따라 캐릭터를 동작시킴으로써 제1 파트를 진행시키는 단계와, NPC 제어 장치(동작 지시 장치(300))로부터 수신한, 캐릭터의 동작을 지정하는 동작 지시 데이터에 의거하여 캐릭터를 동작시킴으로써 제2 파트를 진행시키는 단계를 실행한다. 여기서, 동작 지시 데이터는, 음성 데이터 및 모션 캡처 데이터 중 적어도 어느 1개를 포함한다. 사용자 단말(100)은, 제2 파트를 진행시키는 단계에서는, 사용자의 입력 조작의 내용을 NPC 제어 장치에 송신하고, 당해 입력 조작의 내용을 근거로 하여 NPC 제어 장치에 있어서 결정된 동작 지시 데이터를 수신하고, 동작 지시 데이터를 수신한 것을 트리거로 하여, 캐릭터를 동작시킨다.
<변형예 2>
실시 형태 1의 설명에서는, 상술의 도 3에 관해, 사용자 단말(100)이, 스토리 파트, 획득 파트, 라이브 전송 파트의 순으로 게임을 실행하는 경우가 나타내어졌다. 이에 대해, 실시 형태 1의 변형예 2에서는, 스토리 파트의 진행 중에 사용자 단말(100)에 의해 특정 행동이 실시되었는지의 결과에 따라, 자동적으로 라이브 전송 파트로 전환되도록 게임이 진행되어도 된다. 도 11은, 실시 형태의 변형예 2에 따른 게임 프로그램에 의거하여 실행되는 게임의 기본적인 게임 진행을 나타내는 플로차트이다.
단계 S1a는, 도 3의 단계 S1과 동일하다. 즉, 게임 진행부(115)는, 스토리 파트(제1 파트)를 실행한다. 스토리 파트에는, 고정 시나리오(S11a) 및 획득 시나리오(12a)가 포함된다. 상술과 같이, 예를 들면, 사용자가 조작하는 주인공과 캐릭터가 대화하는 신이 포함된다. 본 실시 형태에서는, 일례로서, 디지털 데이터로서 하나로 합쳐진 「시나리오」는, 캐릭터에 얽힌 이야기의 1화분에 대응하여, 서버(200)로부터 공급되고, 일단 기억부(120)에 저장된다. 게임 진행부(115)는, 스토리 파트에 있어서, 기억부(120)에 저장되어 있는 시나리오를 1개 읽어내고, 결말을 맞이할 때까지 1개 시나리오를 사용자의 입력 조작에 따라 진행시킨다. 시나리오에는, 사용자로 하여금 선택하게 하는 선택지, 당해 선택지에 대응하는 캐릭터의 응답 패턴 등이 포함되어 있으며, 사용자가 어느 선택지를 선택할지에 따라, 1개의 시나리오 중에서도, 상이한 결말이 얻어져도 된다. 구체적으로는, 게임 진행부(115)는, 주인공으로부터 캐릭터에 대한 작용에 대응하는 복수의 선택지를 사용자가 선택 가능하게 제시하고, 당해 사용자가 선택한 선택지에 따라, 시나리오를 진행시킨다. 또한, 캐릭터는, 상술의 NPC이면 되고, 여기에서는, 게임 플레이어인 어느 사용자에 의한 직접 조작의 대상으로는 되지 않는다.
단계 S1a의 스토리 파트의 진행 중, 단계 S13a에서는, 게임 진행부(115)는, 사용자에 의한 특정 행동을 받아들인다. 이에 따라, 게임 진행부(115)는 단계 S4a로 진행되어, 스토리 파트로부터 라이브 전송 파트로 전환하기 위한 동작이 행해진다. 또한, 단계 S13a에서 사용자에 의한 특정 행동을 받아들이기 전에는, 게임 진행부(115)는, 계속하여 단계 S1a의 스토리 파트를 계속하여 실행하는 것이 좋다.
여기서, 스토리 파트에 있어서의 사용자에 의한 특정 행동의 결과에는, 일례에서는, 사용자 단말(100)이 구비하는 상술의 위치 등록 시스템에 의해 취득되는 사용자 단말(100)의 위치가, 소정의 위치가 되는 것이 포함된다. 보다 상세하게는, 도 6에 관해 설명된 바와 같이, 사용자 단말(100)의 위치 등록 정보를 이용한 위치 정보 게임에 의해 퀘스트가 실현되고, 사용자는, 사용자 단말(100)을 갖고, 게임 진행부(115)에 의해 결정된 위치까지 이동한다. 그 결과, 사용자 단말(100)의 현재 위치 정보가 당해 결정된 위치와 정합했을 경우에, 사용자로 하여금 목표물을 획득하게 하는(도 8) 것을 대신하여, 또는 이에 추가하여, 게임의 진행이 라이브 전송 파트로 자동적으로 전환되도록 해도 된다.
다른 예에서는, 스토리 파트에 있어서의 사용자에 의한 특정 행동의 결과에는, 스토리 파트에 관련지어진 소정의 시나리오가 완결된 것이 포함된다. 보다 상세하게는, 스토리 파트에 있어서, 사용자가 1 이상의 퀘스트를 클리어하거나, 선택지를 선택하거나 함으로써, 캐릭터와의 대화가 진행되어, 시나리오가 진행된다. 그리고, 시나리오가 1개의 결말을 맞이했을 경우에, 사용자는 시나리오의 플레이를 완수한 것이 된다. 그 결과, 게임이 스토리 파트로부터 라이브 전송 파트로 자동적으로 전환되도록 해도 된다.
도 11로 돌아와, 단계 S4a는, 도 3의 단계 S4와 동일하다. 즉, 게임 진행부(115)는, 네트워크를 통해 외부의 장치(서버(200) 또는 동작 지시 장치(300))로부터, 동작 지시 데이터를 수신했는지 여부를 판정한다. 동작 지시 데이터를 외부의 장치로부터 수신하기 전에는, 게임 진행부(115)는, 단계 S4a의 NO로부터, 예를 들면, 단계 S1a로 돌아와, 계속하여 스토리 파트를 실행해도 된다. 한편, 동작 지시 데이터를 외부의 장치로부터 수신했을 경우는, 게임 진행부(115)는, 단계 S4a의 YES로부터 단계 S5a로 진행된다.
단계 S5a는, 도 3의 단계 S5와 동일하다. 즉, 게임 진행부(115)는, 라이브 전송 파트(제2 파트)를 실행한다. 구체적으로는, 게임 진행부(115)는, 단계 S4a에서 수신한 동작 지시 데이터에 따라 캐릭터를 동작시킴으로써, 라이브 전송 파트를 진행시킨다. 사용자는, 단계 S1a에서는, 시나리오에 있어서, 미리 정해진 반응을 나타내는 캐릭터와 간단히 UI를 통해 대화하는 것뿐이었다. 그러나, 사용자는, 라이브 전송 파트에 있어서는, 외부의 장치로부터 송신된 동작 지시 데이터에 의거하여 리얼타임으로 동작하는 캐릭터와 자유롭게 인터랙티브하게 대화할 수 있다. 보다 구체적으로는, 해석부(116)는, 사용자의 입력 조작의 내용에 따라, NPC에 관련지어지는 오퍼레이터(성우 및 모델을 포함한다.)가 입력하고 있는 음성 데이터 및 모션 데이터를 포함하는 동작 지시 데이터를 동작 지시 장치(300)로부터 수신하고 이것을 해석한다. 그리고, 게임 진행부(115)는, 수신된 동작 지시 데이터에 포함되는 음성 데이터에 의거하여, 캐릭터로 하여금 발화하게 함과 더불어, 상술의 모션 데이터에 의거하여 캐릭터에 움직임을 붙인다. 이에 의해, 사용자와 오퍼레이터가, 리얼타임 또한 인터랙티브하게 동작을 동기시키면서 협동할 수 있다. 즉, 상술의 사용자의 입력 조작에 대한 캐릭터의 반응을, 사용자에게 제시할 수 있다.
변형예 2에 있어서는, 또, 상술의 도 10에서 설명된 처리 플로에서는, 예를 들면, 단계 S105에서, 서버(200)가 라이브 전송 시각인지를 판정하는 것을 대신하여, 서버(200)가 사용자에 의한 특정 행동을 받아들였는지를 판정하는 것이 좋다. 즉, 판정 조건이 만족되었을 경우에, 서버(200) 및 동작 지시 장치(300)는, 라이브 전송 파트에 있어서의 라이브 전송을 사용자 단말(100)에 제공한다. 반대로, 판정 조건이 만족되지 않는 경우에는, 사용자 단말(100)이 라이브 전송 파트로 진행되는 경우는 없도록 게임의 진행이 제어된다.
판정 조건이 만족되었을 경우, 사용자 단말(100)에서는, 동작 지시 데이터에 의거하여 NPC가 동작되고, 라이브 전송 파트의 진행을 실행할 수 있다. 구체적으로는, 동작 지시 단말(300)에 있어서 S108로부터 S110에서 이미 라이브 전송이 개시되어 있을 때에는, 사용자 단말(100)은, 도중부터 리얼타임의 라이브 전송의 공급을 받을 수 있도록 해도 된다. 이를 대신하여, 판정 조건이 만족되었을 경우에, 이 점을 트리거로 하여 라이브 전송이 개시되고, 사용자 단말(100)은, 종료 완료된 라이브 전송의 공급을 처음부터 받을 수 있도록 해도 된다. 또한, 판정 조건인 사용자에 의한 특정 행동은, 예를 들면, 게임 마스터에 의해 미리 결정되고, 서버(200) 및 동작 지시 장치(300)에 있어서 관리되고 있다.
변형예 2에 의하면, 사용자 단말(100)은, 제1 파트에 있어서, 미리 다운로드된 제1 동작 지시 데이터에 의거하여 NPC를 동작시킨다. 그리고, 제1 파트에 있어서 사용자가 특정 행동을 실시한 결과에 따라, 제1 파트에서 제2 파트로의 전환이 행해진다. 사용자 단말(100)은, 동작 지시 장치(300)로부터 제2 동작 지시 데이터를 수신하고, 제2 파트에 있어서, 제2 동작 지시 데이터에 의거하여 NPC를 동작시킨다. 동작 지시 장치(300)로부터 수신한 제2 동작 지시 데이터에 의거하여 NPC를 동작시킬 수 있기 때문에, NPC의 동작은, 틀에 박히지 않고, 그 표현은 큰폭으로 넓어진다. 그 때문에, 사용자는, 게임 플레이 중의 NPC와의 관계를 통해, 당해 NPC가 마치 현실의 세계에 있을 것 같은 현실감을 느낄 수 있다. 결과적으로, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시킨다는 효과를 나타낸다. 또, 제2 파트로 이행하려면, 사용자는 제1 파트에 있어서 특정 행동을 실시할 필요가 있기 때문에, 게임성을 보다 한층 더 높일 수 있다.
〔실시 형태 2〕
<게임 개요>
실시 형태 2에 따른 게임 시스템(1)이 실행하는 게임(이하, 본 게임)은, 실시 형태 1과 동일하게, 일례로서, 연애 시뮬레이션 게임의 요소를 포함한 육성 시뮬레이션 게임이다. 본 실시 형태에서는, 본 게임에는, 적어도 라이브 전송 파트가 포함된다. 본 게임은, 단일의 라이브 전송 파트로 구성되어 있어도 되고, 복수의 파트로 구성되어 있어도 된다. 또, 라이브 전송 파트에 있어서, 동작 지시 장치(300)에 의해 동작이 제어되는 캐릭터는, PC여도, NPC여도 상관없다. 예를 들면, 라이브 전송 파트에서 NPC로서 동작하는 캐릭터여도, 다른 파트에서는, PC로서 사용자의 입력 조작에 따라 동작하는 경우가 있어도 된다. 혹은, 동작 지시 데이터가 동작 지시 장치(300)로부터 라이브 전송되지 않은 기간, 캐릭터는, 라이브 전송 파트 내에서, PC로서, 사용자의 입력 조작에 따라 동작해도 된다. 그리고, 라이브 전송이 개시되면, 당해 캐릭터는, NPC로 전환되고, 동작 지시 장치(300)로부터 공급된 동작 지시 데이터에 따라 동작해도 된다.
<처리 개요>
본 실시 형태에서는, 사용자 단말(100)은, 게임 프로그램(131)에 의거하여, 게임의 흥취성을 향상시키기 위해 이하의 단계를 실행하도록 구성되어 있다. 구체적으로는, 사용자 단말(100)은, 예를 들면 입력부(151) 등의 조작부를 통해 사용자 단말(100)(컴퓨터)에 입력된 사용자의 입력 조작에 따라 캐릭터를 동작시키는 단계와, 서버(200) 또는 동작 지시 장치(300)(캐릭터 제어 장치)로부터 멀티캐스트로 송신된 캐릭터의 동작을 지정하는 동작 지시 데이터를 수신하는 단계와, 수신한 동작 지시 데이터에 의거하여, 캐릭터를 동작시키는 단계를 실행한다.
또한, 캐릭터를 동작시키는 단계는, 멀티캐스트로 송신된 동작 지시 데이터가, 수신하는 단계에 있어서 수신된 것을 트리거로 하여 개시되는 것이 바람직하다.
혹은, 본 실시 형태에서는, 사용자 단말(100)은, 게임 프로그램(131)에 의거하여, 게임의 흥취성을 향상시키기 위해 이하의 단계를 실행하도록 구성되어 있어도 된다. 구체적으로는, 사용자 단말(100)은, 조작부를 통해 사용자 단말(100)에 입력된 사용자의 입력 조작에 따라 캐릭터를 동작시키는 단계와, 서버(200) 또는 동작 지시 장치(300)로부터 사용자 단말(100) 앞으로 송신된, 캐릭터의 동작을 지정하는 동작 지시 데이터이며, 당해 동작 지시 데이터의 작성원으로서 다른 사용자의 사용자 단말(100)이 지정되지 않은 동작 지시 데이터를 수신하는 단계와, 수신한 동작 지시 데이터에 의거하여, 캐릭터를 동작시키는 단계를 실행한다. 또한, 동작 지시 데이터가 「사용자 단말(100) 앞으로 송신되었다」란, 예를 들면, 동작 지시 데이터가 유니캐스트로 송신된 것을 의미한다. 예를 들면, 사용자 단말(100)은, 수신인 지정 정보에, 자단말 고유의 주소가 포함되어 있는 경우에, 동작 지시 데이터가 자단말 앞으로, 즉, 유니캐스트로 송신되었다고 판단할 수 있다.
또한, 캐릭터를 동작시키는 단계는, 유니캐스트로 송신된 동작 지시 데이터이며, 사용자 또는 사용자 단말의 식별 정보가 연관되지 않은 동작 지시 데이터가, 수신하는 단계에 있어서 수신된 것을 트리거로 하여 개시되는 것이 바람직하다.
<게임 시스템(1)의 기능적 구성>
본 실시 형태에 따른 사용자 단말(100)에 있어서, 해석부(116)는, 추가로, 동작 지시 데이터의 메타 정보도 해석한다. 메타 정보란, 동작 지시 데이터의 내용과는 별도로, 동작 지시 데이터의 성질을 정의하는 정보이다. 메타 정보는, 예를 들면, 수신인 지정 정보, 및, 작성원 정보 등이다. 구체적으로는, 해석부(116)는, 송신된 동작 지시 데이터의 수신인 지정 정보에 의거하여, 당해 동작 지시 데이터가, 멀티캐스트 송신된 것인지, 유니캐스트 송신된 것인지를 판단한다. 멀티캐스트 송신이란, 서버(200) 또는 동작 지시 장치(300)가, 자단말을 포함하는 소정의 그룹에 대해 같은 내용의 정보를 송신하는 것을 의미한다. 예를 들면, 수신인 지정 정보로서 「ALL」이 설정되어 있는 동작 지시 데이터는, 본 게임의 애플리케이션을 기동 중의 모든 사용자 단말 앞으로 동송(同送)된다. 유니캐스트 송신이란, 서버(200) 또는 동작 지시 장치(300)가, 자단말 앞으로 정보를 송신하는 것을 의미한다. 수신인 지정 정보는, 예를 들면, 도 4에 나타내는 동작 지시 데이터의 항목 「수신인」에 저장되어 있다.
멀티캐스트 송신된 동작 지시 데이터는, 특정 사용자가 아닌, 게임 마스터에 의해 작성된 것으로 생각할 수 있다. 구체적으로는, 상술의 동작 지시 데이터는, 게임 시스템(1)에 있어서 본 게임의 서비스를 제공하는 프로바이더(운영 단체)에 귀속하는 장치에 의해 작성된 것이어도 된다. 예를 들면, 서버(200) 또는 동작 지시 장치(300)는, 모든 사용자 및 사용자 단말에 대한 정보를 파악하고 있으므로, 동작 지시 데이터를 작성하여, 애플리케이션 기동 중의 사용자 단말에 멀티캐스트 송신하는 것이 가능하다. 따라서, 사용자 단말(100)은, 멀티캐스트 송신된 동작 지시 데이터를, 게임 마스터에 의해 작성된 것으로 판단할 수 있다.
본 실시 형태에서는, 해석부(116)는, 일례로서, 이하의 기능을 갖고 있어도 된다. 구체적으로는, 해석부(116)는, 멀티캐스트 송신된 동작 지시 데이터를 렌더링한다. 그리고, 해석부(116)는, 렌더링의 결과에 의거하여 캐릭터를 동작시키도록, 게임 진행부(115)에 지시한다. 보다 바람직하게는, 해석부(116)는, 멀티캐스트 송신된 동작 지시 데이터가 수신된 것을 트리거로 하여, 당해 동작 지시 데이터를 리얼타임으로 렌더링한다. 계속하여, 해석부(116)는, 렌더링의 결과에 의거하여 캐릭터를 동작시키도록, 게임 진행부(115)에 지시한다.
다른 실시 형태에서는, 해석부(116)는, 상술의 기능을 대신하여, 혹은, 추가하여, 이하의 기능을 갖고 있어도 된다. 구체적으로는, 해석부(116)는, 유니캐스트 송신된 동작 지시 데이터이며, 예를 들면, 사용자 ID 또는 사용자 단말 ID 등의 특정 사용자에 관련되는 정보가 연관되지 않은 동작 지시 데이터를 렌더링한다. 그리고, 해석부(116)는, 렌더링의 결과에 의거하여 캐릭터를 동작시키도록, 게임 진행부(115)에 지시한다. 보다 바람직하게는, 해석부(116)는, 동작 지시 데이터가 유니캐스트 송신된 것으로 판단했을 경우에는, 당해 동작 지시 데이터의 작성원 정보에 의거하여, 당해 동작 지시 데이터가 특정 사용자 단말에 의해 작성된 것인지 여부를 판단한다. 예를 들면, 작성원 정보로서, 특정 사용자에 관련되는 정보가 연관되어 있는 동작 지시 데이터에 대해, 해석부(116)는, 특정 사용자 단말에 의해 작성된 것으로 판단한다. 작성원 정보의 값이 비어있는 동작 지시 데이터, 및, 원래 작성원 정보가 연관되지 않은 동작 지시 데이터에 대해, 해석부(116)는, 특정 사용자 단말에 의해 작성된 것은 아니라고 판단한다. 특정 사용자 단말에 의해 작성된 것이 아닌 동작 지시 데이터는, 게임 마스터에 의해 작성된 것으로 생각할 수 있다.
해석부(116)는, 유니캐스트 송신된, 특정 사용자의 관련 정보가 작성원 정보로서 연관되지 않은 동작 지시 데이터를 수신한 것을 트리거로 하여, 당해 동작 지시 데이터를 리얼타임으로 렌더링한다. 계속하여, 해석부(116)는, 렌더링의 결과에 의거하여 캐릭터를 동작시키도록, 게임 진행부(115)에 지시한다.
이에 의해, 사용자 단말(100)은, 게임 마스터로부터 전송된 동작 지시 데이터에 의거하여, 캐릭터를, 당해 게임 마스터의 의도를 반영하여 리얼타임으로 동작시킬 수 있다. 그 때문에, 캐릭터가 마치 그곳에 정말로 존재하고 있을 것 같은 현실감을, 당해 캐릭터로 하여금 구비하게 할 수 있다.
<처리 플로>
도 12는, 본 실시 형태에 따른 사용자 단말(100)이 실행하는, 동작 지시 데이터를 해석하는 처리의 흐름을 나타내는 플로차트이다. 본 실시 형태에서는, 게임 시스템(1)의 각 장치가 실행하는 처리는, 도 10에 나타내는 처리와 거의 동일하다. 단계 S114에서, 사용자 단말(100)은, 이하에 나타내는 바와 같이, 동작 지시 데이터를 해석한다.
단계 S201에서, 해석부(116)는, 동작 지시 데이터의 항목 「수신인」으로부터 수신인 지정 정보를 취득한다.
단계 S202에서, 해석부(116)는, 수신인 지정 정보에 의거하여, 당해 동작 지시 데이터가, 멀티캐스트로 송신된 것인지 여부를 판단한다. 수신인 지정 정보가 그룹 식별자(예를 들면, 「ALL」 등)를 가리키고 있는 경우에는, 해석부(116)는, 당해 동작 지시 데이터가 멀티캐스트로 송신된 것으로 판단한다. 그리고, 해석부(116)는, 단계 S202의 YES로부터, 도 10에 나타내는 단계 S115 이후로 진행된다. 즉, 게임 진행부(115)는, 멀티캐스트로 송신된 동작 지시 데이터가 자단말에 있어서 수신된 것을 트리거로 하여, 당해 동작 지시 데이터에 의거하여 캐릭터를 리얼타임으로 동작시킨다. 한편, 수신인 지정 정보가 자단말의 주소를 가리키고 있는 경우에는, 해석부(116)는, 당해 동작 지시 데이터가, 유니캐스트로 송신된 것으로 판단한다. 본 실시 형태에서는, 해석부(116)는, 유니캐스트로 송신된 것은, 리얼타임으로 재생할 필요는 없다고 판단하여, 수신한 동작 지시 데이터를 기억부(120)에 보존하고, 도 10에 나타내는 단계 S103 이후로 돌아와도 된다. 단계 S103에서는, 예를 들면, 게임 진행부(115)는, 사용자 단말(100)에 입력된 사용자의 입력 조작에 따라 캐릭터를 동작시키는 파트를 진행시켜도 된다. 다른 실시 형태에서는, 유니캐스트로 송신된 동작 지시 데이터가 수신되었을 경우에는, 해석부(116)는, 단계 S202의 NO로부터 단계 S203으로 진행되어도 된다.
단계 S203에서, 해석부(116)는, 당해 동작 지시 데이터의 항목 「작성원」으로부터, 작성원 정보를 취득한다.
단계 S204에서, 해석부(116)는, 작성원 정보가 특정 사용자에 관련되는 사용자 관련 정보를 가리키고 있는지 여부를 판단한다. 사용자 관련 정보는, 예를 들면, 사용자 ID, 사용자 단말(100)의 단말 ID, 사용자 단말(100)의 주소 등이다. 작성원 정보가, 특정 사용자의 사용자 관련 정보가 아닌 경우, 해석부(116)는, 당해 동작 지시 데이터가, 특정 사용자에 의해 작성된 것이 아닌, 게임 마스터에 의해 작성된 것으로 판단한다. 그리고, 해석부(116)는, 단계 S204의 NO로부터, 도 10에 나타내는 단계 S115 이후로 진행된다. 즉, 게임 진행부(115)가, 사용자 관련 정보가 연관되지 않은 동작 지시 데이터가 자단말에 있어서 수신된 것을 트리거로 하여, 당해 동작 지시 데이터에 의거하여 캐릭터를 리얼타임으로 동작시킨다. 한편, 작성원 정보가, 특정 사용자의 사용자 관련 정보인 경우, 해석부(116)는, 당해 동작 지시 데이터가, 특정 사용자에 의해 작성된 것으로 판단한다. 따라서, 해석부(116)는, 게임 마스터로부터 공급된 동작 지시 데이터는 아니므로, 리얼타임으로 재생할 필요는 없다고 판단하여, 단계 S204의 YES로부터 단계 S205로 진행된다.
단계 S205에서, 해석부(116)는, 특정 사용자에 의해 작성된 동작 지시 데이터를 기억부(120)에 보존하고, 도 10에 나타내는 단계 S103 이후로 돌아온다.
상술의 구성 및 방법에 의하면, 사용자 단말(100)에 있어서, 사용자의 입력 조작에 따라 캐릭터를 동작시키는 것에 추가하여, 서버(200) 또는 동작 지시 장치(300)로부터 수신한 동작 지시 데이터에 의거하여 캐릭터를 동작시킬 수 있다. 그 때문에 캐릭터의 동작은, 틀에 박히지 않고 표현이 큰폭으로 넓어진다. 이에 의해, 사용자는, 캐릭터의 동작을 보고, 당해 캐릭터가 마치 현실의 세계에 있을 것 같은 현실감을 느낄 수 있다. 그리고, 사용자는, 당해 캐릭터와의 현실감이 풍부한 주고받음의 체험을 통해, 보다 캐릭터에 애착을 느끼므로, 당해 캐릭터를 조작하는 다른 파트도 보다 한층 더 흥미를 갖고 플레이할 수 있다. 결과적으로, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시킨다는 효과를 나타낸다.
<변형예>
실시 형태 2의 변형예에 있어서, 해석부(116)는, 수신인 지정 정보에 의거하여, 동작 지시 데이터가 멀티캐스트 송신됐는지 여부를 판단하는 단계를 생략하고, 동작 지시 데이터에 특정 사용자의 사용자 관련 정보가 연관되어 있는지 여부를, 작성원 정보에 의거하여 판단하는 단계를 실행해도 된다.
〔실시 형태 3〕
<게임 개요>
실시 형태 3에 따른 게임 시스템(1)이 실행하는 게임(이하, 본 게임)은, 실시 형태 1 및 실시 형태 2와 동일하게, 일례로서, 연애 시뮬레이션 게임의 요소를 포함한 육성 시뮬레이션 게임이다. 본 실시 형태에서는, 본 게임에는, 적어도 라이브 전송 파트가 포함된다. 본 게임은, 단일의 라이브 전송 파트로 구성되어 있어도 되고, 복수의 파트로 구성되어 있어도 된다. 일례에서는, 도 3 및 도 11에 나타낸 스토리 파트 및 라이브 전송 파트의 조합으로 구성되어도 된다. 또, 라이브 전송 파트에 있어서, 동작 지시 장치(300)에 의해 동작이 제어되는 캐릭터는, PC여도, NPC여도 상관없다. 예를 들면, 라이브 전송 파트에서 NPC로서 동작하는 캐릭터여도, 다른 파트에서는, PC로서, 게임 플레이어인 사용자의 입력 조작에 따라 동작하는 경우가 있어도 된다. 혹은, 동작 지시 데이터가 동작 지시 장치(300)로부터 라이브 전송되지 않은 기간, 캐릭터는, 라이브 전송 파트 내에서, PC로서, 게임 플레이어인 사용자의 입력 조작에 따라 동작해도 된다. 그리고, 라이브 전송이 개시되면, 당해 캐릭터는, NPC로 전환되어, 동작 지시 장치(300)로부터 공급된 동작 지시 데이터에 따라 동작해도 된다.
본 실시 형태에서는, 특히, 라이브 전송 파트에 있어서, 리얼타임의 라이브 전송이 일단 종료된 후여도, 사용자는, 종료 완료된 라이브 전송 파트의 진행을 요구하고, 수신한 동작 지시 데이터에 의거하여 라이브 전송 파트를 다시 진행시킬 수 있다. 이에 의해, 사용자는, 라이브 전송을 재차 돌려보는 것, 및 만일 놓쳤을 경우에도 다시 라이브 전송을 볼 수 있다. 이하에서는, 제1 실시 형태 및 제2 실시 형태, 그리고 이들의 변형예를 통해, 스토리 파트와, 및 당해 스토리 파트 후의 라이브 전송 파트를 포함하는 게임이 진행되고, 라이브 전송 시각 종료 후의 장면을 상정하고 있다. 또, 여기서의 캐릭터는, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 NPC를 상정하고 있다.
<처리 개요>
본 실시 형태에서는, 사용자 단말(100)은, 게임 프로그램(131)에 의거하여, 게임의 흥취성을 향상시키기 위해 이하의 단계를 실행하도록 구성되어 있다. 구체적으로는, 사용자 단말(100)(컴퓨터)은, 예를 들면 입력부(151) 등의 조작부를 통해, 종료 완료된 라이브 전송 파트의 진행을 요구하는 단계와, 서버(200) 또는 동작 지시 장치(300)(캐릭터 제어 장치)로부터, 종료 완료된 라이브 전송 파트에 따른 기록 완료된 동작 지시 데이터를 수신하는 단계와, 기록 완료된 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써 종료 완료된 라이브 전송 파트를 진행시키는 단계를 실행한다. 여기에서는, 기록 완료된 동작 지시 데이터는, NPC에 관련지어지는 오퍼레이터가 입력한 모션 데이터 및 음성 데이터를 포함하고 있다. 오퍼레이터는, 모델이나 성우뿐만 아니라, 동작 지시 장치(300)(캐릭터 제어 장치)로의 어떠한 조작을 행하는 작업자도 포함하는데, 게임 플레이어인 사용자는 포함하지 않는다. 또한, 기록 완료된 동작 지시 데이터는, 서버(200)의 기억부(200) 또는 동작 지시 장치(300)의 기억부(320)에 저장되는 것이 좋고, 사용자 단말(100)로부터의 요구에 따라, 다시 사용자 단말(110)에 전송되는 것이 좋다.
본 실시 형태에서는, 사용자가 라이브 전송 파트를 리얼타임으로 진행시켰는지 여부의 결과에 따라, 기록 완료된 동작 지시 데이터에 의거하는 종료 완료된 라이브 전송 파트의 진행을 상이한 것으로 하는 것이 좋다. 구체적으로는, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 있다고 판정되는 경우에는, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 것과 동일한 라이브 전송 파트를 재차 진행시키는 것이 좋다(돌려보기 전송). 돌려보기 전송에서는, 라이브 전송 파트의 선택적인 진행을 실행하는 것이 좋다. 한편, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 없다고 판정되는 경우에는, 리얼타임으로 진행시킨 것과는 상이한 진행 양태의 라이브 전송 파트를 진행시키는 것이 좋다(다시보기 전송). 여기서, 다시보기 전송에 있어서 실적이 없다고 판정되는 경우에는, 예를 들면, 사용자가 라이브 전송을 받을 권리를 갖고, 사용자가 라이브 전송 시각이면 리얼타임의 라이브 전송 파트를 진행 가능했음에도 불구하고, 실제로는 이것을 실행하지 않았을 경우가 포함된다. 다시보기 전송에서는, 라이브 전송 파트의 제한부의 진행을 실행하는 것이 좋다.
<게임 시스템(1)의 기능적 구성>
본 실시 형태에 따른 사용자 단말(100)에 있어서, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 있다고 판정되는 경우에, 해석부(116)는, 또한, 라이브 전송 파트에 있어서의 사용자 행동 이력 정보를 수신하여 해석한다. 사용자 행동 이력 정보란, 기록 완료된 동작 지시 데이터의 내용과는 별도로, 라이브 전송 파트의 진행 동안에 입력 조작에 의해 받아들여진 사용자의 행동의 기록의 데이터·세트이다. 사용자 행동 이력 정보는, 기록 완료된 동작 지시 데이터에 관련지어지는 것이 좋으며, 서버(200)의 기억부(220) 또는 동작 지시 장치(300)의 기억부(320)에 저장되는 것이 좋다. 이에 추가하여, 혹은 이를 대신하여, 사용자 행동 이력 정보는 사용자 단말(100)의 기억부(120)에 저장되어도 된다.
도 13은, 사용자 행동 이력 정보의 데이터 구조의 일례를 나타내는 도면이다. 사용자 행동 이력 정보는, 예를 들면, 라이브 전송 파트 내에 있어서 사용자가 행동한 행동 시간, 행동 종별, 및 행동 상세와 같은 항목을 포함하고, 사용자를 식별하는 사용자 ID에 관련지어진다. 항목 「행동 시간」은, 라이브 전송 파트 내에서 사용자가 행동을 행한 시간 정보이고, 항목 「행동 종별」은 사용자의 행동을 나타내는 종별이며, 항목 「행동 상세」는 사용자의 행동의 구체적인 내용이다. 예를 들면, 항목 「행동 종별」 및 「행동 상세」로 특정되는 행동에는, 사용자의 입력 조작에 의한 유가 데이터의 소비(일례에서는, 후원금, 및 아이템 구입 등에 의한 과금 등), 코멘트 입력, 그리고 캐릭터의 복식품 등의 아이템의 변경(이른바, 갈아입히기) 등의 행동이 포함되어도 된다. 또, 이러한 행동에는, 라이브 전송 파트의 특정 진행 부분을 나중에 플레이백하기 위한 시간의 선택이 포함되어도 된다. 이 이외에도, 이러한 행동에는, 라이브 전송 파트 중의 보수나 포인트 등의 획득이 포함되어도 된다. 또한, 사용자 행동 이력 정보는, 도 4에서 설명된 동작 지시 데이터의 데이터 구조와, 도 5에서 설명된 게임 정보의 데이터 구조 사이에서 서로 관련지어지는 것이 좋다. 또한, 이러한 데이터 구조는 예시에 지나지 않으며, 이것에 한정되지 않는 것이 당업자에게 이해되어야 할 것이다.
<처리 플로>
도 14는, 본 실시 형태에 따른 게임 프로그램에 의거하여 실행되는 게임의 기본적인 게임 진행에 대해, 그 일례를 나타내는 플로차트이다. 처리 플로는, 리얼타임의 라이브 전송 파트가 이미 종료 완료되었으며, 라이브 전송 시각의 종료 이후의 장면에 적용된다.
단계 S301에서는, 사용자 단말(100)의 조작부(151)에 의해, 종료 완료된 라이브 전송 파트의 진행이 새롭게 요구된다. 단계 S302에서는, 단계 S301에서의 요구에 대해, 사용자 단말(100)은, 서버(200) 또는 동작 지시 장치(300)(캐릭터 제어 장치)로부터, 종료 완료된 라이브 전송 파트에 따른 기록 완료된 동작 지시 데이터를 수신한다.
이어서, 단계 S303에서는, 게임 진행부(115)는, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 있는지 여부를 판정한다. 판정은, 예를 들면, 도 4에 나타내어진 항목 「수신인」을 참조하여, 동작 지시 데이터가 사용자 단말(100) 앞으로 송신된 기록이 있는지에 의거하여 실행되어도 된다. 혹은, 도 5에 나타내어진 항목 「플레이 이력」을 참조하여, 라이브 전송 파트가 「플레이 완료」된 스테이터스인지에 의거하여 실행되어도, 동항목 「전송 이력」을 참조하여, 과거에 캐릭터로부터 라이브 전송된 실적이 있는지에 의거하여 실행되어도 어느 쪽이어도 된다. 이 이외에도, 사용자 단말(100)의 기억부(120)에 이미 기록 완료된 동작 지시 데이터가 저장되어 있을 경우는, 라이브 전송 파트를 리얼타임으로 이미 진행시킨 것으로 판정해도 된다. 게다가, 판정은, 이들을 조합함으로써 실행되어도 되고, 또는 다른 임의의 수법으로 실행되어도 된다.
단계 S303에서 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 있다고 판정되는 경우(YES)는, 종료 완료된 라이브 전송 파트의 진행은 「돌려보기 전송」이 된다. 한편, 단계 S303에서 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 없다고 판정되는 경우(NO)는, 종료 완료된 라이브 전송 파트의 진행은 「다시보기 전송」이 된다. 상술한 바와 같이, 「돌려보기 전송」과 「다시보기 전송」에서는, 사용자 체험은 상이하다.
단계 S303에서, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 있다고 판정되면, 처리 플로는 단계 S303의 YES로부터 단계 S304로 진행된다. 단계 S304에서는, 해석부(116)는, 도 13에 나타내어진 라이브 전송 파트의 사용자 행동 이력 정보를 취득하여, 이것을 해석한다. 사용자 행동 이력 정보는, 서버(200) 또는 동작 지시 장치(300)로부터 취득해도 되고, 사용자 단말(100)의 기억부(120)에 이미 저장되어 있을 경우는 직접 그것을 사용해도 된다.
계속하여, 단계 S305에서는, 게임 진행부(115)는, 종료 완료된 라이브 전송 파트의 재차의 진행(즉 상술의 「돌려보기 전송」)을 실행한다. 구체적으로는, 기록 완료된 동작 지시 데이터와 단계 S304에서 해석한 사용자 행동 이력 정보를 이용하여, 라이브 전송 파트의 재차의 진행을 실행한다. 또, 도 8에서 설명된 보수를 사용자가 아이템(여기에서는, 「토끼귀 머리띠」)으로서 획득하고 있을 경우는, 당해 아이템에 의거하여(즉, 토끼귀 머리띠를 몸에 걸치고) NPC를 동작시킨다. 이에 의해, 라이브 전송 파트의 재차의 진행을 실행해도 된다. 즉, 라이브 전송 파트의 재차의 진행은, 사용자 행동 이력 정보 및 보수의 정보가 반영되어 있으며, 리얼타임으로 진행한 라이브 전송 파트와 동일한 것임과 더불어, 사용자에게 고유의 것이 된다.
또, 돌려보기 전송에서는, 라이브 전송 파트의 재차의 진행이, 최초로 진행시켰을 때에 기록된, 조작부를 통한 사용자의 입력 조작에 의한 시간 정보의 지정에 따라 선택적으로 실행되는 것이 좋다. 구체적으로는, 도 13에서 설명된 사용자 행동 이력 정보에 포함되는 「행동 시간」의 데이터를 이용하여, 사용자가 특정 행동 시간을 지정함으로써, 그곳으로부터 라이브 전송 파트를 선택적으로 진행시킬 수 있다. 예를 들면, 사용자가 라이브 전송 파트의 개시로부터 2분 45초 후에 코멘트를 입력하고 있었을 경우에는, 그 2분 45초 후의 타이밍을 지정하여, 사용자는 라이브 전송 파트를 재차 진행시킬 수 있다. 또한, 이러한 재차의 진행은, 상기의 코멘트 입력의 기록에 추가하여, 사용자의 입력 조작에 의한 유가 데이터의 소비, 및 캐릭터의 복식품 등의 아이템의 변경 등의 행동의 기록에 대응한 「행동 시간」에 의거하여, 실행 가능하게 하는 것이 좋다.
또한, 돌려보기 전송에서는, 리얼타임으로 진행한 라이브 전송 파트의 사이에 있어서, 사용자가 입력 조작에 의해 특정 진행 부분을 선택하고 있었을 경우는, 라이브 전송 파트의 재차의 진행에 있어서, 선택된 특정 진행 부분만을 선택적으로 진행시킬 수 있다. 이에 의해, 사용자는, 라이브 전송 파트의 특정 진행 부분만을 나중에 효율적으로 플레이백할 수 있다. 구체적으로는, 사용자가 특정 진행 부분을 선택하고, 사용자 행동 이력 정보에 그러한 행동의 기록이 등록되어 있을 경우에, 그 행동 시간의 데이터를 이용하여, 라이브 전송 파트를 선택적으로 진행시킬 수 있다. 예를 들면, 사용자가, 라이브 전송 파트의 개시로부터 2분 45초에서 5분 10초의 기간을 선택하고 있었을 경우에는, 사용자는, 그 기간에 걸친 라이브 전송 파트를 재차 진행시킬 수 있다.
도 14로 돌아와, 단계 S303에서, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 없다고 판정되면, 처리 플로는 단계 S303의 NO로부터 단계 S306으로 진행된다. 단계 S306에서는, 게임 진행부(115)는, 종료 완료된 라이브 전송 파트의 제한부의 진행(즉 상술의 「다시보기 전송」)을 실행한다. 다시보기 전송을 제한부의 것으로 하고 있는 것은, 사용자는 라이브 전송을 받을 권리를 갖고 있었음에도 불구하고, 이 권리를 방기(放棄)했다고 생각할 수 있는 것이기 때문에, 반드시, 라이브 전송의 전부를 재현하여 사용자에게 제시할 필요도 없다는 발상에 의거한다.
구체적으로는, 다시보기 전송에서는, 기록 완료된 동작 지시 데이터를 이용하여, 라이브 전송 파트의 진행을 실행한다. 상술과 같이, 스토리 파트에 관련지어지는 시나리오를 통해, 사용자가 보수를 아이템(도 8에서는 「토끼귀 머리띠」)으로서 획득하고 있었을 경우, 리얼타임으로 진행한 라이브 전송 파트에서는, 그 아이템을 NPC가 몸에 걸쳐 동작시키도록 화상 합성되어 있었다. 즉, NPC의 동작 양태는 보수가 관련지어져 있던 것이었다. 그러나, 다시보기 전송에 있어서는, 이러한 리얼타임으로 진행한 라이브 전송 파트와는 달리, NPC의 동작 양태에는 보수가 관련지어지는 경우는 없다. 즉, 아이템을 NPC가 몸에 걸쳐 동작시키는 화상 합성의 처리는 행하지 않는다. 즉, 종료 완료된 라이브 전송 파트의 진행은, 보수의 정보가 반영되어 있지 않으며, 사용자에게 고유의 것으로는 되지 않는 점에서 제한부의 것이 된다.
또, 다시보기 전송에서는, 리얼타임으로 진행한 라이브 전송 파트와는 달리, 접수 가능한 사용자의 행동도 제한하는 것이 좋다. 구체적으로는, 리얼타임으로 진행한 라이브 전송 파트에서는, 사용자의 입력 조작에 의한 유가 데이터의 소비(일례에서는, 후원금, 및 아이템 구입 등에 의한 과금 등)가 접수 가능했다. 그 한편으로, 종료 완료된 라이브 전송 파트의 진행에서는, 이러한 유가 데이터의 소비가 받아들여지지 않도록 제한해도 된다.
또한, 다시보기 전송에서는, 리얼타임으로 진행한 라이브 전송 파트와는 달리, 라이브 전송 파트에 관련지어지는 특정 시나리오를 플레이했을 경우에도, 소정의 게임·포인트를 획득할 수 없도록 제한해도 된다. 구체적으로는, 리얼타임으로 진행한 라이브 전송 파트에서는, 사용자가 특정 시나리오를 플레이한 결과, 소정의 게임·포인트가 사용자에 관련지어져, 사용자 보유의 포인트에 가산되는 경우가 있다. 그 한편으로, 종료 완료된 라이브 전송 파트의 진행에 있어서는, 사용자에게는 이러한 포인트가 관련지어지지 않도록 해도 된다. 사용자 보유의 포인트가 가산되지 않는 결과, 예를 들면, 포인트에 의거하여 게임 플레이어인 복수의 사용자가 순위 매김되는 게임의 경우, 종료 완료된 라이브 전송 파트를 만일 사용자가 진행시켰다고 해서, 이러한 순위에는 영향을 주지 않게 된다.
상술의 구성 및 방법에 의하면, 사용자 단말(100)에 있어서, 라이브 전송 파트가 리얼타임으로 진행한 후여도, 사용자는 재차 라이브 전송 파트를 다양한 양태로 진행시킬 수 있다. 이에 의해, 사용자는, 당해 캐릭터와의 현실감이 풍부한 주고받음의 체험을 통해, 보다 캐릭터에 애착을 느끼게 되므로, 당해 캐릭터를 조작하는 다른 파트도 보다 한층 더 흥미를 갖고 플레이할 수 있다. 결과적으로, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시킨다는 효과를 나타낸다.
<변형예>
실시 형태 3에서는, 종료 완료된 라이브 전송 파트의 진행이 돌려보기 전송이 될지, 다시보기 전송이 될지는, 사용자가 라이브 전송 파트를 리얼타임으로 진행시킨 실적이 있는지 여부에 의거하여 결정되는 것으로 했다(도 14의 단계 S303). 이에 대해, 본 실시 형태의 변형예에서는, 사용자가 돌려보기 전송 또는 다시보기 전송을 선택 가능하게 하도록 구성해도 된다.
〔소프트웨어에 의한 실현예〕
제어부(110)의 제어 블록(특히, 조작 접수부(111), 표시 제어부(112), UI 제어부(113), 애니메이션 생성부(114), 게임 진행부(115), 해석부(116) 및 진척 정보 생성부(117)), 제어부(210)의 제어 블록(특히, 진행 지원부(211) 및 공유 지원부(212)), 그리고, 제어부(310)의 제어 블록(특히, 조작 접수부(311), 표시 제어부(312), UI 제어부(313), 애니메이션 생성부(314), 진척 모의부(315), 캐릭터 제어부(316) 및 반응 처리부(317))은, 집적 회로(IC칩) 등에 형성된 논리 회로(하드웨어)에 의해 실현해도 되고, CPU(Central Processing Unit)를 이용하여 소프트웨어에 의해 실현해도 된다.
후자의 경우, 제어부(110), 제어부(210) 또는 제어부(310), 혹은, 이들 중 복수를 구비한 정보 처리 장치는, 각 기능을 실현하는 소프트웨어인 프로그램의 명령을 실행하는 CPU, 상기 프로그램 및 각종 데이터가 컴퓨터(또는 CPU)로 판독 가능하게 기록된 ROM(Read Only Memory) 또는 기억 장치(이들을 「기록 매체」 또는 「컴퓨터 가독 매체」로 칭한다), 상기 프로그램을 전개하는 RAM(Random Access Memory) 등을 구비하고 있다. 그리고, 컴퓨터(또는 CPU)가 상기 프로그램을 상기 기록 매체로부터 판독하여 실행함으로써, 본 발명의 목적이 달성된다. 상기 기록 매체로서는, 「일시적이 아닌 유형의 매체」, 예를 들면, 테이프, 디스크, 카드, 반도체 메모리, 프로그래머블한 논리 회로 등을 이용할 수 있다. 또, 상기 프로그램은, 당해 프로그램을 전송 가능한 임의의 전송 매체(통신 네트워크나 방송파 등)를 통해 상기 컴퓨터에 공급되어도 된다. 또한, 본 발명의 일 양태는, 상기 프로그램이 전자적인 전송에 의해 구현화된, 반송파에 매입(埋入)된 데이터 신호의 형태로도 실현될 수 있다. 즉, 컴퓨터 실행 가능 명령을 저장한 컴퓨터 가독 매체는, 컴퓨터 실행 가능 명령이 실행되면, 프로세서에, 상술의 각 실시 형태로 설명한 방법의 단계를 실행시킨다.
본 발명은 상술한 각 실시 형태에 한정되는 것은 아니며, 청구항에 나타낸 범위에서 여러 가지의 변경이 가능하고, 상이한 실시 형태로 각각 개시된 기술적 수단을 적절히 조합하여 얻어지는 실시 형태에 대해서도 본 발명의 기술적 범위에 포함된다.
〔부기 사항〕
본 발명의 일 측면에 따른 내용을 열기하면 이하와 같다.
(항목 1) 프로세서(10), 메모리(11) 및 조작부(통신 IF(13), 입출력 IF(14), 터치 스크린(15), 카메라(17), 측거 센서(18), 입력부(151) 등)를 구비하는 컴퓨터(사용자 단말(100))에 의한 게임의 진행을 위한 방법에 대해 설명했다. 본 개시의 어느 국면에 따르면, 방법은, 프로세서에 의한, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것, 및, 조작부를 통한 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 단계(단계 S1a)와, 제1 파트에 있어서 사용자에 의한 특정 행동을 받아들이는 단계로서, 특정 행동의 결과에 따라, 게임이, 제1 파트(스토리 파트)로부터 제2 파트(라이브 전송 파트)로 전환되는, 단계(단계 S13a)와, 외부 장치(서버(200) 또는 동작 지시 장치(300))로부터 전송되는 제2 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써, 제2 파트의 제1의 진행을 실행하는 단계로서, 제2 동작 지시 데이터가, 사용자에 의한 직접 조작의 대상이 아닌 NPC에 관련지어지는 오퍼레이터가 입력하고 있는 모션 데이터 및 음성 데이터를 포함하는, 단계(단계 S5a)를 포함한다.
상술의 구성에 의하면, 제1 파트에 있어서, 미리 준비된 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것에 추가하여, 캐릭터 제어 장치로부터 제2 동작 지시 데이터를 수신하고, 제2 파트에 있어서, 제2 동작 지시 데이터에 의거하여 NPC를 동작시킨다. 캐릭터 제어 장치로부터 수신한 제2 동작 지시 데이터에 의거하여 NPC를 동작시킬 수 있기 때문에, NPC의 동작은, 틀에 박히지 않고 표현이 큰폭으로 넓어진다. 그 때문에, 사용자는, NPC와의 관계를 통해, 당해 NPC가 마치 현실의 세계에 있을 것 같은 현실감을 느낄 수 있다. 결과적으로, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시킨다는 효과를 나타낸다. 또, 제2 파트로 이행하려면, 사용자는 제1 파트에 있어서 특정 행동을 실시할 필요가 있기 때문에, 게임성을 보다 한층 더 높일 수 있다.
(항목 2) (항목 1)에 있어서, 컴퓨터가 추가로 위치 등록 시스템을 구비하고, 특정 행동의 결과가, 제1 파트에 있어서 위치 등록 시스템에 의해 취득되는 컴퓨터의 위치가, 소정의 위치가 되는 것을 포함한다. 이에 의해, 제2 파트로 이행하려면, 사용자는 제1 파트에 있어서 특정 행동을 실시할 필요가 있다. 결과적으로, 게임성을 보다 한층 더 높일 수 있다.
(항목 3) (항목 1) 또는 (항목 2)에 있어서, 특정 행동의 결과가, 제1 파트에 관련지어진 소정의 시나리오가 완결된 것을 포함한다. 이에 의해, 제2 파트로 이행하려면, 사용자는 제1 파트에 있어서 특정 행동을 실시할 필요가 있다. 결과적으로, 게임성을 보다 한층 더 높일 수 있다.
(항목 4) (항목 1) 내지 (항목 3) 중 어느 한 항목으로서, 방법이, 또한, 프로세서에 의한, 제2 파트의 제1의 진행의 종료 후에, 제2 파트의 제2의 진행을 요구하는 단계(단계 S301)와, 요구하는 단계에 대해 외부 장치로부터 다시 전송되는 제2 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써, 제2 파트의 제2의 진행을 실행하는 단계(단계 S305)를 포함한다. 이에 의해, 사용자는, 라이브 전송을 재차 돌려볼 수 있다.
(항목 5) (항목 4)에 있어서, 제2 파트의 제2의 진행이, 제2 동작 지시 데이터와, 제2 파트의 제1의 진행 동안에 받아들여진 사용자의 입력 조작에 의한 행동의 기록에 의거하여 실행된다. 이에 의해, 사용자는, 라이브 전송을 핀 포인트로 재차 돌려볼 수 있다.
(항목 6) (항목 5)에 있어서, 행동의 기록이 시간 정보를 포함하고, 제2 파트의 제2의 진행이, 제2 파트의 제1의 진행 동안에 있어서의, 조작부를 통한 사용자의 입력 조작에 의한 시간 정보의 지정에 따른다. 이에 의해, 사용자는, 라이브 전송을 핀 포인트로 재차 돌려볼 수 있다.
(항목 7) (항목 5) 또는 (항목 6)에 있어서, 행동이, 제2 파트의 제1의 진행 동안에 있어서의, 조작부를 통한 사용자의 입력 조작에 의한 특정 진행 부분의 선택을 포함하고, 제2 파트의 제2의 진행에 있어서, 선택된 특정 진행 부분만의 진행이 실행된다. 이에 의해, 사용자는, 라이브 전송을 핀 포인트로 재차 돌려볼 수 있다.
(항목 8) 프로세서(10), 메모리(11) 및 조작부(통신 IF(13), 입출력 IF(14), 터치 스크린(15), 카메라(17), 측거 센서(18), 입력부(151) 등)를 구비하는 컴퓨터(사용자 단말(100))에 의한 게임의 진행을 위한 방법에 대해 설명했다. 본 개시의 어느 국면에 따르면, 방법은, 프로세서에 의한, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것, 및, 조작부를 통한 사용자의 입력 조작에 응함으로써, 제1 파트(스토리 파트)의 진행을 실행하는 단계(단계 1, 1a)와, 종료 완료된 제2 파트(라이브 전송 파트)의 진행을 요구하는 단계(단계 S301)와, 외부 장치(서버(200) 또는 동작 지시 장치(300))로부터 기록 완료된 제2 동작 지시 데이터를 수신하는 단계로서, 제2 동작 지시 데이터가, 사용자에 의한 직접 조작의 대상이 아닌 NPC에 관련지어지는 오퍼레이터가 입력한 모션 데이터 및 음성 데이터를 포함하는, 단계(단계 S302)와, 제2 동작 지시 데이터에 의거하여, 사용자에 의한 직접 조작의 대상이 아닌 NPC를 동작시킴으로써 제2 파트(라이브 전송 파트)의 진행을 실행하는 단계(단계 S305, 306)를 포함한다.
상술의 구성에 의하면, 사용자 단말(100)에 있어서, 라이브 전송 파트가 리얼타임으로 진행된 후여도, 사용자는 재차 라이브 전송 파트를 다양한 양태로 진행시킬 수 있다. 이에 의해, 사용자는, 당해 캐릭터와의 현실감이 풍부한 주고받음의 체험을 통해, 보다 캐릭터에 애착을 느끼게 되므로, 당해 캐릭터를 조작하는 다른 파트도 보다 한층 더 흥미를 갖고 플레이할 수 있다. 결과적으로, 게임의 세계로의 몰입감을 높여, 당해 게임의 흥취성을 향상시킨다는 효과를 나타낸다.
(항목 9) (항목 8)에 있어서, 제1 파트 후에, 제2 동작 지시 데이터에 의거하여 NPC를 리얼타임으로 동작시키는 리얼타임의 제2 파트를 진행 가능하게 하고(단계 S5, S5a), 리얼타임의 제2 파트의 진행과 종료 완료된 제2 파트의 진행은, 진행 양태가 상이하다. 이에 의해, 종래라면 한 번 놓치면 볼 수 없었던 라이브 전송을, 제한부이기는 하지만, 사용자는 다시 볼 수 있다.
(항목 10) (항목 9)에 있어서, 리얼타임의 제2 파트의 진행에 있어서, NPC의 동작 양태는, 제1 파트에 관련지어지는 시나리오를 통해 획득되는 보수를 관련지음 가능하고, 종료 완료된 제2 파트의 진행에 있어서, NPC의 동작 양태는, 보수가 관련지어지지 않는다. 이에 의해, 종래라면 한 번 놓치면 볼 수 없었던 라이브 전송을, 제한부이기는 하지만, 사용자는 다시 볼 수 있다.
(항목 11) (항목 9) 또는 (항목 10)에 있어서, 종료 완료된 제2 파트의 진행에 있어서, 조작부를 통한 사용자의 입력 조작에 의한 유가 데이터의 소비가 받아들여지지 않는다. 이에 의해, 종래라면 한 번 놓치면 볼 수 없었던 라이브 전송을, 제한부이기는 하지만, 사용자는 다시 볼 수 있다.
(항목 12) (항목 9) 내지 (항목 11) 중 어느 한 항목에 있어서, 리얼타임의 제2 파트의 진행에 있어서, 제2 파트에 관련지어지는 시나리오의 플레이의 결과에 포인트를 관련지음 가능하고, 종료 완료된 제2 파트의 진행에 있어서, 플레이의 결과에는 포인트가 관련지어지지 않는다. 이에 의해, 종래라면 한 번 놓치면 볼 수 없었던 라이브 전송을, 제한부이기는 하지만, 사용자는 다시 볼 수 있다.
(항목 13) 컴퓨터 실행 가능 명령을 저장한 컴퓨터 가독 매체에 대해 설명했다. 본 개시의 어느 국면에 따르면, 컴퓨터 가독 매체는, 컴퓨터 실행 가능 명령이 실행되면, 프로세서로 하여금, (항목 1) 내지 (항목 12) 중 어느 한 항목의 방법이 포함하는 단계를 실행하게 한다. (항목 13)에 따른 컴퓨터 가독 매체는, (항목 1) 내지 (항목 12)에 따른 방법과 동일한 작용 효과를 나타낸다.
(항목 14) 게임의 진행을 위한 정보 처리 장치(사용자 단말(100))에 대해 설명했다. 본 개시의 어느 국면에 따르면, 정보 처리 장치는, 게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 NPC를 동작시키는 것, 및, 조작부를 통한 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 제1 파트 진행부와, 제1 파트에 있어서 사용자에 의한 특정 행동을 받아들이는 접수부로서, 특정 행동의 결과에 따라, 게임이, 제1 파트로부터 제2 파트로 전환되는, 접수부와, 외부 장치로부터 전송되는 제2 동작 지시 데이터에 의거하여 NPC를 동작시킴으로써 제2 파트의 진행을 실행하는 제2 파트 진행부로서, 제2 동작 지시 데이터가, 사용자에 의한 직접 조작의 대상이 아닌 NPC에 관련지어지는 오퍼레이터가 입력하고 있는 모션 데이터 및 음성 데이터를 포함하는, 제2 파트 진행부를 구비한다. (항목 14)에 따른 방법은, (항목 1)에 따른 방법과 동일한 작용 효과를 나타낸다.
1 게임 시스템, 2 네트워크, 10, 20, 30 프로세서, 11, 21, 31 메모리, 12, 22, 32 스토리지, 13, 23, 33 통신 IF(조작부), 14, 24, 34 입출력 IF(조작부), 15, 35 터치 스크린(표시부, 조작부), 17 카메라(조작부), 18 측거 센서(조작부), 100 사용자 단말(컴퓨터, 정보 처리 장치), 110, 113, 210, 310 제어부, 111, 311 조작 접수부, 112, 312 표시 제어부, 113, 313 UI 제어부, 114, 314 애니메이션 생성부, 115 게임 진행부, 116 해석부, 117 진척 정보 생성부, 120, 220, 320 기억부, 131 게임 프로그램, 132 게임 정보, 133 사용자 정보, 134 캐릭터 제어 프로그램, 151, 351 입력부(조작부), 152, 352 표시부, 200 서버(컴퓨터), 211 진행 지원부, 212 공유 지원부, 300 동작 지시 장치(NPC 제어 장치, 캐릭터 제어 장치), 315 진척 모의부, 316 캐릭터 제어부, 317 반응 처리부, 1010 물체, 1020, 3030 컨트롤러, 1030 기억 매체, 3010 마이크, 3020 모션 캡처 장치

Claims (14)

  1. 프로세서, 메모리 및 조작부를 구비하는 컴퓨터에 의한 게임의 진행을 위한 방법으로서, 상기 프로세서에 의한,
    게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 상기 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 상기 NPC를 동작시키는 것, 및, 상기 조작부를 통한 상기 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 단계와,
    상기 제1 파트에 있어서 상기 사용자에 의한 특정 행동을 받아들이는 단계로서, 상기 특정 행동의 결과에 따라, 상기 게임이, 상기 제1 파트로부터 제2 파트로 전환되는, 단계와,
    외부 장치로부터 전송되는 제2 동작 지시 데이터에 의거하여 상기 NPC를 동작시킴으로써, 상기 제2 파트의 제1의 진행을 실행하는 단계로서, 상기 제2 동작 지시 데이터가, 상기 사용자에 의한 직접 조작의 대상이 아닌 상기 NPC에 관련지어지는 오퍼레이터가 입력하고 있는 모션 데이터 및 음성 데이터를 포함하는, 단계
    를 포함하는, 방법.
  2. 청구항 1에 있어서,
    상기 컴퓨터가 추가로 위치 등록 시스템을 구비하고,
    상기 특정 행동의 결과는, 상기 제1 파트에 있어서 상기 위치 등록 시스템에 의해 취득되는 상기 컴퓨터의 위치가, 소정의 위치가 되는 것을 포함하는, 방법.
  3. 청구항 1 또는 청구항 2에 있어서,
    상기 특정 행동의 결과가, 상기 제1 파트에 관련지어진 소정의 시나리오가 완결된 것을 포함하는, 방법.
  4. 청구항 1 내지 청구항 3 중 어느 한 항에 있어서,
    또한, 상기 프로세서에 의한,
    상기 제2 파트의 제1의 진행의 종료 후에, 상기 제2 파트의 제2의 진행을 요구하는 단계와,
    상기 요구하는 단계에 대해 상기 외부 장치로부터 다시 전송되는 상기 제2 동작 지시 데이터에 의거하여 상기 NPC를 동작시킴으로써, 상기 제2 파트의 제2의 진행을 실행하는 단계
    를 포함하는, 방법.
  5. 청구항 4에 있어서,
    상기 제2 파트의 제2의 진행이, 상기 제2 동작 지시 데이터와, 상기 제2 파트의 제1의 진행 동안에 받아들여진 상기 사용자의 입력 조작에 의한 행동의 기록에 의거하여 실행되는, 방법.
  6. 청구항 5에 있어서,
    상기 행동의 기록이 시간 정보를 포함하고,
    상기 제2 파트의 제2의 진행이, 상기 제2 파트의 제1의 진행 동안에 있어서의, 상기 조작부를 통한 상기 사용자의 입력 조작에 의한 상기 시간 정보의 지정에 따르는, 방법.
  7. 청구항 5 또는 청구항 6에 있어서,
    상기 행동이, 상기 제2 파트의 제1의 진행 동안에 있어서의, 상기 조작부를 통한 상기 사용자의 입력 조작에 의한 특정 진행 부분의 선택을 포함하고,
    상기 제2 파트의 제2의 진행에 있어서, 선택된 상기 특정 진행 부분만의 진행이 실행되는, 방법.
  8. 프로세서, 메모리 및 조작부를 구비하는 컴퓨터에 의한 게임의 진행을 위한 방법으로서, 상기 프로세서에 의한,
    게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 상기 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 상기 NPC를 동작시키는 것, 및, 상기 조작부를 통한 상기 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 단계와,
    종료 완료된 제2 파트의 진행을 요구하는 단계와,
    외부 장치로부터 기록 완료된 제2 동작 지시 데이터를 수신하는 단계로서, 상기 제2 동작 지시 데이터가, 상기 사용자에 의한 직접 조작의 대상이 아닌 상기 NPC에 관련지어지는 오퍼레이터가 입력한 모션 데이터 및 음성 데이터를 포함하는, 단계와,
    상기 제2 동작 지시 데이터에 의거하여, 상기 사용자에 의한 직접 조작의 대상이 아닌 상기 NPC를 동작시킴으로써, 상기 제2 파트의 진행을 실행하는 단계
    를 포함하는, 방법.
  9. 청구항 8에 있어서,
    상기 제1 파트 후에, 상기 제2 동작 지시 데이터에 의거하여 상기 NPC를 리얼타임으로 동작시키는 리얼타임의 상기 제2 파트를 진행 가능하게 하고,
    상기 리얼타임의 제2 파트의 진행과 상기 종료 완료된 제2 파트의 진행은, 진행 양태가 상이한, 방법.
  10. 청구항 9에 있어서,
    상기 리얼타임의 제2 파트의 진행에 있어서, 상기 NPC의 동작 양태는, 상기 제1 파트에 관련지어지는 시나리오를 통해 획득되는 보수를 관련지음 가능하고,
    상기 종료 완료된 제2 파트의 진행에 있어서, 상기 NPC의 동작 양태는, 상기 보수가 관련지어지지 않는, 방법.
  11. 청구항 9 또는 청구항 10에 있어서,
    상기 종료 완료된 제2 파트의 진행에 있어서, 상기 조작부를 통한 상기 사용자의 입력 조작에 의한 유가(有價) 데이터의 소비가 받아들여지지 않는, 방법.
  12. 청구항 9 내지 청구항 11 중 어느 한 항에 있어서,
    상기 리얼타임의 제2 파트의 진행에 있어서, 상기 제2 파트에 관련지어지는 시나리오의 플레이의 결과에 포인트를 관련지음 가능하고,
    상기 종료 완료된 제2 파트의 진행에 있어서, 상기 플레이의 결과에는 상기 포인트가 관련지어지지 않는, 방법.
  13. 컴퓨터 실행 가능 명령을 저장한 컴퓨터 가독 매체로서, 상기 컴퓨터 실행 가능 명령이 실행되면, 상기 프로세서로 하여금, 청구항 1 내지 청구항 12 중 어느 한 항에 기재된 방법이 포함하는 단계를 실행하게 하는, 컴퓨터 가독 매체.
  14. 게임의 진행을 위한 정보 처리 장치로서,
    게임 플레이어인 사용자에 의한 직접 조작의 대상이 아닌 논플레이어 캐릭터(이하, NPC)의 동작을 지정하는, 메모리에 미리 기억되어 있는 제1 동작 지시 데이터에 의거하여 상기 NPC를 동작시키는 것, 및, 조작부를 통한 상기 사용자의 입력 조작에 응함으로써, 제1 파트의 진행을 실행하는 제1 파트 진행부와,
    상기 제1 파트에 있어서 상기 사용자에 의한 특정 행동을 받아들이는 접수부로서, 상기 특정 행동의 결과에 따라, 상기 게임이, 상기 제1 파트로부터 제2 파트로 전환되는, 접수부와,
    외부 장치로부터 전송되는 제2 동작 지시 데이터에 의거하여 상기 NPC를 동작시킴으로써 상기 제2 파트의 진행을 실행하는 제2 파트 진행부로서, 상기 제2 동작 지시 데이터가, 상기 사용자에 의한 직접 조작의 대상이 아닌 상기 NPC에 관련지어지는 오퍼레이터가 입력하고 있는 모션 데이터 및 음성 데이터를 포함하는, 제2 파트 진행부
    를 구비하는, 정보 처리 장치.
KR1020237004912A 2020-08-13 2020-09-15 방법, 컴퓨터 가독 매체, 및 정보 처리 장치 KR20230049096A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020136561A JP6923726B1 (ja) 2020-08-13 2020-08-13 方法、コンピュータ可読媒体、および情報処理装置
JPJP-P-2020-136561 2020-08-13
PCT/JP2020/034850 WO2022034699A1 (ja) 2020-08-13 2020-09-15 方法、コンピュータ可読媒体、および情報処理装置

Publications (1)

Publication Number Publication Date
KR20230049096A true KR20230049096A (ko) 2023-04-12

Family

ID=77364471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237004912A KR20230049096A (ko) 2020-08-13 2020-09-15 방법, 컴퓨터 가독 매체, 및 정보 처리 장치

Country Status (6)

Country Link
US (1) US20230191252A1 (ko)
EP (1) EP4197609A1 (ko)
JP (2) JP6923726B1 (ko)
KR (1) KR20230049096A (ko)
CN (1) CN115996782A (ko)
WO (1) WO2022034699A1 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7349348B2 (ja) * 2018-05-29 2023-09-22 株式会社コロプラ キャラクタ制御用プログラム、方法、および情報処理装置
JP6675724B2 (ja) * 2018-12-25 2020-04-01 株式会社コナミデジタルエンタテインメント ゲームプログラムおよびゲームシステム
JP6726322B1 (ja) * 2019-01-11 2020-07-22 株式会社コロプラ ゲームプログラム、方法、および情報処理装置
JP6722320B1 (ja) * 2019-03-26 2020-07-15 株式会社コロプラ ゲームプログラム、ゲーム方法、および情報端末装置
JP6737941B1 (ja) * 2019-09-30 2020-08-12 株式会社コロプラ プログラム、方法、および視聴端末
JP7269192B2 (ja) * 2020-03-09 2023-05-08 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"전격 온라인 - 게임·앱·만화·애니메이션 정보 사이트", [online], KADOKAWA CORPORATION, [2018년 5월 8일 검색], 인터넷(URL:http://dengekionline.com/elem/000/000/279/279193/index-2.html)

Also Published As

Publication number Publication date
US20230191252A1 (en) 2023-06-22
JP2022032987A (ja) 2022-02-25
JP2022032610A (ja) 2022-02-25
WO2022034699A1 (ja) 2022-02-17
JP6923726B1 (ja) 2021-08-25
EP4197609A1 (en) 2023-06-21
CN115996782A (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
JP7349348B2 (ja) キャラクタ制御用プログラム、方法、および情報処理装置
JP7170077B2 (ja) プログラム
JP6796115B2 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP6595043B1 (ja) ゲームプログラム、方法、および情報処理装置
JP7344948B2 (ja) システム
JP6672380B2 (ja) ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
JP6826573B2 (ja) ゲームプログラム、方法、および情報処理装置
JP2023085442A (ja) プログラム
JP6639561B2 (ja) ゲームプログラム、方法、および情報処理装置
JP2022125081A (ja) プログラム
JP6923726B1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
JP7078585B2 (ja) ゲームプログラム、方法、および情報処理装置
WO2022137340A1 (ja) 情報処理方法、コンピュータ可読媒体、および情報処理装置
JP7095006B2 (ja) ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
JP7258923B2 (ja) プログラム
WO2022137376A1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
WO2022137343A1 (ja) 情報処理方法、コンピュータ可読媒体、および情報処理装置
JP2020110449A (ja) ゲームプログラム、方法、および情報処理装置
JP2021045557A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2020048604A (ja) ゲームプログラム、ゲームプログラムを実行する方法、および情報処理装置

Legal Events

Date Code Title Description
A201 Request for examination