KR20220025048A - 게임 시스템, 처리 방법 및 정보 기억 매체 - Google Patents

게임 시스템, 처리 방법 및 정보 기억 매체 Download PDF

Info

Publication number
KR20220025048A
KR20220025048A KR1020227003144A KR20227003144A KR20220025048A KR 20220025048 A KR20220025048 A KR 20220025048A KR 1020227003144 A KR1020227003144 A KR 1020227003144A KR 20227003144 A KR20227003144 A KR 20227003144A KR 20220025048 A KR20220025048 A KR 20220025048A
Authority
KR
South Korea
Prior art keywords
character
image
processing
parts
player
Prior art date
Application number
KR1020227003144A
Other languages
English (en)
Other versions
KR102719697B1 (ko
Inventor
다이고 오쿠무라
미노루 사시다
히로아키 카도
유키에 칸노
치카 이시이
타카요시 오이
Original Assignee
가부시키가이샤 반다이나무꼬 엔터테인먼트
가부시키가이샤 반다이 나무꼬 온라인
가부시키가이샤 반다이나무코 스타지오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 반다이나무꼬 엔터테인먼트, 가부시키가이샤 반다이 나무꼬 온라인, 가부시키가이샤 반다이나무코 스타지오 filed Critical 가부시키가이샤 반다이나무꼬 엔터테인먼트
Publication of KR20220025048A publication Critical patent/KR20220025048A/ko
Application granted granted Critical
Publication of KR102719697B1 publication Critical patent/KR102719697B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

게임 시스템은, 플레이어의 조작 입력을 접수하는 접수부와, 적어도 1개의 캐릭터가 배치되는 가상 공간의 설정 처리를 행하는 가상 공간 설정부와, 복수의 가상 카메라의 설정 처리를 행하는 가상 카메라 설정부와, 플레이어의 조작 입력에 의거하여, 적어도 1개의 캐릭터를 구성하는 파츠의 설정 처리를 행하는 캐릭터 처리부와, 가상 공간에서 복수의 가상 카메라로부터 적어도 1개의 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성하고, 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부에 표시하는 처리를 행하는 표시 처리부를 포함한다. 표시 처리부는, 파츠의 설정 처리가 행해진 경우에, 설정 처리의 결과가 반영된 캐릭터 메이킹 화상을 표시부에 표시하는 처리를 행한다.

Description

게임 시스템, 처리 방법 및 정보 기억 매체
본 발명은 게임 시스템, 처리 방법 및 정보 기억 매체 등에 관한 것이다.
종래부터, 플레이어가 캐릭터를 작성하고, 작성한 캐릭터를 게임에 등장시키는 것이 가능한 게임 시스템이 알려져 있다. 이와 같은 게임 시스템의 종래 기술로서는 예를 들어 특허문헌 1에 개시되는 기술이 있다. 캐릭터 작성은 캐릭터 메이킹이라고도 불리고, 플레이어는 자신이 소망하는 신체 파츠, 의상 파츠, 장비품 파츠 등의 파츠를 캐릭터에 부착하여, 오리지널의 캐릭터를 작성할 수 있다.
일본 특개2006-230586호 공보
캐릭터 메이킹에서는, 플레이어는 다른 플레이어가 작성한 캐릭터와 겹치지 않는 오리지널의 캐릭터의 작성을 바라고 있다. 이 때문에, 캐릭터에 대해, 보다 상세하게 파츠 설정이 가능한 것이 바람직하다. 그렇지만, 캐릭터에 대한 파츠 설정에는 섬세한 작업이 필요하기 때문에, 플레이어의 작업 효율이 저하되어 버린다는 과제가 있다.
본 실시 형태의 몇 가지의 양태에 의하면, 캐릭터 메이킹에서의 플레이어의 인터페이스 환경을 향상할 수 있는 게임 시스템, 처리 방법 및 정보 기억 매체 등을 제공할 수 있다.
본 개시의 한 양태는, 플레이어의 조작 입력을 접수하는 접수부와, 적어도 1개의 캐릭터가 배치되는 가상 공간의 설정 처리를 행하는 가상 공간 설정부와, 복수의 가상 카메라의 설정 처리를 행하는 가상 카메라 설정부와, 상기 플레이어의 조작 입력에 의거하여, 적어도 1개의 상기 캐릭터를 구성하는 파츠의 설정 처리를 행하는 캐릭터 처리부와, 상기 가상 공간에서 상기 복수의 가상 카메라로부터 적어도 1개의 상기 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성하고, 상기 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부에 표시하는 처리를 행하는 표시 처리부를 포함하고, 상기 표시 처리부는, 상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 설정 처리의 결과가 반영된 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행하는 게임 시스템에 관계된다. 또 본 개시의 한 양태는, 상기 각 부로서 컴퓨터를 기능시키는 프로그램, 또는 그 프로그램을 기억한 컴퓨터 판독 가능한 정보 기억 매체에 관계된다.
본 개시의 한 양태에서는, 적어도 1개의 캐릭터가 배치되는 가상 공간에서, 복수의 가상 카메라의 설정 처리가 행해지고, 플레이어의 조작 입력에 의거하여, 적어도 1개의 캐릭터를 구성하는 파츠의 설정 처리가 행해진다. 그리고 복수의 가상 카메라로부터 캐릭터를 본 복수의 캐릭터 화상이 배열되는 캐릭터 메이킹 화상이 표시되고, 플레이어가 파츠의 설정 처리의 조작 입력을 행하면, 당해 설정 처리가 반영된 캐릭터 메이킹 화상이 표시되게 된다. 이와 같이 하면 플레이어는 파츠의 설정 처리 후의 캐릭터 화상이 자신의 기호나 취향에 맞는지를 캐릭터 메이킹 화상의 복수의 캐릭터 화상을 봄으로써 확인할 수 있게 된다. 이 결과, 플레이어의 작업 효율을 향상할 수 있고, 캐릭터 메이킹에서의 플레이어의 인터페이스 환경을 향상할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 가상 공간 설정부는 적어도 1개의 상기 캐릭터로서 복수의 캐릭터를 상기 가상 공간에 배치하고, 상기 가상 카메라 설정부는 상기 복수의 캐릭터의 각 캐릭터에 대해 상기 복수의 가상 카메라의 각 가상 카메라를 설정하고, 상기 표시 처리부는 상기 복수의 가상 카메라의 각 가상 카메라로부터 상기 복수의 캐릭터의 각 캐릭터를 본 화상을 상기 복수의 캐릭터 화상의 각 캐릭터 화상으로서 생성해도 좋다.
이와 같이 하면, 다른 가상 카메라 방향에서 본 복수의 캐릭터 화상을 간소한 처리로 생성할 수 있게 되어, 캐릭터 메이킹의 작업 효율을 향상할 수 있다.
또 본 개시의 한 양태에서는, 상기 가상 공간 설정부는 상기 복수의 캐릭터의 라이팅을 행하는 광원을 상기 가상 공간에 설정하고, 상기 표시 처리부는 상기 광원에 의거하는 상기 복수의 캐릭터의 셰이딩 처리를 행하여, 상기 복수의 캐릭터 화상을 생성해도 좋다.
이와 같이 하면 광원에 의한 음영을 입힌 캐릭터의 화상을 생성할 수 있게 되어, 리얼한 캐릭터 화상을 생성할 수 있게 된다. 또 1개의 광원으로 복수의 캐릭터의 라이팅을 행함으로써, 가상 카메라의 방향과 캐릭터의 방향의 방향 관계에 의해 캐릭터 화상이 어두운 화상이 되어 버리는 사태의 발생도 억제할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 캐릭터 처리부는, 상기 플레이어의 조작 입력에 의거하여, 상기 복수의 가상 카메라의 방향에 대한 상기 복수의 캐릭터의 방향을 설정해도 좋다.
이와 같이 함으로써, 플레이어의 조작 입력에 응하여, 캐릭터 화상에서의 캐릭터가 향하는 방향을 변화시키는 것이 가능해지고, 캐릭터 메이킹에 알맞은 캐릭터 화상을 플레이어에게 표시할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 캐릭터 처리부는, 상기 플레이어의 조작 입력에 의거하여, 상기 복수의 캐릭터에 대해 상기 파츠의 상기 설정 처리를 실행해도 좋다.
이와 같이 하면, 플레이어의 조작 입력에 의거하여, 복수의 캐릭터에 대해 파츠의 설정 처리가 행해져서, 복수의 캐릭터 화상에 대해 파츠의 설정 처리의 결과가 반영되게 된다. 이에 의해 플레이어는 파츠의 설정 처리 후의 캐릭터 화상을 확인하면서, 캐릭터 메이킹의 작업을 행할 수 있게 되어, 작업 효율이 높은 캐릭터 메이킹을 실현할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 상기 복수의 캐릭터 화상으로서, 제1 가상 카메라 방향에서 본 제1 캐릭터 화상과, 상기 제1 가상 카메라 방향과는 다른 제2 가상 카메라 방향에서 본 제2 캐릭터 화상을 생성해도 좋다.
이와 같이 하면, 제1 가상 카메라 방향에서 본 제1 캐릭터 화상과 제2 가상 카메라로부터 본 제2 캐릭터 화상을 포함하는 복수의 캐릭터 화상을 캐릭터 메이킹 화상으로서 플레이어에게 표시할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 상기 제1 캐릭터 화상과 상기 제2 캐릭터 화상에서, 소정 파츠의 배치 위치를 변경해도 좋다.
이와 같이 하면, 제1 캐릭터 화상과 제2 캐릭터 화상에서 소정 파츠의 배치 위치가 같은 위치라면 위화감이 생기는 상황에서도, 소정 파츠의 배치 위치가 변경됨으로써, 보다 위화감이 없는 캐릭터 화상을 생성할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 상기 복수의 캐릭터 화상의 적어도 1개의 캐릭터 화상에 관해, 얼굴을 구성하는 파츠의 모션 데이터를 변화시킴으로써 상기 얼굴의 표정을 변화시켜도 좋다.
이와 같이 하면 모션 데이터를 변화시킨다는 부하가 가벼운 처리로, 캐릭터의 표정을 여러 가지로 변화시키는 것이 가능해져서, 캐릭터 메이킹의 처리의 경감이나 간소화 등을 실현할 수 있다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 상기 플레이어의 조작 입력에 의거하여 상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 복수의 캐릭터 화상에서 상기 파츠의 상기 설정 처리가 행해진 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행해도 좋다.
이와 같이 하면, 플레이어의 조작 입력에 의거하여 파츠의 설정 처리가 행해지면, 이 설정 처리의 결과가 복수의 캐릭터 화상에 반영되게 되어, 캐릭터 메이킹에 알맞은 캐릭터 메이킹 화상을 플레이어에게 표시할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 상기 플레이어의 조작 입력에 의거하여, 상기 복수의 캐릭터 화상을 일괄하여, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시켜도 좋다.
이와 같이 하면 플레이어는, 소정의 조작 입력을 행함으로써, 캐릭터 화상에서의 캐릭터가 향하는 방향을 일괄하여 변화시키는 것이 가능해져서, 캐릭터 메이킹에서의 플레이어의 인터페이스 환경을 향상할 수 있다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 상기 플레이어의 조작 입력에 의거하여, 상기 복수의 캐릭터 화상을 개별적으로, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시켜도 좋다.
이와 같이 하면, 대상이 되는 캐릭터 화상에 관해서만 개별적으로 캐릭터가 향하는 방향을 변화시키는 것이 가능해져서, 캐릭터 메이킹에서의 플레이어의 여러 가지 요망에 응하는 것이 가능해진다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는, 소정 파츠에 관해서는 상기 복수의 캐릭터 화상의 전부에서 표시되도록 상기 복수의 캐릭터 화상을 생성해도 좋다.
이와 같이 하면, 소정 파츠에 관해서는 복수의 캐릭터 화상에서 항상 표시되게 되기 때문에, 당해 소정 파츠에 관한 파츠 설정을 플레이어가 적절하게 행할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 표시 처리부는 제1 캐릭터 화상에서는 제1 부분이 표시되고, 제2 캐릭터 화상에서는 상기 제1 부분이 비표시가 되는 상기 복수의 캐릭터 화상을 생성해도 좋다.
이와 같이 하면, 제1 캐릭터 화상에서 표시되어 있던 제1 부분이 제2 캐릭터 화상에서 표시되면 부자연스러워지는 상황에서도, 당해 제1 부분을 제2 캐릭터 화상에서 비표시로 할 수 있어서, 적절한 제1, 제2 캐릭터 화상을 표시할 수 있게 된다.
또 본 개시의 한 양태에서는, 상기 제1 캐릭터 화상은 제1 가상 카메라 방향에서 본 캐릭터 화상이고, 상기 제2 캐릭터 화상은 제2 가상 카메라 방향에서 본 캐릭터 화상이고, 캐릭터를 구성하는 1개의 파츠에 대해, 상기 제1 부분을 갖는 제1 파츠와, 상기 제1 부분을 갖지 않는 제2 파츠가 준비되고, 상기 표시 처리부는 상기 제1 파츠를 이용하여 상기 제1 캐릭터 화상을 생성하고, 상기 제2 파츠를 이용하여 상기 제2 캐릭터 화상을 생성해도 좋다.
이와 같이 하면, 제1 가상 카메라 방향에서 본 제1 캐릭터 화상의 생성 시에는, 제1 부분을 갖는 제1 파츠가 이용되고, 제2 가상 카메라 방향에서 본 제2 캐릭터 화상의 생성 시에는, 제1 부분을 갖지 않는 제2 파츠가 이용되게 된다. 따라서, 제1 부분을 갖는 제1 파츠가 이용됨으로써, 제1 캐릭터 화상에서는 제1 부분이 표시되고, 제1 부분을 갖지 않는 제2 파츠가 이용됨으로써, 제2 캐릭터 화상에서는 제1 부분이 표시되지 않게 된다.
또 본 개시의 한 양태는, 플레이어의 조작 입력을 접수하는 접수 처리와, 적어도 1개의 캐릭터가 배치되는 가상 공간을 설정하는 가상 공간 설정 처리와, 복수의 가상 카메라를 설정하는 가상 카메라 설정 처리와, 상기 플레이어의 조작 입력에 의거하여, 적어도 1개의 상기 캐릭터를 구성하는 파츠의 설정 처리를 행하는 캐릭터 처리와, 상기 가상 공간에서 상기 복수의 가상 카메라로부터 적어도 1개의 상기 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성하고, 상기 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부에 표시하는 표시 처리를 행하고, 상기 표시 처리에서, 상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 설정 처리의 결과가 반영된 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행하는 처리 방법에 관계된다.
도 1(A)∼도 1(F)는 본 실시 형태의 게임 시스템을 실현하는 하드웨어 장치의 설명도.
도 2는 본 실시 형태의 게임 시스템의 구성례.
도 3은 본 실시 형태의 전체적인 처리를 설명하는 플로우차트.
도 4는 캐릭터 메이킹 화상의 예.
도 5는 캐릭터 메이킹 화상의 예.
도 6은 캐릭터와 가상 카메라의 배치 수법의 설명도.
도 7은 캐릭터와 가상 카메라의 다른 배치 수법의 설명도.
도 8은 얼굴을 구성하는 파츠의 설명도.
도 9는 뼈의 데이터의 설명도.
도 10은 캐릭터의 파츠 정보의 설명도.
도 11(A), 도 11(B)은 소정 파츠의 배치 위치를 변경하는 수법의 설명도.
도 12는 본 실시 형태의 상세한 처리를 설명하는 플로우차트.
도 13은 캐릭터 메이킹 화상의 예.
도 14는 캐릭터 메이킹 화상의 예.
도 15는 캐릭터 메이킹 화상의 예.
도 16은 캐릭터의 전신 화상이 표시되는 캐릭터 메이킹 화상의 예.
도 17은 캐릭터의 전신 화상이 표시되는 캐릭터 메이킹 화상의 예.
도 18은 캐릭터의 소정 파츠의 표시 및 비표시를 전환하는 수법의 설명도.
이하, 본 실시 형태에 관해 설명한다. 또한, 이하에 설명하는 본 실시 형태는 청구의 범위의 기재 내용을 부당하게 한정하는 것은 아니다. 또한 본 실시 형태에서 설명되는 구성의 전부가 필수 구성 요건이라고는 할 수 없다.
1. 게임 시스템
우선, 도 1(A)∼도 1(F)를 이용하여, 본 실시 형태의 게임 시스템을 실현하는 하드웨어 장치에 관해 설명한다.
도 1(A)에서는, 서버 시스템(500)(정보 처리 시스템)이 네트워크(510)를 통하여 단말 장치(TM1∼TMn)와 통신 접속되어 있다. 예를 들어 서버 시스템(500)은 호스트이고, 단말 장치(TM1∼TMn)는 클라이언트이다. 또한, 본 실시 형태의 게임 시스템 및 그 처리는 서버 시스템(500)에 의해 실현해도 좋고, 단말 장치(TM1∼TMn)에 의해 실현해도 좋다. 또는 서버 시스템(500)과 단말 장치(TM1∼TMn)의 분산 처리에 의해 실현해도 좋다.
또한 본 실시 형태의 게임 시스템 및 처리는 블록 체인의 수법에 의해 실현하는 것도 가능하다. 예를 들어 이더리움(Ethereum)으로 실행 가능한 스마트 콘트랙트라고 불리는 프로그램을 이용하여, 본 실시 형태의 게임 시스템의 각 처리를 실행해도 좋다. 이 경우에는 단말 장치(TM1∼TMn)는 피어·투·피어로 접속되게 된다. 또한 단말 장치(TM1∼TMn) 사이에서 통신되는 게임 정보 등의 각종의 정보는 블록 체인을 이용하여 전송되게 된다. 또한, 이하에서는, TM1∼TMn의 각 단말 장치를 적절히 단말 장치(TM)라고 기재한다.
서버 시스템(500)은 예를 들어 하나 또는 복수의 서버(관리 서버, 게임 서버, 과금 서버, 서비스 제공 서버, 콘텐츠 배신(配信) 서버, 인증 서버, 데이터베이스 서버, 또는 통신 서버 등)에 의해 실현할 수 있다. 이 서버 시스템(500)은 커뮤니티형 웹 사이트나 온라인 게임을 운영하기 위한 각종 서비스를 제공하고, 게임 실행에 필요한 데이터의 관리나, 클라이언트 프로그램 및 각종 데이터 등의 배신을 행할 수 있다. 이에 의해, 예를 들면, 유저 단말인 단말 장치(TM)에 의해 SNS(Social Networking Service) 등을 이용하기 위해 서버 시스템(500)에 액세스하고, 당해 서버 시스템(500)으로부터 제공되는 온라인 게임이나 소셜 게임이나 가정용 게임 등의 네트워크 게임의 플레이가 가능해진다.
네트워크(510)(배신망, 통신 회선)는 예를 들어 인터넷이나 무선 LAN 등을 이용한 통신로이고, 직접 접속을 위한 전용선(전용 케이블)이나 이서넷(등록상표) 등에 의한 LAN 외에, 전화 통신망이나 케이블망이나 무선 LAN 등의 통신망을 포함할 수 있다. 또한 통신 방법에 관해서는 유선/무선을 묻지 않는다.
단말 장치(TM)(플레이어 단말)는 예를 들어 네트 접속 기능(인터넷 접속 기능)을 갖는 단말이다. 이들 단말 장치(TM)로서는, 예를 들어 도 1(B)에 도시하는 퍼스널 컴퓨터나 태블릿형 컴퓨터 등의 정보 처리 장치, 도 1(C)에 도시하는 스마트폰이나 휴대 전화기 등의 휴대형 통신 단말, 도 1(D)에 도시하는 휴대형 게임 장치, 도 1(E)에 도시하는 가정용 게임 장치(거치형), 또는 도 1(F)에 도시하는 업무용 게임 장치 등의 여러 가지 장치를 이용할 수 있다. 또는, 단말 장치(TM)로서, 플레이어의 두부나 팔 등의 부위에 장착되는 웨어러블 기기(HMD, 워치형 기기 등)를 이용해도 좋다.
도 2에 본 실시 형태의 게임 시스템(캐릭터 메이크 시스템)의 구성례를 도시한다. 또한, 게임 시스템의 구성은 도 2로 한정되지 않고, 그 구성 요소(각 부)의 일부를 생략하거나, 다른 구성 요소를 추가하는 등의 여러 가지 변형 실시가 가능하다. 또한 본 실시 형태의 게임 시스템에 의해 실현되는 게임은 멀티 플레이의 게임이라도 좋고, 싱글 플레이의 게임이라도 좋다. 또한 게임의 장르에 관해서도 특히 한정은 없고, RPG(롤플레잉 게임), 액션 게임, 격투 게임, 슈팅 게임, 경쟁 게임, 리듬 게임(음악 게임) 또는 퍼즐 게임 등의 여러 가지 게임에 적용할 수 있다. 또한 대전 게임인 경우는 1 대 1의 대전이라도 좋고, 다 대 다(多對多)의 대전이라도 좋다. 또는, 1 대 다(1인 대 복수의 적)의 대전이나, 다 대 1(복수의 아군 대 복수의 적)의 대전이라도 좋다. 또한 대전 상대는 다른 플레이어라도 좋고, NPC(Non Player Character)라도 좋다. 예를 들면, 복수의 플레이어로 파티를 짜서 협력하여, NPC의 적과 대전하는 게임이라도 좋다. 또한, 플레이어가 캐릭터를 조작하지 않고, AI(Artificial Intelligence)가 플레이어측의 캐릭터의 조작을 행하도록 해도 좋다. AI가 조작하는 플레이어측의 캐릭터는 전원(全員)이라도 좋고, 일부라도 좋다.
게임 시스템은 처리부(100), 조작부(160), 기억부(170), 표시부(190), 음(音) 출력부(192), I/F부(194), 통신부(196)를 포함한다.
처리부(100)(프로세서)는, 기억부(170)(데이터베이스)에 기억되는 각종의 정보, 프로그램, 또는 조작 정보 등에 의거하여, 게임 처리, 접수 처리, 가상 공간 설정 처리, 가상 카메라 설정 처리, 캐릭터 처리, 관리 처리, 표시 처리, 또는 음 처리 등을 행한다.
처리부(100)의 각 부가 행하는 본 실시 형태의 각 처리(각 기능)는 프로세서(하드웨어를 포함하는 프로세서)에 의해 실현할 수 있다. 예를 들어 본 실시 형태의 각 처리는 프로그램 등의 정보에 의거하여 동작하는 프로세서와, 프로그램 등의 정보를 기억하는 메모리에 의해 실현할 수 있다. 프로세서는 예를 들어 각 부의 기능이 개별적인 하드웨어로 실현되어도 좋고, 또는 각 부의 기능이 일체의 하드웨어로 실현되어도 좋다. 예를 들면, 프로세서는 하드웨어를 포함하고, 그 하드웨어는 디지털 신호를 처리하는 회로 및 아날로그 신호를 처리하는 회로의 적어도 일방을 포함할 수 있다. 예를 들면, 프로세서는 회로 기판에 실장된 하나 또는 복수의 회로 장치(예를 들어 IC 등)나, 하나 또는 복수의 회로 소자(예를 들어 저항, 캐패시터 등)로 구성할 수도 있다. 프로세서는 예를 들어 CPU(Central Processing Unit)라도 좋다. 단, 프로세서는 CPU로 한정되는 것이 아니라, GPU(Graphics Processing Unit), 또는 DSP(Digital Signal Processor) 등 각종의 프로세서를 이용하는 것이 가능하다. 또한 프로세서는 ASIC에 의한 하드웨어 회로라도 좋다. 또한 프로세서는 아날로그 신호를 처리하는 앰프 회로나 필터 회로 등을 포함해도 좋다. 메모리(기억부(170))는 SRAM, DRAM 등의 반도체 메모리라도 좋고, 레지스터라도 좋다. 또는 하드 디스크 장치(HDD) 등의 자기 기억 장치라도 좋고, 광학 디스크 장치 등의 광학식 기억 장치라도 좋다. 예를 들면, 메모리는 컴퓨터에 의해 판독 가능한 명령을 격납하고 있고, 당해 명령이 프로세서에 의해 실행됨으로써, 처리부(100)의 각 부의 처리(기능)가 실현되게 된다. 여기에서의 명령은 프로그램을 구성하는 명령 세트라도 좋고, 프로세서의 하드웨어 회로에 대해 동작을 지시하는 명령이라도 좋다.
처리부(100)는 게임 처리부(102), 접수부(104), 가상 공간 설정부(106), 가상 카메라 설정부(108), 캐릭터 처리부(110), 관리부(112), 표시 처리부(120), 음(音) 처리부(130)를 포함한다.
게임 처리부(102)는 플레이어가 게임을 플레이 하기 위한 여러 가지 게임 처리를 행한다. 게임 처리는, 예를 들면, 게임 시작 조건이 채워진 경우에 게임을 시작하는 처리, 시작한 게임을 진행시키는 처리, 게임 종료 조건이 채워진 경우에 게임을 종료하는 처리, 또는 게임 성적을 연산하는 처리 등이다. 네트워크 게임을 예로 들면, 게임 처리부(102)는, 유저 정보를 플레이어마다 관리함으로써, 플레이어마다 게임의 진행을 제어한다. 플레이어의 유저 정보는 유저 정보 기억부(178)에 기억된다.
접수부(104)는 조작부(160)를 이용하여 입력되는 조작 정보의 접수 처리를 행한다. 즉 조작 입력을 접수하는 인터페이스 처리를 행한다.
가상 공간 설정부(106)는 오브젝트가 배치되는 가상 공간(오브젝트 공간)의 설정 처리를 행한다. 예를 들면, 이동체(차, 사람, 로봇, 전철, 비행기, 배, 몬스터 또는 동물 등), 맵(지형), 건물, 관객석, 코스(도로), 아이템, 수목, 벽, 수면 등의 표시물을 나타내는 각종 오브젝트(폴리곤, 자유 곡면 또는 서브디비젼 서페이스 등의 프리미티브면으로 구성되는 오브젝트)를 가상 공간에 배치 설정하는 처리를 행한다. 즉 월드 좌표계에서의 오브젝트의 위치나 회전 각도(향, 방향과 동의)를 결정하고, 그 위치(X, Y, Z)에 그 회전 각도(X, Y, Z축 회전에서의 회전 각도)로 오브젝트를 배치한다. 구체적으로는, 기억부(170)의 가상 공간 정보 기억부(172)에는, 가상 공간에서의 오브젝트(파츠 오브젝트)의 위치, 회전 각도, 이동 속도 또는 이동 방향 등의 정보인 오브젝트 정보가 오브젝트 번호에 대응시켜서 기억된다. 즉, 오브젝트 정보가 가상 공간 정보로서 가상 공간 정보 기억부(172)에 기억된다. 가상 공간 설정부(106)는, 예를 들어 각 프레임마다, 가상 공간 정보인 오브젝트 정보의 갱신 처리를 행한다.
가상 카메라 설정부(108)는 가상 카메라의 설정 처리를 행한다. 예를 들어 가상 공간에서의 가상 카메라의 위치나 방향의 설정 처리를 행한다. 예를 들어 게임 중에는, 가상 카메라 설정부(108)는 플레이어의 1인칭 시점(視點) 또는 3인칭 시점으로서 설정되는 가상 카메라의 제어 처리를 행한다. 예를 들어 실공간의 플레이어에 대응하는 가상 공간의 캐릭터(플레이어 캐릭터)의 시점이나, 또는 캐릭터에 추종하는 시점에, 가상 카메라를 설정하여, 가상 카메라의 시점 위치나 시선 방향을 설정함으로써, 가상 카메라의 위치(위치 좌표)나 자세(회전축 둘레로의 회전 각도)를 제어한다.
캐릭터 처리부(110)는 캐릭터에 관한 여러 가지 처리를 행한다. 예를 들어 캐릭터에의 파츠의 설정 처리 등을 행한다.
관리부(112)는 예를 들어 플레이어의 인증 처리를 행한다. 예를 들어 단말 장치를 이용하여 로그인한 플레이어의 인증 처리를 행한다. 이 인증 처리는 예를 들어 플레이어가 입력하는 패스워드나 어카운트 정보 등에 의거하여 행한다. 또한 관리부(112)는 여러 가지 과금 처리를 행한다. 예를 들어 과금의 결정 처리, 과금 데이터의 작성 처리, 보존 처리 등을 행한다. 또한 관리부(112)는 각종의 관리 처리를 행한다. 예를 들어 각종 서비스의 관리 처리나, 각종 정보의 관리 처리를 행한다.
예를 들어 플레이어는 도 1(A)의 서버 시스템(500) 등이 제공하는 서비스를 이용하기 위해, 소정의 절차를 행하여 어카운트를 취득한다. 취득한 어카운트와 대응되는 패스워드를 입력하여 로그인함으로써, 플레이어는 네트워크 게임의 플레이나, 게임용 사이트에서의 서비스나, 아이템 등의 온라인 쇼핑이나, 플레이어 사이에서의 메시지 교환이나, 프렌드 플레이어의 등록 등의 각종 서비스를 이용할 수 있게 된다. 관리부(112)는 이와 같은 플레이어의 어카운트 정보의 관리 처리 등도 행한다.
표시 처리부(120)는, 표시부(190)에 화상을 표시하기 위한 처리를 행한다. 예를 들어 처리부(100)에서 행해지는 여러 가지 처리(게임 처리, 가상 공간 설정 처리, 가상 카메라 설정 처리)의 결과에 의거하여 묘화 처리를 행하고, 이에 의해 화상을 생성하고, 표시부(190)에 표시한다. 구체적으로는, 좌표 변환(월드 좌표 변환, 카메라 좌표 변환), 클리핑 처리, 투시 변환, 또는 광원 처리 등의 지오메트리 처리가 행해지고, 그 처리 결과에 의거하여, 묘화 데이터(프리미티브면의 정점(頂點)의 위치 좌표, 텍스쳐 좌표, 색 데이터, 법선 벡터 또는 α값 등)가 작성된다. 그리고, 이 묘화 데이터(프리미티브면 데이터)에 의거하여, 투시 변환 후(지오메트리 처리 후)의 오브젝트(하나 또는 복수 프리미티브면)를 묘화 버퍼(176)(프레임 버퍼, 워크 버퍼 등의 픽셀 단위로 화상 정보를 기억할 수 있는 버퍼)에 묘화한다. 이에 의해, 가상 공간에서 가상 카메라로부터 보이는 화상이 생성된다. 또한, 표시 처리부(120)에서 행해지는 묘화 처리는 정점 셰이더 처리나 픽셀 셰이더 처리 등에 의해 실현할 수 있다.
음 처리부(130)는 음 출력부(192)로부터 음을 출력하기 위한 처리를 행한다. 예를 들면, 당해 음(음성, 게임음, 효과음)을 생성하기 위한 음 생성용 데이터를 생성한다.
조작부(160)는 플레이어(유저)가 조작 정보 등의 여러 가지 정보를 입력하기 위한 것이고, 그 기능은 조작 버튼, 방향 지시 키, 아날로그 스틱, 레버, 각종 센서(각속도 센서, 가속도 센서 등), 마이크, 또는 터치 패널형 디스플레이 등에 의해 실현할 수 있다. 터치 패널형 디스플레이를 이용하는 경우에는, 조작부(160)가 되는 터치 패널과, 디스플레이가 되는 표시부(190)가 일체로 마련되게 된다.
기억부(170)는 처리부(100)나 통신부(196) 등의 워크 영역이 되는 것으로, 그 기능은 반도체 메모리, HDD, SSD, 광디스크 장치 등에 의해 실현할 수 있다. 기억부(170)는 가상 공간 정보 기억부(172), 캐릭터 정보 기억부(174), 묘화 버퍼(176), 유저 정보 기억부(178)를 포함한다. 가상 공간 정보 기억부(172)는 3차원의 오브젝트 공간인 가상 공간에 관한 정보를 기억한다. 예를 들어 가상 공간에 배치되는 오브젝트의 정보 등을 기억한다. 캐릭터 정보 기억부(174)는 캐릭터의 정보를 기억한다. 예를 들어 캐릭터의 형상 데이터(모델 정보)나 모션 데이터를 기억한다. 묘화 버퍼(176)는 프레임 버퍼, 워크 버퍼 등의 픽셀 단위로 화상 정보를 기억할 수 있는 버퍼이다. 유저 정보 기억부(178)는 유저인 플레이어의 개인 정보(이름, 성별, 생년월일, 메일 어드레스 등)를 유저 정보로서 기억한다. 예를 들면, 플레이어의 어카운트 정보(유저 ID)도 유저 정보로서 기억된다. 예를 들어 과금 처리의 대상이 되는 과금 정보는 각 플레이어의 각 어카운트 정보(유저 ID)에 대응된다.
정보 기억 매체(180)(컴퓨터에 의해 판독 가능한 매체)는 프로그램이나 데이터 등을 격납하는 것이고, 그 기능은 광디스크, HDD, 반도체 메모리 등에 의해 실현할 수 있다. 처리부(100)는 정보 기억 매체(180)에 격납되는 프로그램(데이터)에 의거하여 본 실시 형태의 여러 가지 처리를 행한다. 이 정보 기억 매체(180)에, 본 실시 형태의 각 부로서 컴퓨터(조작부, 처리부, 기억부, 출력부를 구비하는 장치)를 기능시키기 위한 프로그램(각 부의 처리를 컴퓨터에 실행시키기 위한 프로그램)을 기억할 수 있다.
표시부(190)는 본 실시 형태에 의해 생성된 화상을 출력하는 것이고, 그 기능은 LCD, 유기 EL 디스플레이, CRT, 또는 HMD 등에 의해 실현할 수 있다. 음 출력부(192)는 본 실시 형태에 의해 생성된 음을 출력하는 것이고, 그 기능은 스피커, 또는 헤드폰 등에 의해 실현할 수 있다.
I/F(인터페이스)부(194)는 휴대형 정보 기억 매체(195)와의 인터페이스 처리를 행하는 것이고, 그 기능은 I/F 처리용의 ASIC 등에 의해 실현할 수 있다. 휴대형 정보 기억 매체(195)는 플레이어가 각종의 정보를 보존하기 위한 것이고, 전원이 비공급이 된 경우에도 이들 정보의 기억을 유지하는 기억 장치이다. 휴대형 정보 기억 매체(195)는 IC 카드(메모리 카드), USB 메모리, 또는 자기 카드 등에 의해 실현할 수 있다.
통신부(196)(통신 인터페이스)는 외부 장치와의 사이에서 통신을 행하는 것이고, 그 기능은 통신용 ASIC 또는 통신용 프로세서 등의 하드웨어나, 통신용 펌웨어에 의해 실현할 수 있다.
또한 본 실시 형태의 각 부로서 컴퓨터를 기능시키기 위한 프로그램(데이터)은 서버 시스템(호스트 장치)이 갖는 정보 기억 매체로부터 네트워크 및 통신부(196)를 통하여 정보 기억 매체(180)(또는 기억부(170))에 배신(配信)해도 좋다. 이와 같은 서버 시스템에 의한 정보 기억 매체의 사용도 본 실시 형태의 범위 내에 포함시킬 수 있다.
그리고 도 2에 도시하는 바와 같이 본 실시 형태의 게임 시스템은 접수부(104)와 가상 공간 설정부(106)와 가상 카메라 설정부(108)와 캐릭터 처리부(110)와 표시 처리부(120)를 포함한다.
접수부(104)는 플레이어의 조작 입력을 접수한다. 예를 들어 플레이어가 조작부(160)를 이용하여 여러 가지 조작 입력을 행한 경우에, 그 조작 입력을 접수하는 처리를 행한다. 즉 조작부(160)를 이용하여 입력된 조작 정보의 접수 처리를 행한다.
가상 공간 설정부(106)는 오브젝트 공간인 가상 공간의 설정 처리를 행한다. 예를 들어 적어도 1개의 캐릭터가 배치되는 가상 공간의 설정 처리를 행한다. 캐릭터는 예를 들어 복수의 프리미티브(폴리곤)에 의해 구성되는 3차원의 오브젝트이고, 예를 들어 플레이어에 대응하는 플레이어 캐릭터이다.
가상 카메라 설정부(108)는, 복수의 가상 카메라의 설정 처리를 행한다. 예를 들어 복수의 가상 카메라를 가상 공간에 설정한다. 예를 들어 가상 공간에 배치되는 적어도 1개의 캐릭터에 가상 카메라 방향이 향하도록 복수의 가상 카메라를 배치한다. 예를 들어 적어도 1개의 캐릭터로서 복수의 캐릭터가 가상 공간에 배치되는 경우에는, 가상 카메라 설정부(108)는, 복수의 캐릭터의 각 캐릭터에 대응하여, 복수의 가상 카메라의 각 가상 카메라를 설정한다. 예를 들어 각 캐릭터에 가상 카메라 방향이 향하도록 각 가상 카메라를 배치한다. 또는 1개의 캐릭터가 가상 공간에 배치되는 경우에는, 다른 위치에 배치되는 복수의 가상 카메라를 각 가상 카메라 방향이 캐릭터를 향하도록 각 가상 카메라를 배치한다.
캐릭터 처리부(110)는 캐릭터의 파츠의 설정 처리를 행한다. 예를 들어 플레이어의 조작 입력에 의거하여, 적어도 1개의 캐릭터를 구성하는 파츠의 설정 처리를 행한다. 예를 들어 캐릭터 처리부(110)는, 플레이어의 조작 입력에 의거하여, 캐릭터에 부착하는 파츠를 선택·결정하여, 캐릭터를 구성하는 파츠로서 설정하는 처리를 행한다. 파츠는 예를 들어 캐릭터의 신체 파츠(얼굴, 가슴, 허리, 팔, 발 등)나, 의상 파츠나, 무기, 방어용 기구 등의 장비품 파츠 등이다. 파츠의 설정 처리는 파츠를 다른 파츠로 바꾸는 처리나, 파츠의 설정 내용(종류, 형상)의 변경 처리나, 또는 파츠의 모션 데이터의 변화 처리(설정 처리) 등이다. 또한 조작 입력이 컴퓨터에 의한 자동 조작 입력인 변형 실시도 가능하다.
표시 처리부(120)는 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부(190)에 표시하는 처리를 행한다. 예를 들어 표시 처리부(120)는 가상 공간에서 복수의 가상 카메라로부터 적어도 1개의 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성한다. 예를 들어 가상 공간에 복수의 캐릭터가 배치되는 경우에는, 복수의 캐릭터 화상의 각 캐릭터 화상은 복수의 가상 카메라의 각 가상 카메라로부터 복수의 캐릭터의 각 캐릭터를 본 화상이 된다. 이 경우에는 예를 들면, 각 가상 카메라의 방향에 대한 각 캐릭터의 방향(상대적인 방향)이 서로 다르도록, 복수의 캐릭터의 방향이 설정된다. 가상 카메라의 방향은 가상 카메라의 시선 방향이고, 캐릭터의 방향은 캐릭터가 향하는 방향이다. 또한 가상 공간에 1개의 캐릭터가 배치되는 경우에는, 복수의 캐릭터 화상의 각 캐릭터 화상은 복수의 가상 카메라의 각 가상 카메라로부터 당해 1개의 캐릭터를 본 화상이 된다. 이 경우에는 예를 들면, 1개의 캐릭터에 대한 각 가상 카메라의 위치(상대적 위치)나 방향(상대적인 방향)이 서로 다르도록, 복수의 가상 카메라가 설정된다. 그리고 표시 처리부(120)는 이와 같이 생성된 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 생성하여, 표시부(190)에 표시하는 처리를 행한다. 캐릭터 메이킹 화상은 플레이어가 캐릭터 메이킹을 위해 보는 화상이고, 캐릭터 메이킹 화면으로서 플레이어에게 표시된다.
그리고 표시 처리부(120)는, 파츠의 설정 처리가 행해진 경우에, 설정 처리의 결과가 반영된 캐릭터 메이킹 화상을 표시부(190)에 표시하는 처리를 행한다. 예를 들어 플레이어의 조작 입력에 의거하여 캐릭터에 대한 파츠의 설정 처리가 행해지면, 적어도 1개의 캐릭터 화상에 파츠의 설정 처리의 결과가 반영된 캐릭터 메이킹 화상이 표시된다. 또한 구체적으로는 복수의 캐릭터 화상의 전부에 파츠의 설정 처리의 결과가 반영된 캐릭터 메이킹 화상이 표시된다. 파츠의 설정 처리의 결과가 반영된 캐릭터 화상은 캐릭터의 파츠가 교체되거나, 파츠의 설정 내용이 변경되거나, 또는 파츠에 설정되는 모션 데이터가 변경된 캐릭터 화상 등이다.
또한 가상 공간 설정부(106)는 적어도 1개의 캐릭터로서 복수의 캐릭터를 가상 공간에 배치한다. 예를 들어 제1∼제N(N은 2 이상의 정수) 캐릭터 화상을 생성하는 경우에는, 제1∼제N 캐릭터를 가상 공간의 다른 위치에 배치한다. 그리고 가상 카메라 설정부(108)는 복수의 캐릭터의 각 캐릭터에 대해 복수의 가상 카메라의 각 가상 카메라를 설정한다. 예를 들어 제1∼제N 캐릭터의 제i(i는 1≤i≤N이 되는 정수)의 캐릭터에 대해, 제1∼제N 가상 카메라의 제i 가상 카메라를 설정한다. 예를 들어 각 가상 카메라(제i 가상 카메라)의 방향이 각 캐릭터(제i 캐릭터) 쪽을 향하도록, 복수의 가상 카메라의 각 가상 카메라를 배치한다. 이 경우에, 제i 가상 카메라의 방향과 제i 캐릭터의 방향이 이루는 각도와, 제j(j는, 1≤j≤N이 되는 i와는 다른 정수)의 가상 카메라의 방향과 제j 캐릭터의 방향이 이루는 각도가 다르도록, 제i, 제j 캐릭터와 제i, 제j 가상 카메라가 배치된다. 그리고 표시 처리부(120)는 복수의 가상 카메라의 각 가상 카메라로부터 복수의 캐릭터의 각 캐릭터를 본 화상을 복수의 캐릭터 화상의 각 캐릭터 화상으로서 생성한다. 예를 들어 제i 가상 카메라로부터 제i 캐릭터를 본 화상을 복수의 캐릭터 화상의 제i 캐릭터 화상으로서 생성하고, 제j 가상 카메라로부터 제j 캐릭터를 본 화상을 복수의 캐릭터 화상의 제j 캐릭터 화상으로서 생성한다. 그리고 이들 제i, 제j 캐릭터 화상을 포함하는 복수의 캐릭터 화상이 배치된 캐릭터 메이킹 화상이 표시부(190)에 표시된다.
이 경우에 가상 공간 설정부(106)는 복수의 캐릭터의 라이팅을 행하는 광원을 가상 공간에 설정한다. 즉 복수의 캐릭터의 라이팅을 행하는 조명 모델이 되는 광원을 설정한다. 조명 모델로서는, 램버트(Lambert), 폰(Phong), 또는 블린(Blinn) 등의 여러 가지 조명 모델을 채용할 수 있다. 또한 광원은 예를 들어 복수의 가상 카메라 중의 대표가 되는 1개의 가상 카메라에 대응하는 위치에 설정된다. 그리고 표시 처리부(120)는 광원에 의거하는 복수의 캐릭터의 셰이딩 처리를 행하여, 복수의 캐릭터 화상을 생성한다. 예를 들어 고러드 셰이딩 또는 폰 셰이딩 등의 셰이딩 처리에 의해 복수의 캐릭터의 오브젝트를 묘화하는 처리를 행하여, 복수의 캐릭터 화상을 생성한다. 이들 셰이딩 처리는 예를 들어 픽셀 셰이더 등에 의해 실현할 수 있다.
또한 캐릭터 처리부(110)는, 플레이어의 조작 입력에 의거하여, 복수의 가상 카메라의 방향에 대한 복수의 캐릭터의 방향을 설정한다. 예를 들어 캐릭터 처리부(110)는, 플레이어가 전환의 조작 입력을 행한 경우에, 복수의 가상 카메라의 방향에 대한 복수의 캐릭터의 방향의 관계인 상대적인 방향 관계를 일괄하여 변화시키는 처리를 행한다. 이와 같이 함으로써, 복수의 캐릭터 화상이 일괄하여, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화하게 된다. 또는 가상 카메라와 캐릭터의 방향 관계를 개별적으로 전환해도 좋다. 이와 같이 하면, 복수의 캐릭터 화상이 개별적으로, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화하게 된다.
또한 캐릭터 처리부(110)는, 플레이어의 조작 입력에 의거하여, 복수의 캐릭터에 대해 파츠의 설정 처리를 실행한다. 예를 들어 복수의 캐릭터 화상에 대해 파츠의 설정 처리가 반영되도록, 복수의 캐릭터에 대해 파츠의 설정 처리를 실행한다. 예를 들어 파츠의 전환 처리, 파츠의 내용의 설정 처리 또는 모션 데이터의 설정 처리를 복수의 캐릭터에 대해 일괄로 실행한다. 이에 의해 복수의 캐릭터 화상의 전부에 대해 파츠의 설정 처리가 반영되게 된다. 또한 캐릭터에 대해 개별적으로 파츠의 설정 처리를 행해도 좋다. 이와 같이 하면, 캐릭터 화상에 대해 개별적으로 파츠의 설정 처리가 반영되게 된다.
또한 표시 처리부(120)는, 복수의 캐릭터 화상으로서, 제1 가상 카메라 방향(제i 가상 카메라 방향)에서 본 제1 캐릭터 화상(제i 캐릭터 화상)과, 제1 가상 카메라 방향과는 다른 제2 가상 카메라 방향(제j 가상 카메라 방향)에서 본 제2 캐릭터 화상(제j 가상 캐릭터 화상)을 생성한다. 이와 같이 함으로써 제1 캐릭터 화상과 제2 캐릭터 화상은 다른 가상 카메라 방향에서 본 캐릭터 화상이 된다.
이 경우에 표시 처리부(120)는, 제1 캐릭터 화상과 제2 캐릭터 화상에서, 소정 파츠의 배치 위치를 변경해도 좋다. 즉 제1 가상 카메라 방향에서 캐릭터를 본 제1 캐릭터 화상과, 제2 가상 카메라 방향에서 캐릭터를 본 제2 캐릭터 화상에서, 소정 파츠의 배치 위치를 다르게 한다. 예를 들어 제1 캐릭터 화상에서 제1 위치에 배치되어 있던 소정 파츠를 제2 캐릭터 화상에서는 제1 위치로부터 시프트한 제2 위치에 배치한다. 예를 들어 애니메이션의 캐릭터 등에서, 애니메이션의 표현에 맞도록 소정 파츠의 위치를 변경한다. 소정 파츠는 예를 들어 캐릭터의 얼굴을 구성하는 파츠이다. 예를 들어 소정 파츠는 눈 파츠, 코 파츠, 입 파츠 또는 턱 파츠 등이다.
또한 표시 처리부(120)는, 복수의 캐릭터 화상의 적어도 1개의 캐릭터 화상에 관해, 얼굴을 구성하는 파츠의 모션 데이터를 변화시킴으로써 얼굴의 표정을 변화시킨다. 예를 들어 파츠의 뼈의 데이터로서 설정되는 모션 데이터를 변화시킴으로써, 예를 들어 눈 파츠, 코 파츠, 입 파츠 또는 턱 파츠 등의 형상을 변화시켜서, 캐릭터 화상에서의 캐릭터의 얼굴의 표정을 변화시킨다. 예를 들어 통상의 얼굴로부터, 웃는 얼굴, 화난 얼굴, 놀란 얼굴, 밝은 얼굴, 기쁜 얼굴 또는 난처한 얼굴 등으로 얼굴의 표정을 변화시킨다.
또한 표시 처리부(120)는, 플레이어의 조작 입력에 의거하여 파츠의 설정 처리가 행해진 경우에, 복수의 캐릭터 화상에서 파츠의 설정 처리가 행해진 캐릭터 메이킹 화상을 표시부(190)에 표시하는 처리를 행한다. 예를 들면, 플레이어가 파츠의 설정 처리를 지시하는 조작 입력을 행한 경우에, 복수의 캐릭터 화상에서 파츠의 설정 처리가 반영된 캐릭터 메이킹 화상을 표시한다. 예를 들어 파츠의 교체 처리, 설정 내용의 변경 처리 또는 모션 데이터의 변경 처리가 일괄하여 반영된 복수의 캐릭터 화상을 생성하여, 캐릭터 메이킹 화상으로서 표시한다.
또한 표시 처리부(120)는, 플레이어의 조작 입력에 의거하여, 복수의 캐릭터 화상을 일괄하여, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시킨다. 예를 들어 플레이어가 캐릭터 화상의 표시의 전환을 지시하는 조작 입력을 행한 경우에, 복수의 캐릭터 화상을 일괄하여 변화시킨다. 예를 들어 가상 공간에 복수의 캐릭터를 배치하여 복수의 캐릭터 화상을 생성하는 경우에는, 복수의 가상 카메라의 방향에 대한 복수의 캐릭터의 방향을 일괄하여 변화시킴으로써, 복수의 캐릭터 화상을 변화시킨다. 가상 공간에 1개의 캐릭터를 배치하여 복수의 캐릭터 화상을 생성하는 경우에는, 캐릭터의 방향에 대한 복수의 가상 카메라의 방향을 일괄하여 변화시킴으로써, 복수의 캐릭터 화상을 변화시킨다.
또한 표시 처리부(120)는, 플레이어의 조작 입력에 의거하여, 복수의 캐릭터 화상을 개별적으로, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시킨다. 예를 들어 플레이어가 캐릭터 화상의 표시의 전환을 지시하는 조작 입력을 행한 경우에, 복수의 캐릭터 화상 중의 예를 들어 1개의 캐릭터 화상을 다른 가상 카메라 방향에서 캐릭터를 본 캐릭터 화상으로 변화시킨다. 예를 들어 가상 공간에 복수의 캐릭터를 배치하여 복수의 캐릭터 화상을 생성하는 경우에는, 복수의 캐릭터 중의 1개의 캐릭터의 방향을 변화시킴으로써, 복수의 캐릭터 화상 중, 당해 캐릭터에 대응하는 캐릭터 화상을 변화시킨다. 가상 공간에 1개의 캐릭터를 배치하여 복수의 캐릭터 화상을 생성하는 경우에는, 복수의 가상 카메라 중의 1개의 가상 카메라의 방향을 변화시킴으로써, 복수의 캐릭터 화상 중, 당해 가상 카메라로부터 보이는 캐릭터 화상을 변화시킨다.
또한 표시 처리부(120)는 소정 파츠에 관해서는 복수의 캐릭터 화상의 전부에서 표시되도록 복수의 캐릭터 화상을 생성한다. 예를 들어 캐릭터 화상으로서 캐릭터의 얼굴을 표시하는 경우에는, 얼굴의 주요 파츠(소정 파츠)에 관해서는 복수의 캐릭터 화상의 전부에서 표시되도록 한다. 예를 들어 눈 파츠, 코 파츠, 입 파츠, 턱 파츠 등의 주요 파츠에 관해서는 항상 표시되도록 한다. 예를 들어 플레이어가 캐릭터 화상의 표시를 전환하는 조작 입력을 행함으로써, 복수의 캐릭터 화상을 다른 가상 카메라의 방향의 캐릭터 화상으로 전환하는 경우에도, 소정 파츠인 주요 파츠에 관해서는 복수의 캐릭터 화상의 전부에서 표시한다.
또한 표시 처리부(120)는 제1 캐릭터 화상에서는 제1 부분이 표시되고, 제2 캐릭터 화상에서는 제1 부분이 비표시가 되는 복수의 캐릭터 화상을 생성한다. 예를 들어 제1 가상 카메라로부터 보이는 제1 캐릭터 화상에서는 표시되어 있는 캐릭터의 제1 부분을 제2 가상 카메라로부터 보이는 제2 캐릭터 화상에서는 표시하지 않도록 한다. 예를 들어 가상 카메라의 시점에 응하여, 캐릭터를 구성하는 부분에서, 묘화되는 부분과 묘화되지 않는 부분을 마련한다. 즉 제1 가상 카메라의 시점에서는, 묘화한 쪽이 바람직한 제1 부분을 제2 가상 카메라의 시점에서 묘화하면 부자연스러워져 버리는 경우에는, 당해 제1 부분에 관해서는, 제2 가상 카메라로부터 보이는 제2 캐릭터 화상에서는 표시하지 않도록 한다.
이 경우에, 예를 들어 제1 캐릭터 화상은 제1 가상 카메라 방향에서 본 캐릭터 화상이고, 제2 캐릭터 화상은 제2 가상 카메라 방향에서 본 캐릭터 화상이다. 즉 제1 캐릭터 화상과 제2 캐릭터 화상은 다른 가상 카메라 방향에서 본 캐릭터 화상이다. 그리고 캐릭터를 구성하는 1개의 파츠에 대해, 제1 부분을 갖는 제1 파츠와, 제1 부분을 갖지 않는 제2 파츠가 준비된다. 즉 1개의 파츠에 대해, 형상 등이 다른 복수 종류의 파츠인 제1 파츠와 제2 파츠가 준비된다. 이 제1 파츠의 정보와 제2 파츠의 정보는 캐릭터 정보로서 캐릭터 정보 기억부(174)에 기억된다. 그리고 표시 처리부(120)는 제1 파츠를 이용하여 제1 캐릭터 화상을 생성하고, 제2 파츠를 이용하여 제2 캐릭터 화상을 생성한다. 즉 제1 가상 카메라 방향에서 본 제1 캐릭터 화상의 생성 시에는, 제1 부분을 갖는 제1 파츠를 이용하고, 제2 가상 카메라 방향에서 본 제2 캐릭터 화상의 생성 시에는, 제1 부분을 갖지 않는 제2 파츠를 이용하도록 한다. 이에 의해, 제1 캐릭터 화상에서는 제1 부분이 표시되고, 제2 캐릭터 화상에서는 당해 제1 부분이 비표시가 된다.
또한, 이상에 설명한 도 2의 본 실시 형태의 게임 시스템이나 처리는 도 1(A)의 서버 시스템(500)에 의해 실현하거나, 단말 장치(TM)에 의해 실현하거나, 서버 시스템(500)과 단말 장치(TM)의 분산 처리에 의해 실현하는 등의 여러 가지 변형 실시가 가능하다. 또한 본 실시 형태의 프로그램으로서는, 퍼스널 컴퓨터용의 게임 프로그램, 스마트폰의 애플리케이션 프로그램, 가정용 게임 장치의 게임 프로그램, 스마트폰이나 퍼스널 컴퓨터용의 브라우저 게임 프로그램, 또는 업무용 게임 장치의 프로그램 등의 여러 가지 프로그램에 적용할 수 있다.
2. 본 실시 형태의 수법
다음으로 본 실시 형태의 수법에 관해 상세히 설명한다.
2. 1 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상
본 실시 형태에서는, 게임에 등장하는 캐릭터로서, 플레이어에게 오리지널 캐릭터를 작성할 수 있도록 하는 캐릭터 메이킹 화상을 플레이어에게 표시한다. 예를 들어 도 3은 본 실시 형태의 전체적인 처리례를 도시하는 플로우차트이다.
우선 타이틀 화면이 표시되고(스텝 S1), 그 후에 유저 선택, 캐릭터 선택이 행해진다(스텝 S2, S3). 그리고 캐릭터 선택에서, 유저인 플레이어가 신규의 캐릭터를 작성하는 경우에는, 캐릭터 메이킹 화면을 표시한다(스텝 S4, S5). 한편, 플레이어가 신규의 캐릭터를 작성하지 않는 경우에는, 작성이 끝난 캐릭터가 선택된다. 그리고 캐릭터 선택 후에 게임을 시작하고(스텝 S6), 게임을 진행시키는 처리가 행해진다(스텝 S7). 그리고 게임이 종료했는지의 여부가 판단되고(스텝 S8), 게임이 종료되었다고 판단되면 처리를 종료한다. 이와 같이 본 실시 형태에서는, 플레이어가 캐릭터 메이킹으로 신규 작성한 캐릭터를 게임에 등장시켜서, 플레이어는 신규 작성한 캐릭터를 예를 들어 플레이어 캐릭터로서 게임 플레이를 즐기는 것이 가능해진다.
도 4는 본 실시 형태의 캐릭터 메이킹 화상(캐릭터 메이킹 화면)의 예이다. 도 4에 도시하는 바와 같이 본 실시 형태에서는, 복수의 캐릭터 화상(IM1, IM2, IM3)이 배열된 캐릭터 메이킹 화상이 플레이어에게 표시된다. 이들 캐릭터 화상(IM1, IM2, IM3)은 다른 가상 카메라 방향에서 같은 캐릭터를 본 캐릭터 화상으로 되어 있다. 즉 본 실시 형태에서는, 오브젝트 공간인 가상 공간에 캐릭터를 배치하고, 가상 공간에서 캐릭터를 복수의 가상 카메라로부터 본 화상인 복수의 캐릭터 화상(IM1, IM2, IM3)을 생성한다. 그리고, 이들 캐릭터 화상(IM1, IM2, IM3)이 배열된 화상을 캐릭터 메이킹을 행하기 위한 화상으로서 표시한다. 또한 본 실시 형태에서는, 캐릭터 화상의 개수가 3개인 경우를 주로 예로 들어 설명하지만, 캐릭터 화상의 개수는 후술하는 도 16, 도 17에 도시하는 바와 같이 2개라도 좋고, 4개 이상이라도 좋다.
플레이어는 도 4의 A1에 도시하는 조작 입력 영역에서, 캐릭터의 클래스, 체형 및 성별, 얼굴 및 머리 모양, 의상, 음성을 선택할 수 있다. 클래스의 항목에서는, 플레이어는 예를 들어 롤플레잉 게임(RPG) 내에서의 캐릭터의 능력과 역할 분담을 나타내는 클래스를 설정할 수 있다. 클래스는 캐릭터의 직업이라고도 불린다. 체형 및 성별의 항목에서는, 플레이어는 후술하는 도 16, 도 17에서 설명하는 바와 같이 캐릭터의 체형이나 남녀의 성별을 설정할 수 있다. 의상의 항목에서는, 플레이어는 캐릭터에 입히는 의상 파츠를 설정할 수 있다. 음성의 항목에서는, 캐릭터가 발하는 음성을 설정할 수 있다. 그리고 도 4의 A1에서는, 플레이어는 얼굴 및 머리 모양의 항목을 선택하고 있고, 이에 의해 A2에 도시하는 바와 같이, 플레이어는 캐릭터의 얼굴 타입, 피부 색, 머리 모양, 윤곽, 눈썹, 눈, 코, 입 등의 설정을 할 수 있다. 플레이어는 이들에 관한 설정을 A3에 도시하는 조작 입력 영역에서 행할 수 있다. 또한 A4의 전환 아이콘을 이용함으로써, 플레이어는 각종의 표시 전환이 가능하게 되어 있다.
예를 들어 도 4에서는 캐릭터 화상(IM1, IM2, IM3)으로서 어른 타입의 얼굴의 캐릭터 화상이 표시되어 있다. 그리고 플레이어가 예를 들어 어린이 타입을 선택하면, 도 5에 도시하는 바와 같이 캐릭터 화상(IM1, IM2, IM3)으로서 어린이 타입의 얼굴의 캐릭터 화상이 표시되게 된다. 그리고 플레이어가, 예를 들어 피부 색, 머리 모양, 윤곽, 눈썹, 눈, 코 또는 입 등의 항목을 선택하여, 캐릭터를 구성하는 각 파츠를 설정하는 조작 입력을 행하면, 파츠의 설정 처리의 결과가 반영된 캐릭터 메이킹 화상이 표시되게 된다.
이상과 같이 본 실시 형태에서는, 플레이어의 조작 입력이 접수되고, 플레이어의 조작 입력에 의거하여, 캐릭터를 구성하는 파츠의 설정 처리가 행해진다. 즉 플레이어는, 도 4의 A1, A2, A3에 도시하는 조작 입력 영역에서 클릭 조작이나 터치 조작을 행하거나, A4의 전환 아이콘을 클릭하거나 터치한다. 그러면, 이 플레이어의 조작 입력이 접수되어, 캐릭터를 구성하는 신체 파츠, 의상 파츠 또는 장비품 파츠의 교체 처리나 변경 처리 등의 파츠의 설정 처리가 행해진다. 또한 본 실시 형태에서는, 적어도 1개의 캐릭터와 복수의 가상 카메라를 가상 공간에 배치하고, 도 4에 도시하는 바와 같이 가상 공간에서 복수의 가상 카메라로부터 캐릭터를 본 화상인 복수의 캐릭터 화상(IM1, IM2, IM3)을 생성한다. 그리고 이들 캐릭터 화상(IM1, IM2, IM3)이 배열된 캐릭터 메이킹 화상을 플레이어에게 표시한다. 그리고 플레이어의 조작 입력에 의해 파츠의 설정 처리가 행해지면, 당해 설정 처리의 결과가 반영된 캐릭터 메이킹 화상을 표시한다. 예를 들어 신체 파츠나 의상 파츠의 교체 처리 등의 파츠의 설정 처리가 행해지면, 이 설정 처리의 결과를 캐릭터 메이킹 화상의 캐릭터 화상(IM1, IM2, IM3)에 반영시킨다.
예를 들어 지금까지의 캐릭터 메이킹에서는, 캐릭터 메이킹 화상으로서 1개의 캐릭터 화상밖에 표시하고 있지 않았다. 이 때문에 플레이어는, 예를 들어 캐릭터의 파츠의 교체 등을 행한 경우에, 그 반영 결과를 1개의 캐릭터 화상으로밖에 확인할 수 없었다. 이 때문에, 파츠의 교체 등을 행한 후의 캐릭터의 화상이 플레이어의 취향이나 기호에 따른 것인지를 플레이어는 충분히 확인하거나 음미할 수 없었다.
이 경우에 예를 들어 플레이어가 캐릭터를 회전시키는 조작을 행함으로써, 캐릭터가 회전하여 보이는 캐릭터 화상을 표시하는 수법도 생각할 수 있다. 예를 들어 캐릭터를 주시하는 가상 카메라를, 캐릭터를 중심으로 한 원주상에서 이동시킴으로써, 캐릭터가 회전하여 보이는 캐릭터 화상을 생성할 수 있다.
그렇지만, 이 수법에서는, 플레이어는 캐릭터를 회전시키는 조작을 행하여, 다양한 방향으로부터의 캐릭터의 화상이 어떻게 보이는지를 확인하면서, 작업을 행할 필요가 있기 때문에, 플레이어의 작업 효율이 저하되어 버린다. 즉 플레이어는 캐릭터를 빙글빙글 회전시키면서, 자신이 부착한 파츠가 기호에 맞는지를 확인하는 작업을 행할 필요가 있어, 번잡한 작업을 플레이어에게 강요하게 되어 버린다.
특히 캐릭터 메이킹에서는, 플레이어는 다른 플레이어가 작성한 캐릭터와 겹치지 않는 오리지널의 캐릭터의 작성을 바라고 있다. 이 때문에, 캐릭터에 대해, 보다 정세(精細)하게 파츠 설정이 할 수도 있는 것이 바람직하지만, 이와 같은 섬세한 파츠 설정의 작업에서, 상기와 같은 번잡한 확인 작업을 플레이어에게 강요해 버리면, 캐릭터 메이킹에서의 플레이어의 작업이 번잡화해 버려, 알맞은 인터페이스 환경을 플레이어에게 제공할 수 없다는 문제가 있다.
그래서 본 실시 형태에서는 도 4에 도시하는 바와 같이, 예를 들어 다양한 가상 카메라 방향에서의 복수의 캐릭터 화상(IM1, IM2, IM3)이 배열되는 캐릭터 메이킹 화상을 플레이어에게 표시한다. 그리고 플레이어가 파츠의 교체 등의 조작 입력을 행하면, 파츠의 교체 등의 설정 처리가 캐릭터 화상(IM1, IM2, IM3)에 반영된 캐릭터 메이킹 화상을 플레이어에게 표시한다. 이와 같이 하면 플레이어는 파츠의 설정 후의 캐릭터의 화상이 자신의 기호나 취향에 맞는지를 캐릭터 메이킹 화상의 복수의 캐릭터 화상(IM1, IM2, IM3)을 예를 들어 1회 보는 것만으로 확인할 수 있게 된다. 이 결과, 플레이어의 작업 효율을 향상할 수 있고, 캐릭터 메이킹에서의 플레이어의 작업의 번잡화를 억제할 수 있게 된다. 따라서, 플레이어는 정세한 파츠 설정이라도 스트레스 없이 작업을 행하는 것이 가능해지고, 다른 플레이어와 겹치지 않는 오리지널의 캐릭터를 작성하는 것이 용이해지고, 캐릭터 메이킹에서의 플레이어의 인터페이스 환경을 향상할 수 있게 된다.
2. 2 캐릭터 화상의 생성 처리
다음으로 캐릭터 화상의 생성 수법의 구체례에 관해 설명한다. 본 실시 형태에서는 도 6에 도시하는 바와 같이 복수의 캐릭터(CH1, CH2, CH3)를 가상 공간에 배치한다. 이들 캐릭터(CH1, CH2, CH3)는 플레이어의 캐릭터 메이킹의 대상이 되는 같은 모델의 캐릭터이다. 즉 같은 형상 모델의 캐릭터이다. 그리고 본 실시 형태에서는, 이들 복수의 캐릭터(CH1, CH2, CH3)에 대해 복수의 가상 카메라(VC1, VC2, VC3)를 설정한다. 즉 CH1, CH2, CH3의 각 캐릭터에 대응하여, VC1, VC2, VC3의 각 가상 카메라를 배치한다. 예를 들어 캐릭터(CH1)를 주시하는 가상 카메라로서 VC1을 배치하고, 캐릭터(CH2)를 주시하는 가상 카메라로서 VC2를 배치하고, 캐릭터(CH3)를 주시하는 가상 카메라로서 VC3을 배치한다. 그리고 복수의 가상 카메라(VC1, VC2, VC3)의 각 가상 카메라로부터 복수의 캐릭터(CH1, CH2, CH3)의 각 캐릭터를 본 화상을 도 4의 복수의 캐릭터 화상(IM1, IM2, IM3)의 각 캐릭터 화상으로서 생성한다. 즉 캐릭터 화상(IM1)은 가상 카메라(VC1)로부터 캐릭터(CH1)를 본 화상이다. 또한 캐릭터 화상(IM2)은 가상 카메라(VC2)로부터 캐릭터(CH2)를 본 화상이고, 캐릭터 화상(IM3)은 가상 카메라(VC3)로부터 캐릭터(CH3)를 본 화상이다.
이와 같이 하면, 다른 가상 카메라 방향에서 본 복수의 캐릭터 화상(IM1, IM2, IM3)을 간소한 처리로 생성할 수 있게 된다. 예를 들어 도 6에서는, 가상 카메라(VC1)의 방향(DV1)(시선 방향)에 대해, 캐릭터(CH1)의 방향(DC1)은 평행하게 되어 있고, 반대 방향으로 되어 있다. 이에 의해 도 4에 도시하는 바와 같이, 정면 얼굴의 화상이 캐릭터 화상(IM1)으로서 생성된다. 또한 가상 카메라(VC2)의 방향(DV2)에 대해, 캐릭터(CH2)의 방향(DC2)은 좌방향(시계 회전 방향)을 향하고 있고, 이에 의해 도 4에 도시하는 바와 같이, 왼쪽 옆얼굴의 화상이 캐릭터 화상(IM2)으로서 생성된다. 또한 가상 카메라(VC3)의 방향(DV3)에 대해, 캐릭터(CH3)의 방향(DC3)은 우방향(반시계 회전 방향)을 향하고 있고, 이에 의해 도 4에 도시하는 바와 같이, 오른쪽 옆얼굴의 화상이 캐릭터 화상(IM3)으로서 생성된다.
이와 같이 도 6의 수법에 의하면, 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)에 대한 캐릭터(CH1∼CH3)의 방향을 설정함으로써, 복수의 캐릭터 화상(IM1∼IM3)으로서 다른 방향에서 본 캐릭터 화상을 생성할 수 있게 된다. 이에 의해 플레이어는 다양한 방향에서의 캐릭터 화상을 일괄하여 확인할 수 있게 되고, 캐릭터 메이킹의 작업 효율을 향상할 수 있다.
또한 도 6에서는 캐릭터(CH1∼CH3)의 라이팅을 행하는 광원(LS)을 가상 공간에 설정하고 있다. 예를 들어 램버트, 폰 또는 블린 등의 조명 모델에 의한 광원(LS)을 설정한다. 예를 들어 도 6에서는, 정면 얼굴의 화상용의 가상 카메라(VC1)의 부근에 광원(LS)이 설정되어 있다. 그리고, 이 광원(LS)에 의거하는 캐릭터(CH1∼CH3)의 셰이딩 처리를 행하여, 캐릭터 화상(IM1∼IM3)을 생성한다. 예를 들어 고러드 셰이딩 또는 폰 셰이딩 등의 셰이딩 처리에 의해 캐릭터(CH1∼CH3)의 오브젝트(오브젝트를 구성하는 폴리곤)를 묘화하는 처리를 행하여, 캐릭터 화상(IM1∼IM3)을 생성한다. 이에 의해 광원(LS)에 의한 음영이 입혀진 캐릭터의 화상을 생성할 수 있게 되고, 리얼한 캐릭터 화상을 생성할 수 있다. 즉 게임에 캐릭터가 등장할 때와 같은 리얼한 음영이 입혀진 캐릭터의 화상을 생성하는 것이 가능해져서, 보다 적절하고 리얼한 캐릭터 메이킹 화상을 플레이어에게 표시할 수 있게 된다.
그리고 본 실시 형태에서는 후술하는 도 13 등에서 설명하는 바와 같이, 플레이어의 조작 입력에 의거하여, 도 6의 복수의 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)에 대한 복수의 캐릭터(CH1∼CH3)의 방향(DC1∼DC3)을 설정한다. 예를 들어 플레이어의 조작 입력에 응하여, 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)과 캐릭터(CH1∼CH3)의 방향(DC1∼DC3)이 이루는 각도를 변화시킨다. 이와 같이 함으로써, 플레이어의 조작 입력에 응하여, 캐릭터 화상(IM1∼IM3)에서의 캐릭터가 향하는 방향을 변화시키는 것이 가능해지고, 캐릭터 메이킹에 알맞은 캐릭터 화상(IM1∼IM3)을 플레이어에게 표시할 수 있게 된다.
예를 들어 본 실시 형태에서는, 플레이어가 화상의 전환의 조작 입력을 행한 경우에, 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)에 대한 캐릭터(CH1∼CH3)의 방향(DC1∼DC3)을 일괄하여 전환한다. 즉 방향(DV1∼DV3)과 방향(DC1∼DC3)이 이루는 각도를 일괄하여 전환한다. 이렇게 함으로써, 플레이어가 전환의 조작을 행하는 것만으로, 캐릭터 화상(IM1∼IM3)이 다른 방향에서 본 캐릭터 화상으로 일제히 전환되게 되어, 캐릭터 메이킹에서의 플레이어의 작업 효율을 향상할 수 있다.
또한 도 6에서는 복수의 캐릭터 화상(IM1∼IM3)에 대응하는 복수의 캐릭터(CH1∼CH3)를 가상 공간에 배치하고 있는데, 도 7에 도시하는 바와 같이 1개의 캐릭터(CH)를 가상 공간에 배치하여 복수의 캐릭터 화상(IM1∼IM3)을 생성하도록 해도 좋다. 예를 들어 도 7에서는, 1개의 캐릭터(CH)를 주시하는 복수의 가상 카메라(VC1, VC2, VC3)를 배치한다. 가상 카메라(VC1, VC2, VC3)의 방향(DV1, DV2, DV3)(시선 방향)은 1개의 캐릭터(CH)쪽을 향하고 있다. 이와 같이 하면 캐릭터(CH)의 정면에 배치된 가상 카메라(VC1)로부터 보이는 화상을 캐릭터 화상(IM1)으로서 생성할 수 있다. 또한 캐릭터(CH)의 왼쪽으로 비스듬히 전방에 배치된 가상 카메라(VC2)로부터 보이는 화상을 캐릭터 화상(IM2)으로서 생성하고, 캐릭터(CH)의 오른쪽으로 비스듬히 전방에 배치된 가상 카메라(VC3)로부터 보이는 화상을 캐릭터 화상(IM3)으로서 생성할 수 있다. 즉 도 4에 도시하는 바와 같이 정면 얼굴, 왼쪽 옆얼굴, 오른쪽 옆얼굴의 화상을 캐릭터 화상(IM1, IM2, IM3)으로서 생성할 수 있게 된다.
단 도 7의 수법은, 광원(LS)에 의거하는 셰이딩 처리를 행한 경우에, 도 6의 수법에 비해 불리해진다. 즉 도 6의 수법에 의하면, 정면 얼굴의 화상뿐만 아니라, 왼쪽 옆얼굴의 화상, 오른쪽 옆얼굴의 화상에 대해서도, 보다 적절하게 음영이 입혀진 화상을 생성할 수 있다. 이것에 대해 도 7의 수법에서는, 정면 얼굴의 캐릭터 화상(IM1)은 적정한 밝기의 화상이 되지만, 왼쪽 옆얼굴의 캐릭터 화상(IM2)이나, 오른쪽 옆얼굴의 캐릭터 화상(IM3)이 어두운 화상이 되어 버린다. 즉 가상 카메라(VC1)의 부근에 설정된 광원(LS)에 의해, 캐릭터(CH)의 정면측에 관해서는 밝게 음영이 입혀지는데, 캐릭터(CH)의 좌측면이나 우측면에 관해서는, 정면 방향의 광원(LS)으로부터의 광이 닿기 어려워짐으로써, 어두운 화상이 되어 버린다. 따라서, 이 의미에서는, 도 6의 수법에 의해 캐릭터 화상(IM1∼IM3)을 생성하는 것이 바람직하다.
도 8은 캐릭터의 얼굴을 구성하는 파츠에 관한 설명도이다. 도 8에서는 캐릭터의 얼굴은, 눈의 파츠(PE), 코의 파츠(PN), 입의 파츠(PM), 윤곽 파츠인 턱의 파츠(PC)에 의해 구성되어 있다. 또한 도 8에서의 점은, 모션 데이터에서의 뼈(骨)의 위치를 나타내고 있고, 구체적으로는 뼈의 관절 위치를 나타내고 있다. 이들 뼈의 위치를 모션 데이터에 의거하여 변화시킴으로써, 파츠(PE, PN, PM, PC)의 형상이 변화한다. 이에 의해 캐릭터의 얼굴의 표정 등을 변화시키는 것이 가능해진다. 예를 들어 눈의 파츠(PE)에서, 눈썹에 관해 설정된 뼈의 위치(관절 위치)를 변화시킴으로써, 캐릭터의 눈썹을 여러 가지 형상을 변화시키는 것이 가능해진다. 또한 눈의 파츠(PE)에서, 눈꺼풀의 가장자리(눈의 구멍, 안와(眼窩))의 형태에 관해 설정된 뼈의 위치를 변화시킴으로써, 캐릭터의 눈꺼풀의 가장자리의 형상을 여러 가지 형상으로 변화시킬 수 있다. 또한 턱의 파츠(PC)에 설정된 뼈의 위치를 변화시킴으로써, 턱의 윤곽 형상을 여러 가지 형상으로 변화시킬 수 있다. 또한 입의 파츠(PM)에서는, 구개(口蓋)뿐만 아니라, 혀나 이 등에 관해서도 뼈가 설정되어 있는 혀의 파츠나 뼈의 파츠로서 모델화되어 있다.
도 9는 파츠에 설정되는 뼈의 데이터에 관한 설명도이다. 뼈의 데이터는 캐릭터의 모션 데이터에 대응하고, 예를 들어 관절 위치인 뼈의 위치(J1, J2)에 의해 나타낼 수 있다. 또는 뼈의 데이터는 어버이 뼈(親骨)(BM1)에 대한 자식 뼈(子骨)(BM2)의 X축, Y축, Z축 둘레의 회전각에 의해 나타낼 수 있다. 또한 뼈의 데이터는 X축, Y축, Z축의 방향에서의 스케일링의 파라미터를 포함할 수 있다. X축은 뼈를 따른 방향이고 Y축, Z축은 X축에 직교하는 축이다. 예를 들어 X축방향에서의 스케일링의 값을 변화시킴으로써, 도 16, 도 17에서 후술하는 캐릭터의 신장의 조정이 가능해진다. 또한 Y축 방향, Z축 방향에서의 스케일링의 값을 변화시킴으로써, 캐릭터의 신체 파츠의 두께(살집)의 조정이 가능해진다.
예를 들어 캐릭터를 구성하는 파츠의 오브젝트의 정점에 대해서는, 캐릭터의 각 파츠의 각 뼈에 대한 웨이트 값이 설정되어 있다. 그리고, 이 웨이트 값에 대응하는 이동량으로, 파츠의 오브젝트의 정점이 뼈에 추종하게 된다. 따라서, 뼈의 데이터를 모션 데이터로서 제어함으로써, 캐릭터의 자세나 파츠의 형상(표정) 등을 설정할 수 있게 된다.
그리고 본 실시 형태에서는, 플레이어의 조작 입력에 의거하여, 도 6의 복수의 캐릭터(CH1∼CH3)에 대해 파츠의 설정 처리를 실행한다. 즉 도 6에서는, 캐릭터 화상(IM1∼IM3)을 생성하기 위해, 같은 형상 모델의 복수의 캐릭터(CH1∼CH3)를 가상 공간에 배치하고 있다. 그리고 플레이어가 캐릭터 메이킹을 행하기 위해 파츠 전환 등의 조작 입력을 행한 경우에는, 이들 복수의 캐릭터(CH1∼CH3)에 대해, 파츠 전환 처리 등의 파츠의 설정 처리를 실행한다. 예를 들어 제1 파츠를 바꾸는 조작 입력이 행해진 경우에는, 이들 캐릭터(CH1∼CH3)의 전부에서, 당해 제1 파츠의 교체 처리를 실행한다. 이렇게 함으로써 캐릭터 화상(IM1∼IM3)에서도, 파츠의 교체가 행해지게 된다. 이에 의해 플레이어는, 파츠 교체 후의 캐릭터 화상(IM1∼IM3)을 확인하면서, 캐릭터 메이킹의 작업을 행할 수 있게 되고, 작업 효율이 높은 캐릭터 메이킹을 실현할 수 있게 된다.
또한 본 실시 형태에서는, 복수의 캐릭터 화상의 적어도 1개의 캐릭터 화상에 관해, 얼굴을 구성하는 파츠의 모션 데이터를 변화시킴으로써 얼굴의 표정을 변화시킨다.
예를 들어 도 10은 캐릭터의 파츠 정보의 예를 설명하는 도면이다. 이 파츠 정보는 캐릭터 정보로서 도 2의 캐릭터 정보 기억부(174)에 기억된다. 캐릭터의 얼굴 파츠, 가슴 파츠, 오른팔 파츠, 왼팔 파츠 등의 신체 파츠의 움직임은 캐릭터의 전체적인 자세를 설정하는 모션 데이터(MAL)에 의해 제어된다. 또한 도 10에서는, 얼굴 파츠는 눈, 코, 입, 턱의 파츠에 의해 구성되어 있다. 그리고, 이들 눈, 코, 입, 턱의 파츠의 형상은 각각, 모션 데이터(ME, MN, MM, MC)에 의해 제어된다. 즉 이들 모션 데이터(ME, MN, MM, MC)의 설정에 의해, 캐릭터의 얼굴의 표정의 설정이 가능해진다.
예를 들어 캐릭터의 얼굴의 표정을 통상의 얼굴로부터 웃는 얼굴로 변화시키는 경우에는, 눈, 코, 입, 턱의 파츠의 모션 데이터(ME, MN, MM, MC)를 웃는 얼굴에 대응하는 모션 데이터로 설정한다. 즉, 눈, 코, 입, 턱의 형태가 웃었을 때의 형태가 되도록 모션 데이터를 설정한다. 마찬가지로 캐릭터의 얼굴의 표정을 통상의 얼굴로부터 화난 얼굴로 변화시키는 경우에는, 눈, 코, 입, 턱의 파츠의 모션 데이터(ME, MN, MM, MC)를 화난 얼굴에 대응하는 모션 데이터로 설정한다. 이와 같이 하면, 모션 데이터의 설정이라는 부하가 가벼운 처리로, 캐릭터의 표정을 다양하게 변화시키는 것이 가능해지고, 캐릭터 메이킹의 처리의 경감이나 간소화 등을 도모할 수 있다.
또한 본 실시 형태에서는, 복수의 캐릭터 화상으로서, 제1 가상 카메라 방향에서 본 제1 캐릭터 화상과, 제1 가상 카메라 방향과는 다른 제2 가상 카메라 방향에서 본 제2 캐릭터 화상을 생성한다. 예를 들어 도 4의 캐릭터 화상(IM1∼IM3) 중의 1개의 화상이 제1 캐릭터 화상이고, 다른 1개의 화상이 제2 캐릭터 화상이다. 예를 들어 캐릭터 화상(IM1)을 제1 캐릭터 화상으로 하고, 캐릭터 화상(IM2)을 제2 캐릭터 화상으로 했다고 한다. 이 경우에 도 6에서는, 제1 캐릭터 화상은 제1 가상 카메라 방향인 방향(DV1)에서 캐릭터(CH1)를 본 화상이 되고, 제2 캐릭터 화상은 제2 가상 카메라 방향인 방향(DV2)에서 캐릭터(CH2)를 본 화상이 된다. 또한 도 7에서는, 제1 캐릭터 화상은 제1 가상 카메라 방향인 방향(DV1)에서 캐릭터(CH)를 본 화상이 되고, 제2 캐릭터 화상은 제2 가상 카메라 방향인 방향(DV2)에서 캐릭터(CH)를 본 화상이 된다. 이와 같이 하면, 다른 가상 카메라 방향에서 본 복수의 캐릭터 화상을 캐릭터 메이킹 화상으로서 플레이어에게 표시할 수 있게 된다.
그리고 이 경우에, 제1 가상 카메라 방향에서 본 화상인 제1 캐릭터 화상과, 제2 가상 카메라 방향에서 본 화상인 제2 캐릭터 화상에서, 소정 파츠의 배치 위치를 변경해도 좋다.
예를 들어 도 11(A)는 캐릭터의 하측으로부터 캐릭터를 향하는 방향으로 가상 카메라가 설정되어 있고, 이른바 치켜든 얼굴의 캐릭터 화상이 생성되어 있다. 이 경우에, 코, 입, 턱의 파츠(PN, PM, PC)의 위치나 형상을 통상의 얼굴과 같은 위치나 형상으로 해 버리면, 부자연스러운 얼굴 화상이 되어 버릴 우려가 있다. 예를 들어 코나 입의 위치가 부자연스러워지거나, 턱의 윤곽이 부자연스러운 형상이 되어 버린다.
그래서 본 실시 형태에서는, 이와 같은 치켜든 얼굴의 캐릭터 화상을 생성하는 경우에, 도 11(B)에 도시하는 바와 같이, 예를 들어 코의 파츠(PN)나 입의 파츠(PM)의 배치 위치를 예를 들어 하측으로 이동한다. 즉 도 11(B)에서는, 도 11(A)에 비해, 코의 파츠(PN)나 입의 파츠(PM)의 배치 위치가 얼굴의 하측 방향으로 이동하고 있다. 또한 턱의 파츠(PC)의 선단의 형상도 볼록 형상이 완화되도록 변경하고 있다. 이와 같이 함으로써, 예를 들어 가상 카메라 방향이 통상의 얼굴에서의 방향(제1 가상 카메라 방향)으로부터 치켜든 얼굴에서의 방향(제2 가상 카메라 방향)으로 변화한 경우에도, 보다 자연스러운 치켜든 얼굴로 보이는 캐릭터 화상을 생성할 수 있게 된다. 마찬가지로 예를 들어 애니메이션의 캐릭터에서 옆얼굴의 캐릭터 화상을 생성하는 경우에, 통상의 얼굴과 마찬가지로 위치에 입의 파츠(PM)를 배치하면, 애니메이션으로서는 부자연스러운 캐릭터 화상이 되어 버리는 경우가 있다. 이 때문에, 이 경우에도, 옆얼굴의 캐릭터 화상에서는, 입의 파츠(PM)의 배치 위치를 예를 들어 뺨측으로 이동하는 처리를 행하는 것이 바람직하다.
도 12는 본 실시 형태의 상세한 처리례를 설명하는 플로우차트이다. 우선 가상 공간에 복수의 캐릭터와 복수의 가상 카메라를 설정한다(스텝 S11). 즉 도 6에 도시하는 바와 같이, 같은 형상 모델의 복수의 캐릭터(CH1∼CH3)를 가상 공간에 배치함과 함께, 이들 캐릭터(CH1∼CH3)용의 가상 카메라(VC1∼VC3)를 배치한다.
다음으로 플레이어의 조작 입력에 의거하여, 복수의 가상 카메라의 방향에 대한 복수의 캐릭터의 방향을 설정한다(스텝 S12). 예를 들어 도 6에서 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)에 대한 캐릭터(CH1∼CH3)가 향하는 방향(DC1∼DC3)을 설정한다. 예를 들어 플레이어가 화상의 전환 조작을 행한 경우에는, 방향(DV1∼DV3)과 방향(DC1∼DC3)의 상대적인 방향 관계를 일괄하여 전환한다.
다음으로 플레이어의 조작 입력에 의거하여, 복수의 캐릭터에 대해 파츠의 설정 처리를 실행한다(스텝 S13). 예를 들어 도 6에서, 플레이어가 소정 파츠의 교체의 조작 입력을 행한 경우에는, 동일 모델의 캐릭터를 나타내는 캐릭터(CH1∼CH3)의 소정 파츠를 일괄하여 바꾼다.
다음으로 광원에 의거하는 복수의 캐릭터의 셰이딩 처리를 행하여, 복수의 캐릭터 화상을 생성한다(스텝 S14). 예를 들어 도 6에서, 광원(LS)에 의거하여, 캐릭터(CH1)의 셰이딩 처리를 행하여, 캐릭터 화상(IM1)을 생성한다. 마찬가지로 광원(LS)에 의거하여, 캐릭터(CH2, CH3)의 각각의 셰이딩 처리를 행하여 캐릭터 화상(IM2, IM3)을 생성한다. 그리고 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부(190)에 표시한다(스텝 S15). 즉 도 4, 도 5와 같이 소정의 배열 양태에서 캐릭터 화상(IM1∼IM3)이 배열된 캐릭터 메이킹 화상을 플레이어에게 표시한다.
2. 3 캐릭터 메이킹 화상의 예
다음으로 캐릭터 메이킹 화상의 여러 가지 예에 관해 설명한다. 도 13은 예를 들어 플레이어가 전환 아이콘 등을 조작하여 화상의 전환 조작을 행한 경우의 캐릭터 메이킹 화상의 예이다. 예를 들어 도 4의 캐릭터 메이킹 화상이 표시되어 있는 상태에서, 플레이어가 화상의 전환 조작을 행하면, 도 13에 도시하는 캐릭터 메이킹 화상이 표시된다. 도 13에서는, 도 4에 비해, 캐릭터 화상(IM1∼IM3)에서의 캐릭터가 향하는 방향이 다르다. 즉 도 13에서는, 도 4와는 다른 가상 카메라 방향에서 본 캐릭터 화상(IM1∼IM3)이 표시되어 있다. 이와 같은 캐릭터 화상(IM1∼IM3)의 전환은, 예를 들어 도 6의 경우에는, 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)에 대한 캐릭터(CH1∼CH3)의 방향(DC1∼DC3)을 일괄하여 변화시킴으로써 실현할 수 있다. 또한 도 7의 경우에는, 캐릭터(CH)에 대한 가상 카메라(VC1∼VC3)의 방향(DV1∼DV3)을 일괄하여 변화시킴으로써 실현할 수 있다.
이와 같이 본 실시 형태에서는, 도 4, 도 13에 도시하는 바와 같이, 플레이어의 조작 입력에 의거하여, 복수의 캐릭터 화상(IM1∼IM3)을 일괄하여, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시킨다. 이와 같이 하면 플레이어는 예를 들어 화상의 전환 조작 등의 간소한 조작을 행함으로써, 캐릭터 화상(IM1∼IM3)에서의 캐릭터가 향하는 방향을 일괄하여 변화시키는 것이 가능해진다. 이에 의해 플레이어는 캐릭터 메이킹에서 행한 파츠 설정 등이 자신의 기호나 취향에 따른 것인지를 간소한 조작으로 확인할 수 있게 되고, 캐릭터 메이킹에서의 플레이어의 인터페이스 환경의 향상을 도모할 수 있다.
또한 도 14에서는, 복수의 캐릭터 화상(IM1∼IM3)을 일괄하여, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시키고 있는데, 본 실시 형태의 수법은 이것으로 한정되지 않는다. 예를 들어 플레이어의 조작 입력에 의거하여, 복수의 캐릭터 화상(IM1∼IM3)을 개별적으로, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시켜도 좋다. 예를 들어 캐릭터 화상(IM1∼IM3) 중의 1개의 캐릭터 화상에 관해서만, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시킨다. 예를 들어 도 6에서 캐릭터 화상(IM3)만을 개별적으로 변화시키는 경우에는, 플레이어의 조작 입력에 의거하여, 가상 카메라(VC3)의 방향(DV3)에 대한 캐릭터(CH3)의 방향(DC3)만을 변화시키고, 다른 캐릭터(CH1, CH2)의 방향(DC1, DC2)에 관해서는 변화시키지 않도록 하면 좋다. 또한 도 7의 경우에는, 캐릭터(CH)에 대한 가상 카메라(VC3)의 방향(DV3)만을 변화시키고, 다른 가상 카메라(VC1, VC2)의 방향(DV1, DV2)에 관해서는 변화시키지 않도록 하면 좋다. 이와 같이 하면, 플레이어가 상세히 확인하고 싶은 캐릭터 화상에 관해서만, 개별적으로, 캐릭터가 향하는 방향을 변화시키는 것이 가능해지고, 캐릭터 메이킹에서의 플레이어의 다양한 요망에 응할 수 있고, 플레이어의 작업의 효율화 등을 도모할 수 있다.
도 14에서는, 캐릭터 화상(IM3)에서의 캐릭터의 얼굴의 표정을 변화시키고 있다. 즉 도 4의 캐릭터 화상(IM3)에서는, 캐릭터의 표정은 통상의 표정이지만, 도 14의 캐릭터 화상(IM3)에서는, 캐릭터의 표정을 화난 얼굴의 표정으로 변화시키고 있다. 구체적으로는 도 8∼도 10에서 설명한 바와 같이, 얼굴을 구성하는 파츠의 모션 데이터를 변화시킴으로써 캐릭터의 얼굴의 표정을 변화시키고 있다. 예를 들어 눈, 코, 입 또는 턱의 파츠에서의 뼈의 데이터에 대응하는 모션 데이터를 변화시킴으로써, 이들 파츠의 형상을 변화시켜서, 캐릭터의 얼굴의 표정을 변화시킨다. 이와 같이 본 실시 형태에서는, 복수의 캐릭터 화상의 적어도 1개의 캐릭터 화상에 관해, 얼굴을 구성하는 파츠의 모션 데이터를 변화시킴으로써 얼굴의 표정을 변화시키고 있다. 이와 같이 하면, 모션 데이터를 제어한다는 간소한 처리로, 캐릭터의 얼굴의 표정을 변화시킬 수 있다. 예를 들어 얼굴의 표정을 변화시키는 수법으로서, 캐릭터의 얼굴의 각 파츠의 교체 처리를 행하는 수법도 생각할 수 있지만, 이 수법에서는, 각 캐릭터에 관해, 각 표정에 대응하는 파츠를 준비할 필요가 있고, 파츠에 관한 데이터량이 방대해지고 만다. 이 점에서, 얼굴을 구성하는 파츠의 모션 데이터를 변화시키는 본 실시 형태의 수법에 의하면, 적은 데이터량으로 캐릭터의 얼굴의 표정을 변화시키는 처리가 가능해지고, 데이터의 사용 기억 용량의 절약 등을 도모할 수 있게 된다.
또한 도 13에서도, 도 4에 대해 캐릭터의 얼굴의 표정을 변화시키고 있다. 즉 도 4에서의 통상의 얼굴의 표정으로부터, 도 14에서는 웃는 얼굴의 표정으로 변화시키고 있다. 예를 들어 플레이어의 조작 입력에 의거하여, 캐릭터의 얼굴의 표정을 일괄하여 변화시키고 있다. 이와 같이 얼굴의 표정을 변화시키는 대상이 되는 캐릭터 화상은 1개로는 한정되지 않고, 복수의 캐릭터 화상에서의 얼굴의 표정을 플레이어의 조작 입력 등에 의거하여 일괄하여 변화시켜도 좋다.
또한 도 15에서는, 캐릭터의 파츠의 교체 처리를 행하고 있다. 예를 들어 캐릭터의 눈의 파츠나 코의 파츠를 도 4와는 다른 파츠로 바꾸고 있다. 예를 들어 도 15에서는, 도 4의 통상의 눈의 파츠로부터, 눈꼬리가 위로 올라간 눈을 나타내는 눈의 파츠로 교체되어 있다. 또한 도 15에서는, 도 4에 비해, 코의 높이가 높은 코의 파츠로 교체되어 있다.
이와 같이 본 실시 형태에서는, 플레이어의 조작 입력에 의거하여 파츠의 교체 처리 등의 설정 처리가 행해진 경우에, 복수의 캐릭터 화상(IM1∼IM3)에서 파츠의 설정 처리가 행해진 캐릭터 메이킹 화상을 표시한다. 도 6을 예로 들면, 플레이어가 소정 파츠의 교체의 지시를 행하면, 모든 캐릭터(CH1∼CH3)에서, 당해 소정 파츠의 교체 처리를 행한다. 예를 들어 통상의 눈의 파츠로부터, 눈꼬리가 위로 올라간 눈의 파츠로 바꾸는 지시가 행해진 경우에는, 모든 캐릭터(CH1∼CH3)에서, 통상의 눈의 파츠로부터, 눈꼬리가 위로 올라간 눈의 파츠에의 교체 처리를 행한다. 예를 들어 통상의 코의 파츠로부터, 높은 코의 파츠로 바꾸는 지시가 행해진 경우에는, 모든 캐릭터(CH1∼CH3)에서, 통상의 코의 파츠로부터, 높은 코의 파츠에의 교체 처리를 행한다. 이렇게 함으로써, 플레이어의 조작 입력에 의한 지시에 의거하여, 복수의 캐릭터 화상(IM1∼IM3)에서 일괄하여, 파츠의 교체 처리 등의 파츠의 설정 처리를 행하는 것이 가능해진다.
예를 들어 1개의 캐릭터 화상만을 캐릭터 메이킹 화상으로서 표시하는 비교례의 수법에서는, 캐릭터의 파츠 설정을 행한 후, 캐릭터 방향을 변경하고, 캐릭터 화상이 어떻게 보이는지를 확인한다는 작업을 몇 번이나 반복할 필요가 있고, 캐릭터 메이킹에서의 플레이어의 작업이 복잡해진다. 이것에 대해 본 실시 형태에 의하면, 플레이어는 파츠의 설정 처리가 복수의 캐릭터 화상(IM1∼IM3)에서 어떻게 반영되었는지를 일괄로 확인할 수 있다. 따라서, 비교례의 수법에 비해, 플레이어의 작업 효율을 향상할 수 있고, 캐릭터 메이킹에서의 알맞은 인터페이스 환경을 플레이어에게 제공할 수 있게 된다.
또한 본 실시 형태에서는, 소정 파츠에 관해서는 복수의 캐릭터 화상의 전부에서 표시되도록 복수의 캐릭터 화상을 생성한다. 예를 들어 플레이어의 조작 입력에 의거하여, 가상 카메라 방향이 전환되는 등의 화상 전환이 행해진 경우에도, 소정 파츠에 관해서는 복수의 캐릭터 화상의 전부에서 표시되도록 한다. 예를 들어 도 4, 도 5, 도 13∼도 15의 얼굴의 캐릭터 화상(IM1∼IM3)에서는, 눈, 입, 코 또는 턱의 파츠에 관해서는, 얼굴의 메인 파츠인 소정 파츠로서, 화상의 전환 조작 등이 행해진 경우에도, 모든 캐릭터 화상(IM1∼IM3)에서 표시한다. 이와 같이 하면, 메인 파츠 등의 소정 파츠에 관해서는 캐릭터 화상(IM1∼IM3)에서 항상 표시되도록 되기 때문에, 당해 소정 파츠에 관한 파츠 교체 등의 파츠 설정을 플레이어가 적절하게 행할 수 있게 된다.
또한 소정 파츠는 이와 같은 메인 파츠로는 한정되지 않고, 플레이어의 주목 파츠라고 상정되는 파츠라도 좋다. 예를 들어 플레이어가 장착한지 얼마 안된 파츠에 관해서는, 주목 파츠로서 항상 표시하도록 한다. 구체적으로는, 의상의 파츠나 무기, 방어용 기구 등의 장비품의 파츠를 플레이어가 장착한 경우에, 당해 파츠에 관해서는 주목 파츠로서, 소정 기간 사이는 항상 표시되도록 한다. 예를 들어 주목 파츠 등의 소정 파츠가 가상 카메라 방향의 변화에 의해 보이지 않게 되는 경우에는, 가상 카메라의 방향이나 캐릭터의 방향을 역방향에 대응하는 방향으로 자동적으로 전환하여, 소정 파츠가 항상 표시되도록 한다.
이상에서는 캐릭터 화상이 캐릭터의 얼굴 화상이고, 캐릭터 메이킹 화상에 표시되는 캐릭터 화상의 수가 2개인 경우에 관해 설명했지만, 본 실시 형태는 이것으로 한정되지 않는다. 예를 들어 도 16에서는, 캐릭터 화상(IM1, IM2)으로서 캐릭터의 전신 화상이 표시되어 있고, 캐릭터 화상의 개수도 2개가 되어 있다. 도 16에서는, 캐릭터 화상(IM1)은 앞을 향한 전신 화상으로 되어 있고, 캐릭터 화상(IM2)은 뒤를 향한 전신 화상으로 되어 있다. 그리고 플레이어의 조작 입력에 의거하여, B1, B2에 도시하는 바와 같이 캐릭터가 회전하는 캐릭터 화상(IM1, IM2)이 캐릭터 메이킹 화상으로서 표시된다. 구체적으로는 캐릭터 화상(IM1)으로서, 캐릭터의 오른쪽 옆측의 전신 화상이 표시되어 있을 때에는, 캐릭터 화상(IM2)으로서, 캐릭터의 왼쪽 옆측의 전신 화상이 표시된다. 또한 캐릭터 화상(IM1)으로서, 캐릭터의 왼쪽 옆측의 전신 화상이 표시되어 있을 때에는, 캐릭터 화상(IM2)으로서, 캐릭터의 오른쪽 옆측의 전신 화상이 표시된다. 또한 B1, B2에 도시하는 바와 같이 캐릭터는 시계 방향 및 반시계 방향으로 회전 가능하다.
또한 플레이어는, 2개의 다른 체형의 남성형과, 2개의 다른 체형의 여성형 중에서, 캐릭터 메이킹의 대상이 되는 캐릭터를 선택할 수 있다. 예를 들어 도 16은 마른 형의 체형의 남성의 캐릭터를 선택했을 때의 캐릭터 메이킹 화상의 예이고, 도 17은 튼튼한 형의 체형의 남성의 캐릭터를 선택했을 때의 캐릭터 메이킹 화상의 예이다.
또한 도 16, 도 17에서는, 캐릭터의 신장을 조정하는 조작이나, 살집을 조정하는 조작이 가능하게 되어 있다. 예를 들어 플레이어가 캐릭터의 신장을 조정하는 조작을 행하면, 전술한 도 9의 뼈의 데이터에서의 X축 방향에서의 스케일링의 값이 조정된다. 이에 의해 각 뼈의 길이가 조정되어, 캐릭터의 신장이 높아지거나, 낮아지도록 조정된다. 또한 플레이어가 캐릭터의 살집을 조정하는 조작을 행하면, 도 9의 뼈의 데이터에서의 Y축, Z축 방향에서의 스케일링의 값이 조정된다. 이에 의해 각 뼈의 굵기가 조정되어, 캐릭터의 신체 파츠가 굵어지거나, 가늘어지고, 캐릭터의 살집(신체 파츠의 굵기)이 조정되게 된다. 이와 같이 하면, 캐릭터의 체형이나 체격 등을 섬세하게 조정할 수 있게 되고, 보다 정세한 캐릭터 메이킹을 실현하는 것이 가능해진다.
또한 본 실시 형태에서는, 제1 캐릭터 화상에서는 제1 부분이 표시되고, 제2 캐릭터 화상에서는 당해 제1 부분이 비표시가 되는 복수의 캐릭터 화상을 생성한다. 예를 들어 가상 카메라 방향과의 관계에 응하여, 캐릭터의 제1 부분에 관해서는 묘화되지 않거나, 묘화되거나 한다.
예를 들어 도 18의 옆얼굴의 캐릭터 화상(IM1)에서는, C1에 도시하는 바와 같이 코의 윤곽의 상측 부분인 콧날의 부분이 묘화되어 있다. 한편, 정면 얼굴의 캐릭터 화상(IM2)에서는, C2에 도시하는 바와 같이 콧날의 부분이 묘화되어 있지 않다. 이와 같이 캐릭터의 콧날의 부분(제1 부분)은 캐릭터 화상(IM1)(제1 캐릭터 화상)에서는 표시되어 있는데, 캐릭터 화상(IM2)(제2 캐릭터 화상)에서는 비표시가 되어 있다. 즉 콧날의 부분이 가상 카메라(VC1)로부터 본 캐릭터 화상(IM1)에서는 묘화되어 있는데, 가상 카메라(VC2)로부터 본 캐릭터 화상(IM2)에서는 묘화되어 있지 않다.
예를 들어 정면 얼굴의 캐릭터 화상에서, 콧날의 부분이 확실하게 묘화되어 버리면, 예를 들어 애니메이션 등의 캐릭터로서는 부자연스러운 화상이 되어 버릴 우려가 있다. 이 점에서, 도 18의 C2에 도시하는 바와 같이 정면 얼굴의 캐릭터 화상에서, 콧날의 부분을 비표시로 함으로써, 캐릭터 화상이 부자연스러운 화상이 되어 버리는 것을 방지할 수 있고, 애니메이션 등의 캐릭터의 화상으로서 보다 적절한 화상을 표시할 수 있게 된다.
또한 본 실시 형태에서는, 제1 캐릭터 화상인 캐릭터 화상(IM1)은 제1 가상 카메라 방향인 가상 카메라(VC1)로부터 본 캐릭터 화상이고, 제2 캐릭터 화상인 캐릭터 화상(IM2)은 제2 가상 카메라 방향인 가상 카메라(VC2)로부터 본 캐릭터 화상이다. 즉 캐릭터 화상(IM1, IM2)은 다른 가상 카메라 방향에서 본 캐릭터 화상이다. 또한 본 실시 형태에서는, 캐릭터를 구성하는 1개의 파츠에 대해, 제1 부분을 갖는 제1 파츠와, 제1 부분을 갖지 않는 제2 파츠가 준비된다. 도 18을 예로 들면, 캐릭터를 구성하는 1개의 파츠는 코의 파츠이고, 이 코의 파츠로서, 제1 파츠(제1 코 파츠)와 제2 파츠(제2 코 파츠)라는 식으로, 복수 종류의 파츠가 준비된다. 그리고 제1 파츠는 콧날의 부분(제1 부분)을 갖는 파츠이고, 제2 파츠는 콧날의 부분을 갖지 않는 파츠이다. 예를 들어 제1 파츠에서는, 콧날의 부분을 묘화 데이터로서 가지고 있는데(윤곽으로서 묘화되는데), 제2 파츠에서는, 콧날의 부분을 묘화 데이터로서 가지고 있지 않다(윤곽으로서 묘화되지 않는다). 그리고 본 실시 형태에서는, 제1 파츠를 이용하여 제1 캐릭터 화상을 생성하고, 제2 파츠를 이용하여 제2 캐릭터 화상을 생성한다. 예를 들어 도 18에서는, 콧날의 부분을 갖는 제1 파츠를 이용하여, 제1 캐릭터 화상인 캐릭터 화상(IM1)을 생성하는 한편, 콧날의 부분을 갖지 않는 제2 파츠를 이용하여, 제2 캐릭터 화상인 캐릭터 화상(IM2)을 생성한다. 이와 같이 하면, 가상 카메라(VC1)의 방향인 제1 가상 카메라 방향에서 본 캐릭터 화상(IM1)에서는, 도 18의 C1에 도시하는 바와 같이, 콧날의 부분(제1 부분)이 묘화되어 표시되게 된다. 한편, 가상 카메라(VC2)의 방향인 제2 가상 카메라 방향에서 본 캐릭터 화상(IM2)에서는, 도 18의 C2에 도시하는 바와 같이, 콧날의 부분이 묘화되지 않고 비표시가 된다. 이에 의해, 가상 카메라의 방향에 응하여, 제1 부분인 콧날의 부분을 표시하거나, 비표시로 하는 것이 가능해진다.
또한 코의 윤곽 등의 파츠의 윤곽의 묘화 처리는 예를 들어 공지인 툰 렌더링(툰 셰이더) 등에 의해 실현할 수 있다. 예를 들어 통상의 모델과 윤곽 묘화용 모델의 양방을 묘화함으로써 윤곽을 묘화하거나, 오브젝트의 법선 벡터를 이용한 포스트 이펙트 처리 등에 의해, 캐릭터의 윤곽을 묘화할 수 있다.
또한 정면 얼굴의 캐릭터 화상에서는, 세밀한 파츠 부분까지 묘화하는 한편, 옆얼굴의 캐릭터 화상에서는, 이와 같은 세밀한 파츠 부분에 관해서는 묘화하지 않도록 해도 좋다. 예를 들어 입 속의 혀의 파츠나 이의 파츠에 관해서는 정면 얼굴의 캐릭터 화상에서는 묘화하여 표시하는 한편, 옆얼굴의 캐릭터 화상에서는 묘화하지 않고 비표시로 한다. 예를 들어 옆얼굴의 캐릭터 화상에서는, 혀의 파츠나 이의 파츠의 묘화 데이터에 관해서는 이용하지 않도록 한다. 또한 콧구멍 내의 세밀한 부분에 관해서도, 정면 얼굴의 캐릭터 화상에서는 묘화하는 한편, 옆얼굴의 캐릭터 화상에서 묘화하지 않도록 한다. 이와 같이 함으로써, 가상 카메라의 방향과 캐릭터의 방향의 상대적인 방향 관계에 응한, 캐릭터 화상의 적절한 묘화 처리를 실현할 수 있게 된다. 또한 캐릭터와 가상 카메라의 거리가 떨어진 경우에, 코 등의 파츠의 윤곽이 보이기 어려워져 버리는 경우가 있다. 이 경우에는, 캐릭터와 가상 카메라의 거리에 응하여 윤곽의 굵기를 변화시켜서, 캐릭터와 가상 카메라의 거리가 떨어진 경우에도, 윤곽이 적절하게 표시되도록 제어해도 좋다.
또한, 상기와 같이 본 실시 형태에 관해 상세히 설명했는데, 본 개시의 신규 사항 및 효과로부터 실체적으로 일탈하지 않는 많은 변형이 가능한 것은 당업자에게는 용이하게 이해할 수 있을 것이다. 따라서 이와 같은 변형례는 전부 본 개시의 범위에 포함되는 것으로 한다. 예를 들면, 명세서 또는 도면에서, 적어도 한 번, 보다 광의 또는 동의적인 다른 용어와 함께 기재된 용어는, 명세서 또는 도면의 어떠한 개소에서도, 그 다른 용어로 치환할 수 있다. 또한 접수 처리, 가상 공간 설정 처리, 가상 카메라 설정 처리, 파츠의 설정 처리, 캐릭터 화상의 생성 처리, 캐릭터 메이킹 화상의 생성 처리 등도 본 실시 형태에서 설명한 것으로 한정되지 않고, 이들과 균등한 수법도 본 개시의 범위에 포함된다.
IM1, IM2, IM3: 캐릭터 화상
VC1, VC2, VC3: 가상 카메라
DV1, DV2, DV3: 방향
CH1, CH2, CH3, CH: 캐릭터
DC1, DC2, DC3: 방향
LS: 광원
PE, PN, PM, PC: 파츠
BM1, BM2: 뼈
MAL, ME, MN, MM, MC: 모션 데이터
TM1∼TMn, TM 단말 장치
100: 처리부
102: 게임 처리부
104: 접수부
106: 가상 공간 설정부
108: 가상 카메라 설정부
110: 캐릭터 처리부
112: 관리부
120: 표시 처리부
130: 음 처리부
160: 조작부
170: 기억부
172: 가상 공간 정보 기억부
174: 캐릭터 정보 기억부
176: 묘화 버퍼
178: 유저 정보 기억부
180: 정보 기억 매체
190: 표시부
192: 음 출력부
194: I/F부
195: 휴대형 정보 기억 매체
196: 통신부
500: 서버 시스템
510: 네트워크

Claims (16)

  1. 플레이어의 조작 입력을 접수하는 접수부와,
    적어도 1개의 캐릭터가 배치되는 가상 공간의 설정 처리를 행하는 가상 공간 설정부와,
    복수의 가상 카메라의 설정 처리를 행하는 가상 카메라 설정부와,
    상기 플레이어의 조작 입력에 의거하여, 적어도 1개의 상기 캐릭터를 구성하는 파츠의 설정 처리를 행하는 캐릭터 처리부와,
    상기 가상 공간에서 상기 복수의 가상 카메라로부터 적어도 1개의 상기 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성하고, 상기 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부에 표시하는 처리를 행하는 표시 처리부를 포함하고,
    상기 표시 처리부는,
    상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 설정 처리의 결과가 반영된 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행하는 것을 특징으로 하는 게임 시스템.
  2. 제1항에 있어서,
    상기 가상 공간 설정부는,
    적어도 1개의 상기 캐릭터로서 복수의 캐릭터를 상기 가상 공간에 배치하고,
    상기 가상 카메라 설정부는,
    상기 복수의 캐릭터의 각 캐릭터에 대해 상기 복수의 가상 카메라의 각 가상 카메라를 설정하고,
    상기 표시 처리부는,
    상기 복수의 가상 카메라의 각 가상 카메라로부터 상기 복수의 캐릭터의 각 캐릭터를 본 화상을 상기 복수의 캐릭터 화상의 각 캐릭터 화상으로서 생성하는 것을 특징으로 하는 게임 시스템.
  3. 제2항에 있어서,
    상기 가상 공간 설정부는,
    상기 복수의 캐릭터의 라이팅을 행하는 광원을 상기 가상 공간에 설정하고,
    상기 표시 처리부는,
    상기 광원에 의거하는 상기 복수의 캐릭터의 셰이딩 처리를 행하여, 상기 복수의 캐릭터 화상을 생성하는 것을 특징으로 하는 게임 시스템.
  4. 제2항 또는 제3항에 있어서,
    상기 캐릭터 처리부는,
    상기 플레이어의 조작 입력에 의거하여, 상기 복수의 가상 카메라의 방향에 대한 상기 복수의 캐릭터의 방향을 설정하는 것을 특징으로 하는 게임 시스템.
  5. 제2항 내지 제4항 중 어느 한 항에 있어서,
    상기 캐릭터 처리부는,
    상기 플레이어의 조작 입력에 의거하여, 상기 복수의 캐릭터에 대해 상기 파츠의 상기 설정 처리를 실행하는 것을 특징으로 하는 게임 시스템.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    상기 복수의 캐릭터 화상으로서, 제1 가상 카메라 방향에서 본 제1 캐릭터 화상과, 상기 제1 가상 카메라 방향과는 다른 제2 가상 카메라 방향에서 본 제2 캐릭터 화상을 생성하는 것을 특징으로 하는 게임 시스템.
  7. 제6항에 있어서,
    상기 표시 처리부는,
    상기 제1 캐릭터 화상과 상기 제2 캐릭터 화상에서, 소정 파츠의 배치 위치를 변경하는 것을 특징으로 하는 게임 시스템.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    상기 복수의 캐릭터 화상의 적어도 1개의 캐릭터 화상에 관해, 얼굴을 구성하는 파츠의 모션 데이터를 변화시킴으로써 상기 얼굴의 표정을 변화시키는 것을 특징으로 하는 게임 시스템.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    상기 플레이어의 조작 입력에 의거하여 상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 복수의 캐릭터 화상에서 상기 파츠의 상기 설정 처리가 행해진 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행하는 것을 특징으로 하는 게임 시스템.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    상기 플레이어의 조작 입력에 의거하여, 상기 복수의 캐릭터 화상을 일괄하여, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시키는 것을 특징으로 하는 게임 시스템.
  11. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    상기 플레이어의 조작 입력에 의거하여, 상기 복수의 캐릭터 화상을 개별적으로, 다른 가상 카메라 방향에서 본 캐릭터 화상으로 변화시키는 것을 특징으로 하는 게임 시스템.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    소정 파츠에 관해서는 상기 복수의 캐릭터 화상의 전부에서 표시되도록 상기 복수의 캐릭터 화상을 생성하는 것을 특징으로 하는 게임 시스템.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 표시 처리부는,
    제1 캐릭터 화상에서는 제1 부분이 표시되고, 제2 캐릭터 화상에서는 상기 제1 부분이 비표시가 되는 상기 복수의 캐릭터 화상을 생성하는 것을 특징으로 하는 게임 시스템.
  14. 제13항에 있어서,
    상기 제1 캐릭터 화상은 제1 가상 카메라 방향에서 본 캐릭터 화상이고, 상기 제2 캐릭터 화상은 제2 가상 카메라 방향에서 본 캐릭터 화상이고,
    캐릭터를 구성하는 1개의 파츠에 대해, 상기 제1 부분을 갖는 제1 파츠와, 상기 제1 부분을 갖지 않는 제2 파츠가 준비되고,
    상기 표시 처리부는,
    상기 제1 파츠를 이용하여 상기 제1 캐릭터 화상을 생성하고, 상기 제2 파츠를 이용하여 상기 제2 캐릭터 화상을 생성하는 것을 특징으로 하는 게임 시스템.
  15. 플레이어의 조작 입력을 접수하는 접수 처리와,
    적어도 1개의 캐릭터가 배치되는 가상 공간을 설정하는 가상 공간 설정 처리와,
    복수의 가상 카메라를 설정하는 가상 카메라 설정 처리와,
    상기 플레이어의 조작 입력에 의거하여, 적어도 1개의 상기 캐릭터를 구성하는 파츠의 설정 처리를 행하는 캐릭터 처리와,
    상기 가상 공간에서 상기 복수의 가상 카메라로부터 적어도 1개의 상기 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성하고, 상기 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부에 표시하는 표시 처리를 행하고,
    상기 표시 처리에서,
    상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 설정 처리의 결과가 반영된 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행하는 것을 특징으로 하는 처리 방법.
  16. 플레이어의 조작 입력을 접수하는 접수부와,
    적어도 1개의 캐릭터가 배치되는 가상 공간의 설정 처리를 행하는 가상 공간 설정부와,
    복수의 가상 카메라의 설정 처리를 행하는 가상 카메라 설정부와,
    상기 플레이어의 조작 입력에 의거하여, 적어도 1개의 상기 캐릭터를 구성하는 파츠의 설정 처리를 행하는 캐릭터 처리부와,
    상기 가상 공간에서 상기 복수의 가상 카메라로부터 적어도 1개의 상기 캐릭터를 본 화상인 복수의 캐릭터 화상을 생성하고, 상기 복수의 캐릭터 화상이 배열된 캐릭터 메이킹 화상을 표시부에 표시하는 처리를 행하는 표시 처리부로서,
    컴퓨터를 기능시키는 프로그램을 기억하고,
    상기 표시 처리부는,
    상기 파츠의 상기 설정 처리가 행해진 경우에, 상기 설정 처리의 결과가 반영된 상기 캐릭터 메이킹 화상을 상기 표시부에 표시하는 처리를 행하는 것을 특징으로 하는 컴퓨터 판독 가능한 정보 기억 매체.
KR1020227003144A 2019-07-04 2020-06-30 게임 시스템, 처리 방법 및 정보 기억 매체 KR102719697B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019125405A JP7387310B2 (ja) 2019-07-04 2019-07-04 ゲームシステム及びプログラム
JPJP-P-2019-125405 2019-07-04
PCT/JP2020/025649 WO2021002353A1 (ja) 2019-07-04 2020-06-30 ゲームシステム、処理方法及び情報記憶媒体

Publications (2)

Publication Number Publication Date
KR20220025048A true KR20220025048A (ko) 2022-03-03
KR102719697B1 KR102719697B1 (ko) 2024-10-22

Family

ID=

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230586A (ja) 2005-02-23 2006-09-07 Taito Corp 個人特有情報によるキャラクタ作成が可能なゲーム機

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230586A (ja) 2005-02-23 2006-09-07 Taito Corp 個人特有情報によるキャラクタ作成が可能なゲーム機

Also Published As

Publication number Publication date
CN114206456A (zh) 2022-03-18
US20220118361A1 (en) 2022-04-21
JP2021010476A (ja) 2021-02-04
JP2024003191A (ja) 2024-01-11
WO2021002353A1 (ja) 2021-01-07
JP7387310B2 (ja) 2023-11-28
US11980818B2 (en) 2024-05-14

Similar Documents

Publication Publication Date Title
JP7238028B2 (ja) ゲームシステム、ゲーム提供方法及びプログラム
JP4668655B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP7174800B2 (ja) ゲームシステム、ゲーム提供方法及びプログラム
JP6362634B2 (ja) 画像生成システム、ゲーム装置及びプログラム
JP7355483B2 (ja) ゲームシステム及びプログラム
JP2010033298A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2018075260A (ja) ゲームシステム及びプログラム
US11238667B2 (en) Modification of animated characters
JP2017138915A (ja) 画像生成システム及びプログラム
US12015759B2 (en) Information processing system, information processing method, and information processing program
JP2020018745A (ja) ゲームシステム及びプログラム
JP2024003191A (ja) ゲームシステム、ゲーム装置及びプログラム
JP2003103047A (ja) 画像生成システム、画像生成方法及びプログラム
JP2022020686A (ja) 情報処理方法、プログラム、およびコンピュータ
JP2010029397A (ja) プログラム、情報記憶媒体及び画像生成システム
JP7560835B2 (ja) プログラム及び情報処理方法
KR102719697B1 (ko) 게임 시스템, 처리 방법 및 정보 기억 매체
JP2009045091A (ja) ゲーム機器、ネットワークゲームシステム、画像生成方法および画像生成プログラム
CN116943196A (zh) 身体部位的朝向编辑方法、装置、设备及存储介质
JP2024110135A (ja) 情報処理システムおよびプログラム
CN116943195A (zh) 虚拟角色的姿态编辑方法、装置、设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant