JP2006119788A - Character generation apparatus and character generation program - Google Patents
Character generation apparatus and character generation program Download PDFInfo
- Publication number
- JP2006119788A JP2006119788A JP2004305133A JP2004305133A JP2006119788A JP 2006119788 A JP2006119788 A JP 2006119788A JP 2004305133 A JP2004305133 A JP 2004305133A JP 2004305133 A JP2004305133 A JP 2004305133A JP 2006119788 A JP2006119788 A JP 2006119788A
- Authority
- JP
- Japan
- Prior art keywords
- data
- character
- image
- element part
- basic part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明は、キャラクタ生成装置およびキャラクタ生成プログラムに関し、特にたとえば、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成する、キャラクタ生成装置およびキャラクタ生成プログラムに関する。 The present invention relates to a character generation device and a character generation program, and more particularly to, for example, a character generation device and a character generation program that generate a character based on a face image created by combining a plurality of part images.
従来、たとえば複数種類のキャラクタが登場するようなゲームを開発する場合には、開発者等が複数種類のキャラクタを予め全て作成している。しかしながら、多種類のキャラクタを1つ1つ準備するのは大変である。これを解決するために、パーツ画像を作成してそれらを組み合わせる方法が考えられる。 Conventionally, for example, when developing a game in which a plurality of types of characters appear, a developer or the like has created all the plurality of types of characters in advance. However, it is difficult to prepare many kinds of characters one by one. In order to solve this, a method of creating part images and combining them can be considered.
パーツ画像を組み合わせて1つの画像を作成するモンタージュ作成技術の一例がたとえば特許文献1−3に開示される。特許文献1には、「胴体」、「頭」、「右手」、「左手」、「右足」および「左足」等の各部品画像間の位置情報および角度情報を持たせることによって、部品画像相互間の平行移動および回転移動が行えるようにする技術が開示されている。また、特許文献2には、たとえば、輪郭、髪、目、鼻、口、眉等の基準パーツと、眼鏡、しわ等の付属パーツとの位置のずれ量を記憶しておき、ずれ量に応じて基準パーツと付属パーツの位置関係が調整される技術が開示されている。また、特許文献3には、画面上で髪、目、鼻、口等の各パーツの占有領域を定め、各パーツパターンが各占有領域に収まるようにサイズを決定して画面上に表示する技術が開示されている。
しかしながら、特許文献1では、各部品間の位置情報は固定的に決まっているため、部品画像のパターンを増やさないでバリエーションに富んだモンタージュ画像を作成することは難しいという問題がある。また、特許文献2では、基準パーツと付属パーツとのずれ量に応じて位置関係を調整することにより、違和感のない画像を作成することができるが、基準パーツの位置およびずれ量はパーツ毎に予め定められているので、特許文献1と同様の問題があった。また、特許文献3では、パーツ毎の占有領域を設定して各パーツパターンのサイズを決定するので、準備する画像パターンを少なくすることはできる。しかし、占有領域のサイズを変更し、その占有領域に収まるようにパターンのサイズを変更しなければならないので、多数のキャラクタを一度に生成するような場合には、却って処理負担が増大して簡単には生成することができないという問題がある。
However, since the position information between each component is fixedly determined in
さらに、上記先行技術は、使用者ないしオペレータ等による入力に基づいて各パーツが所望の位置に配置されたモンタージュ画像を作成しようとするものである。たとえば、特許文献2には、使用者のキー操作により基準パーツの位置を調整できるようにしてもよいことが開示されているが、その場合には使用者の負担を増やしてしまうという問題がある。また、特許文献3でも、オペレータの操作によって占有領域の位置や大きさを調整することが示唆されるが、上述の特許文献2と同様の問題がある。したがって、ゲームに登場するキャラクタを多種類作成するような場合には、ゲーム開発者等が上記先行技術を利用しても、非常に多くの入力作業が必要であり負担が増すので、多種類のキャラクタを作成するのはやはり簡単ではない。また、上記先行技術を利用するなどして、ゲームに登場する多種類のキャラクタを予め作成しておく場合には、作成した多数のキャラクタの1つ1つをデータで持たせることとなるので、キャラクタ自体のデータ量が多くなりメモリ容量が嵩んでしまうという問題もある。
Further, the above prior art attempts to create a montage image in which each part is arranged at a desired position based on an input by a user or an operator. For example, Patent Document 2 discloses that the position of the reference part may be adjusted by the user's key operation. In this case, however, there is a problem that the burden on the user is increased. . Also,
それゆえに、この発明の主たる目的は、多種類のキャラクタを簡単に生成することができ、しかもメモリ容量を節約できる、キャラクタ生成装置およびキャラクタ生成プログラムを提供することである。 SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a character generation device and a character generation program that can easily generate many kinds of characters and save memory capacity.
請求項1の発明は、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置である。キャラクタ生成装置は、基本パーツデータ記憶手段、要素パーツデータ記憶手段、基本パーツ選択手段、要素パーツ選択手段、第1検索手段、第2検索手段、合成手段、キャラクタ生成手段、およびゲーム処理手段を備える。基本パーツデータ記憶手段は、顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する。要素パーツデータ記憶手段は、要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する。基本パーツ選択手段は、基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する。要素パーツ選択手段は、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。第1検索手段は、基本パーツ選択手段によって選択された基本パーツデータに含まれる複数の結合ポイントを検索する。第2検索手段は、要素パーツ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成手段は、第1検索手段によって検索された複数の結合ポイントの各々と第2検索手段によって検索された対応する各基準ポイントとを合せるように、基本パーツ選択手段によって選択された基本パーツデータに含まれる基本パーツ画像と要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成手段は、合成手段によって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理手段は、キャラクタ生成手段によって生成されたキャラクタをゲームに登場させる。
The invention of
請求項1の発明では、キャラクタ生成装置(10:実施例で相当する参照符号。以下同じ。)は、複数のパーツ画像を組み合わせて顔画像を作成し、その顔画像に基づいてキャラクタを生成する。パーツ画像は基本パーツ画像と当該基本パーツ画像に合成される要素パーツ画像を含み、実施例では、基本パーツ画像は輪郭パーツ画像であり、要素パーツ画像は、髪の毛パーツ画像、目パーツ画像、鼻パーツ画像および口パーツ画像を含む。基本パーツデータ記憶手段(40、54)は、基本パーツ画像と複数の結合ポイント(64−70)とを含む複数の基本パーツデータを記憶する。複数の結合ポイントは、合成される複数の要素パーツ画像の各々の結合位置を示す。要素パーツデータ記憶手段(40、56−62)は、要素パーツ画像と基準ポイントとを含む複数の要素パーツデータを記憶する。基準ポイントは、当該要素パーツ画像に対応する結合ポイントとの結合位置を示す。基本パーツ選択手段(28、S31)は、複数の基本パーツデータの中から1つをランダムに選択する。要素パーツ選択手段(28、S33−S39)は、複数の要素パーツデータの中から要素パーツごとに1つの要素パーツデータをランダムに選択する。第1検索手段(28、S3)は、選択された基本パーツデータに含まれる複数の結合ポイントを検索する。この第1検索手段によって、基本パーツデータにおける複数の結合ポイントの位置(座標)が把握される。第2検索手段(28、S5)は、選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。この第2検索手段によって、各要素パーツデータにおける各基準ポイントの位置(座標)が把握される。合成手段(28、S7)は、複数の結合ポイントの各々と各基準ポイントとを合わせるように、選択された基本パーツ画像と選択された各要素パーツ画像とを合成する。キャラクタ生成手段(28、S9)は、合成された顔画像に基づいてキャラクタを生成する。そして、ゲーム処理手段(28、S17)は、生成されたキャラクタをゲームに登場させる。 In the first aspect of the present invention, the character generation device (10: reference numeral corresponding to the embodiment; the same applies hereinafter) creates a face image by combining a plurality of part images, and generates a character based on the face image. . The part image includes a basic part image and an element part image combined with the basic part image. In the embodiment, the basic part image is a contour part image, and the element part image includes a hair part image, an eye part image, and a nose part. Includes images and mouth part images. The basic part data storage means (40, 54) stores a plurality of basic part data including a basic part image and a plurality of connection points (64-70). The plurality of coupling points indicate the coupling positions of the plurality of element part images to be synthesized. The element part data storage means (40, 56-62) stores a plurality of element part data including an element part image and a reference point. The reference point indicates a coupling position with a coupling point corresponding to the element part image. The basic part selection means (28, S31) randomly selects one from a plurality of basic part data. The element part selection means (28, S33 to S39) randomly selects one element part data for each element part from the plurality of element part data. The first search means (28, S3) searches for a plurality of connection points included in the selected basic part data. By this first search means, the positions (coordinates) of a plurality of coupling points in the basic part data are grasped. The second search means (28, S5) searches for each reference point included in each of the selected plurality of element part data. The position (coordinates) of each reference point in each element part data is grasped by this second search means. The synthesizing means (28, S7) synthesizes the selected basic part image and each selected element part image so as to match each of the plurality of connection points with each reference point. The character generation means (28, S9) generates a character based on the synthesized face image. Then, the game processing means (28, S17) causes the generated character to appear in the game.
したがって、請求項1の発明によれば、複数のパーツデータの中からパーツごとにランダムに選択された各パーツデータを、複数の結合ポイントと対応する各基準ポイントとを合わせるようにして合成するので、簡単な処理で、バリエーションに富んだ顔画像を生成することができる。したがって、多種類のキャラクタを簡単に生成することができ、バリエーション豊かなキャラクタをゲームに登場させることができる。したがって、多数のキャラクタを予め生成して、キャラクタデータとして持たせておく必要がないので、メモリ容量を節約することができる。
Therefore, according to the invention of
請求項2の発明は、請求項1の発明に従属し、基本パーツデータ記憶手段に記憶される基本パーツデータは、複数の結合ポイントが対応する要素パーツごとに異なる色で識別可能に描画されている当該基本パーツ画像を示す画像データであり、第1検索手段は、複数の結合ポイントを色に基づいて検索する。
The invention of claim 2 is dependent on the invention of
請求項2の発明では、基本パーツデータでは、複数の結合ポイントが、対応する要素パーツごとに異なる色で識別可能に描画されている。第1検索手段は、基本パーツデータにおいて、複数の結合ポイントを色に基づいて検索する。したがって、複数の結合ポイントの各々の座標を容易に把握することができる。また、複数の結合ポイントを示す色を基本パーツ画像に描画しておくので、複数の結合ポイントのためのデータを別に用意しておく必要がなく、メモリ容量を節約できる。 In the invention of claim 2, in the basic part data, a plurality of coupling points are drawn so as to be identifiable in different colors for each corresponding element part. The first search means searches for a plurality of coupling points based on the color in the basic part data. Therefore, it is possible to easily grasp the coordinates of each of the plurality of coupling points. In addition, since colors indicating a plurality of connection points are drawn on the basic part image, it is not necessary to prepare data for the plurality of connection points separately, and the memory capacity can be saved.
請求項3の発明は、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置である。キャラクタ生成装置は、基本パーツデータ記憶手段、結合ポイントデータ記憶手段、要素パーツデータ記憶手段、基本パーツ選択手段、要素パーツ選択手段、結合ポイント選択手段、結合ポイント描画手段、第1検索手段、第2検索手段、合成手段、キャラクタ生成手段、およびゲーム処理手段を備える。基本パーツデータ記憶手段は、顔画像を構成するための複数の基本パーツ画像を記憶する。結合ポイントデータ記憶手段は、基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する。要素パーツデータ記憶手段は、要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する。基本パーツ選択手段は、基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する。要素パーツ選択手段は、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。結合ポイント選択手段は、結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する。結合ポイント描画手段は、結合ポイント選択手段によって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを基本パーツ選択手段によって選択された基本パーツ画像上に描画する。第1検索手段は、結合ポイント描画手段によって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する。第2検索手段は、要素パーツデータ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成手段は、第1検索手段によって検索された複数の結合ポイントの各々と第2検索手段によって検索された対応する各基準ポイントとを合せるように、基本パーツ選択手段によって選択された基本パーツ画像と要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成手段は、合成手段によって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理手段は、キャラクタ生成手段によって生成されたキャラクタをゲームに登場させる。 According to a third aspect of the present invention, there is provided a character generation device for generating a character based on a face image created by combining a plurality of part images. The character generation device includes basic part data storage means, connection point data storage means, element part data storage means, basic part selection means, element part selection means, connection point selection means, connection point drawing means, first search means, second search Search means, synthesis means, character generation means, and game processing means are provided. The basic part data storage means stores a plurality of basic part images for constituting a face image. The coupling point data storage means includes a plurality of coupling points indicating the coupling positions of the plurality of element part images combined with the basic part image, and coordinate data indicating the positions of the coupling points in the basic part images. A plurality of combination point set data included in each is stored. The element part data storage unit stores a plurality of element part data each including an element part image and a reference point indicating a connection position of a connection point corresponding to the element part image. The basic part selection unit randomly selects one of the plurality of basic part images stored in the basic part data storage unit. The element part selection means randomly selects element part data for each element part from a plurality of element part data stored in the element part data storage means. The coupling point selection unit randomly selects one of the plurality of coupling point set data stored in the coupling point data storage unit. The joining point drawing means draws a plurality of joining points on the basic part image selected by the basic part selecting means based on the joining point set data selected by the joining point selecting means. The first search means searches for the plurality of connection points in the basic part image in which the plurality of connection points are drawn by the connection point drawing means. The second search means searches for each reference point included in each of the plurality of element part data selected by the element part data selection means. The synthesizing means includes the basic part image selected by the basic part selecting means so as to match each of the plurality of connecting points searched by the first searching means with each corresponding reference point searched by the second searching means. Each element part image included in the plurality of element part data selected by the element part selecting means is synthesized. The character generation means generates a character based on the face image synthesized by the synthesis means. The game processing means causes the character generated by the character generating means to appear in the game.
この請求項3の発明は、複数の基本パーツ画像と複数の結合ポイントとが別に設けられる点、および選択された結合ポイントが基本パーツ画像に描画される点等で、上述した請求項1の発明と異なっている。したがって、重複する説明は省略する。請求項3の発明では、基本パーツデータ記憶手段(40、54)は、複数の基本パーツ画像を記憶する。結合ポイントデータ記憶手段(40、90)は、複数の結合ポイントと当該複数の結合ポイントの基本パーツ画像における位置を示す座標データとを含む複数の結合ポイントセットデータを記憶する。基本パーツ選択手段(28、S31)は、複数の基本パーツ画像の中から1つをランダムに選択する。結合ポイント選択手段(28、S101)は、複数の結合ポイントセットデータの中から1つをランダムに選択する。結合ポイント描画手段(28、S103)は、選択された結合ポイントセットデータに基づいて、選択された基本パーツ画像上に、複数の結合ポイントを描画する。そして、第1検索手段(28、S3)は、基本パーツ画像における複数の結合ポイントを検索する。
The invention according to
したがって、請求項3の発明によれば、請求項1の発明と同様に、多種類の顔画像を簡単に生成することができるので、多種類のキャラクタを簡単に生成することができる。また、多数のキャラクタを予めデータとして持たせておく必要がないので、メモリ容量を節約することができる。さらに、1つの基本パーツ画像に対して、複数の結合ポイントセットデータに基づいて結合ポイントを描画することが可能である。したがって、同一の基本パーツ画像を複数個記憶しておかなくて済むので、予め結合ポイントの描画された複数の基本パーツ画像を準備しておく場合よりも、さらにメモリ容量を節約することが可能である。また、複数の結合ポイントセットデータを記憶するので、パーツ画像の種類を増やすことなくバリエーションに富んだ顔画像を生成できる。
Therefore, according to the invention of
請求項4の発明は、請求項1ないし3のいずれかの発明に従属し、判定手段およびキャラクタ選択手段をさらに備える。判定手段は、キャラクタ生成手段によって所定数のキャラクタが生成されたか否かを判定する。キャラクタ選択手段は、判定手段によって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択する。そして、ゲーム処理手段は、キャラクタ選択手段によって選択されたキャラクタをゲームに登場させる。
The invention of claim 4 is dependent on the invention of any one of
請求項4の発明では、判定手段(28、S11)は所定数のキャラクタが生成されたか否かを判定し、キャラクタ選択手段(28、S13、S15)は、所定数のキャラクタが生成されたとき、いずれかのキャラクタを選択する。そして、ゲームには選択されたキャラクタが登場する。この請求項4の発明によれば、多数のキャラクタを生成して、生成された多数のキャラクタの中からゲームに登場するキャラクタを選択することができる。したがって、ゲームの興趣性や娯楽性を高めることが可能である。 In the invention of claim 4, the determining means (28, S11) determines whether or not a predetermined number of characters have been generated, and the character selecting means (28, S13, S15) is when the predetermined number of characters has been generated. Select one of the characters. Then, the selected character appears in the game. According to the invention of claim 4, a large number of characters can be generated, and a character appearing in the game can be selected from the generated large number of characters. Therefore, it is possible to enhance the fun and entertainment of the game.
請求項5の発明は、顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する基本パーツデータ記憶手段、および要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段を備え、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置のキャラクタ生成プログラムである。このキャラクタ生成プログラムは、キャラクタ生成装置のプロセサに、基本パーツ選択ステップ、要素パーツ選択ステップ、第1検索ステップ、第2検索ステップ、合成ステップ、キャラクタ生成ステップ、およびゲーム処理ステップを実行させる。基本パーツ選択ステップは、基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する。要素パーツ選択ステップは、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。第1検索ステップは、基本パーツ選択ステップによって選択された基本パーツデータに含まれる複数の結合ポイントを検索する。第2検索ステップは、要素パーツ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成ステップは、第1検索ステップによって検索された複数の結合ポイントの各々と第2検索ステップによって検索された対応する各基準ポイントとを合せるように、基本パーツ選択ステップによって選択された基本パーツデータに含まれる基本パーツ画像と要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成ステップは、合成ステップによって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理ステップは、キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させる。
The invention according to
請求項6の発明は、請求項5の発明に従属し、基本パーツデータ記憶手段に記憶される基本パーツデータは、複数の結合ポイントが要素パーツごとに異なる色で識別可能に描画されている当該基本パーツ画像を示す画像データである。第1検索ステップは、複数の結合ポイントを色に基づいて検索する。
The invention of claim 6 is dependent on the invention of
請求項7の発明は、顔画像を構成するための複数の基本パーツ画像を記憶する基本パーツデータ記憶手段、基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する結合ポイントデータ記憶手段、および要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段を備え、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置のキャラクタ生成プログラムである。このキャラクタ生成プログラムは、キャラクタ生成装置のプロセサに、基本パーツ選択ステップ、要素パーツ選択ステップ、結合ポイント選択ステップ、結合ポイント描画ステップ、第1検索ステップ、第2検索ステップ、合成ステップ、キャラクタ生成ステップ、およびゲーム処理ステップを実行させる。基本パーツ選択ステップは、基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する。要素パーツ選択ステップは、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。結合ポイント選択ステップは、結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する。結合ポイント描画ステップは、結合ポイント選択ステップによって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを基本パーツ選択ステップによって選択された基本パーツ画像上に描画する。第1検索ステップは、結合ポイント描画ステップによって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する。第2検索ステップは、要素パーツデータ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成ステップは、第1検索ステップによって検索された複数の結合ポイントの各々と第2検索ステップによって検索された対応する各基準ポイントとを合せるように、基本パーツ選択ステップによって選択された基本パーツ画像と要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成ステップは、合成ステップによって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理ステップは、キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させる。
The invention according to
請求項8の発明は、請求項5ないし7のいずれかの発明に従属し、キャラクタ生成装置のプロセサに、判定ステップ、およびキャラクタ選択ステップをさらに実行させる。判定ステップは、キャラクタ生成ステップによって所定数のキャラクタが生成されたか否かを判定する。キャラクタ選択ステップは、判定ステップによって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択する。そして、ゲーム処理ステップは、キャラクタ選択ステップによって選択されたキャラクタをゲームに登場させる。
The invention according to
請求項5−8の発明は、上記請求項1−4の発明と同様に、簡単な処理でバリエーションに富んだ顔画像を生成できるので、多種類のキャラクタを簡単に生成することができ、しかもメモリ容量を節約することができる。 Since the invention of claim 5-8 can generate a variety of face images with simple processing, as in the invention of claims 1-4 above, it can easily generate many kinds of characters. Memory capacity can be saved.
この発明によれば、顔画像を構成するために準備された複数のパーツデータの中からパーツごとに各パーツデータをランダムに選択し、複数の結合ポイントと対応する各基準ポイントとを合わせるようにして基本パーツ画像と各要素パーツ画像とを合成するようにした。このように、簡単な処理で、バリエーションに富んだ顔画像を生成することができる。したがって、多種類のキャラクタを簡単に生成することができる。さらに、多数のキャラクタを予め生成して、キャラクタデータとして記憶手段に持たせておく必要がないので、メモリ容量を節約することができる。 According to the present invention, each part data is randomly selected for each part from a plurality of part data prepared for constructing a face image, and a plurality of connection points and corresponding reference points are matched. The basic part image and each element part image were synthesized. In this way, face images rich in variations can be generated by simple processing. Therefore, many types of characters can be easily generated. Furthermore, since it is not necessary to generate a large number of characters in advance and store them in the storage means as character data, memory capacity can be saved.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この発明の一実施例であるキャラクタ生成装置10は、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するためのものである。キャラクタ生成装置10は、一例として、ゲーム装置の形態で実現される。このゲーム装置10はゲーム機12およびゲーム機12に接続されるゲームカートリッジ14を含む。ゲーム機12としては、ゲームボーイアドバンス(GAMEBOY ADVANCE :商品名)のような携帯型のゲーム機等を適用することができる。
Referring to FIG. 1, a
なお、ゲーム機12は携帯型ゲーム機に限られず、たとえば家庭用テレビ受像機に接続して使用される据置型のビデオゲーム機またはPC等のような他の形態のゲーム機であってよい。また、ゲームプログラムおよびゲームデータを記憶したゲーム情報記憶媒体は、ゲームカートリッジ14に限られず、たとえばCD−ROM,DVD等の光学式情報記憶媒体や光磁気ディスクまたは磁気ディスク等の各種の情報記憶媒体が適用されてよい。
Note that the
ゲーム機12は、たとえば横長形状のハウジング16を含む。ハウジング16の一方主面(表面)の略中央には、画像表示手段の一例として液晶表示器(以下、「LCD」と略称する。)18が設けられる。このLCD18の表示画面にはゲーム画像が表示され、たとえばゲーム空間およびゲームキャラクタ等が表示される。
The
ハウジング16の左右端部には、プレイヤが操作を行う操作手段としての種々の操作スイッチ20a−20e(符号「20」で包括的に示す。)が設けられる。操作スイッチ20は、たとえば方向スイッチ20aと、動作スイッチ20bと、スタート/セレクトボタン20cと、ハウジング16の左角に設けられたLボタン20dと、ハウジング16の右角に設けられたRボタン20eとを含む。操作スイッチ20の各スイッチまたはボタンの操作によって指示される操作内容は、ゲーム装置10で処理されるゲームプログラムの内容によって異なるものである。一例として、方向スイッチ20aは、LCD18に表示されたゲームキャラクタやカーソルの移動方向の指示等のために使用される。動作スイッチ20bは、選択項目の決定/キャンセル等のために使用される。Lボタン20dおよびRボタン20eは、動作スイッチ20bと同様の動作の指示や、動作スイッチ20bの補助的な操作によるその他の動作の指示等のために使用される。スタート/セレクトボタン20cは、ゲームプレイの開始、ゲーム操作の中断あるいはゲームモードの選択等のために使用される。
Various operation switches 20a to 20e (generically indicated by reference numeral “20”) are provided at the left and right ends of the
また、ハウジング16の裏面上端部には、挿入口22が形成される。この挿入口22にゲームカートリッジ14が挿入される。挿入口22の奥部とゲームカートリッジ14の挿入方向先端部とには、それぞれコネクタ24およびコネクタ26(図2参照)が設けられる。ゲームカートリッジ14が挿入口22に挿入されたとき、2つのコネクタが互いに接続され、ゲームカットリッジ14にゲーム機12のCPU28(図2参照)がアクセス可能となる。
An
また、ハウジング16の表面に設けられた音抜き孔の内部にはスピーカ30(破線表示)が内蔵される。スピーカ30からはゲーム中のBGMや効果音等の音が出力される。また、ゲーム機12には、必要に応じて、ハウジング16の上側面に外部拡張コネクタ32(図2参照)が設けられる。ゲーム装置10は、このコネクタ32を介して他のゲーム装置10(または他のゲーム機12)と接続され得る。ゲーム装置10は、コネクタ32を介して他のゲーム装置10との間でデータの送受信を行うことができる。
In addition, a speaker 30 (indicated by a broken line) is built in a sound release hole provided on the surface of the
なお、図1では省略されるが、ハウジング16の裏面側には電池収容ボックスが設けられ、ハウジング16の底面側には電源スイッチ、音量調節つまみおよびイヤフォンジャックなどが設けられる。
Although omitted in FIG. 1, a battery storage box is provided on the back side of the
図2にはゲーム装置10の電気的な構成の一例が示される。この図2を参照して、ゲーム機12はCPU28を含み、このCPU28は、コンピュータまたはプロセサなどとも呼ばれ、ゲーム機12の全体制御を司る。CPU28またはコンピュータには、内部バスを介してLCD18、操作部20、コネクタ24、ワークメモリ(外部W−RAM)34、送受信バッファ36、およびサウンド回路38等が接続される。
FIG. 2 shows an example of an electrical configuration of the
LCD18にはCPU28から表示データが与えられて、その表示画面にはゲーム画像が表示される。なお、図示は省略しているが、CPU28にはVRAMおよびLCDコントローラ等が接続されている。VRAMには、CPU28の指示の下、背景画像(BG)やプレイヤキャラクタ、ノンプレイヤキャラクタ、アイテム等の画像を含むゲーム画像が描画される。ここで、プレイヤキャラクタとは、プレイヤの操作によって移動等の任意のアクションが制御される動画キャラクタをいう。一方、ノンプレイヤキャラクタとは、プレイヤの操作によらないでコンピュータ(CPU28)によって移動等の任意のアクションが制御される動画キャラクタをいう。そして、LCDコントローラは、CPU28の指示に従ってVRAMに描画されたゲーム画像データ(表示データ)を読み出し、LCD18にゲーム画像を表示する。
Display data is given to the
操作部20は上述した各操作スイッチ20a−20eを含み、各操作スイッチに対する操作に応じた操作入力データをCPU28に与える。したがって、CPU36は操作部20を通して与えられたプレイヤ(ユーザ)の指示に従った処理を実行する。
The
外部W−RAM34は書込み読出し可能なメモリであって、CPU28の作業領域またはバッファ領域として用いられる。外部W−RAM34にはゲーム処理中に発生されたデータが一時記憶される。
The external W-RAM 34 is a readable / writable memory, and is used as a work area or a buffer area for the
送受信バッファ36は、他のゲーム装置10またはゲーム機12等との間で送受信されるデータ、たとえば多人数用通信ゲーム時にやり取りされるデータ等を、一時的に蓄積しておくためのものであり、外部拡張コネクタ32に接続される。他のゲーム装置10との間でデータの通信を行う場合には、このコネクタ32に図示しない通信ケーブル等を接続して、他のゲーム装置10を接続する。
The transmission /
サウンド回路38にはスピーカ30が接続されている。CPU28から与えられた音声データはサウンド回路38によってアナログ信号に変換され、そしてスピーカ30からゲーム音楽、効果音、キャラクタの音声或いは擬制音などの音が出力される。
A
ゲームカートリッジ14にはROM40およびRAM42が内蔵されており、ROM40とRAM42とは互いにバス等で接続されるとともにコネクタ26に接続される。したがって、ゲームカートリッジ14がゲーム機12に装着されて、コネクタ26とコネクタ24とが接続されると、CPU28はROM40およびRAM42と電気的に接続される。したがって、CPU40は、ROMおよびRAM42にアクセスしてデータのやり取りを行うことができる。
The
ROM40には、ゲームプログラム(キャラクタ生成プログラム)およびデータが予め記憶される。CPU28は、このプログラムに従って外部W−RAM34に一時的なデータを生成しつつ処理を実行する。RAM42は、生成されたゲームデータ等を保存するための書込み読出し可能なメモリであり、たとえば不揮発性メモリであるフラッシュメモリや電池を電源とするSRAM等が用いられ得る。
The
図3には、ROM40のメモリマップの一例が示される。ROM40のメモリマップはプログラム記憶領域50を含む。プログラム記憶領域50には、ゲーム機12をこの発明にかかるキャラクタ生成装置10として機能させるためのゲームプログラム(キャラクタ生成プログラム)が記憶されている。キャラクタ生成プログラムは、この実施例では、たとえば、複数の基本パーツデータの中からランダムにいずれか1つを選択するためのプログラム、複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択するためのプログラム、基本パーツ画像における複数の結合ポイントを検索するためのプログラム、要素パーツ画像における基準ポイントを検索するためのプログラム、基本パーツ画像と複数の要素パーツ画像とを合成するためのプログラム、合成された顔画像に基づいてキャラクタを生成するためのプログラム、所定数のキャラクタが生成されたか否かを判定するためのプログラム、生成された複数のキャラクタの中からいずれかのキャラクタを選択するためのプログラム、および選択されたキャラクタをゲームに登場させるゲーム処理プログラム等を含む。
FIG. 3 shows an example of the memory map of the
また、ROM40のメモリマップはデータ記憶領域を含み、データ記憶領域にはキャラクタ生成プログラムの実行に必要な各種データが予め記憶される。図3ではデータ記憶領域のうちパーツデータ記憶領域52が示される。このパーツデータ記憶領域52には顔画像を構成するための各パーツに関するデータが記憶される。この実施例では、顔画像は、輪郭パーツ画像、髪の毛パーツ画像、目パーツ画像、鼻パーツ画像および口パーツ画像から構成される。つまり、顔画像は、輪郭パーツ画像に、髪の毛パーツ画像、目パーツ画像、鼻パーツ画像および口パーツ画像を合成することによって作成される。輪郭パーツは基本パーツであり、髪の毛パーツ、目パーツ、鼻パーツおよび口パーツは要素パーツである。ただし、顔画像のパーツ構成は適宜変更されてよい。
The memory map of the
輪郭パーツデータ記憶領域54には複数の輪郭パーツデータが記憶される。輪郭パーツデータは、たとえば図5に示すように、所定のサイズ(図5では便宜上6×6の升目で示される領域全体)を有する画像データであり、顔の輪郭を示す図形ないし絵を含む。顔の輪郭にはこの実施例では耳も含まれている。さらに、輪郭パーツデータは、複数の要素パーツの各々の結合位置を示す複数の結合ポイントを含む。輪郭パーツデータにおいて、複数の結合ポイントの絵は、互いに異なる色で識別可能に描画されている。したがって、この色に基づいて複数の結合ポイントを検索することによって、複数の結合ポイントの各々の座標を容易に把握することができる。また、複数の結合ポイントのためのデータを別に用意しておく必要がなく、メモリ容量を節約できる。
The contour part
具体的には、輪郭パーツデータは、図5に示すように、髪の毛パーツ画像を合成するための結合位置を示す髪の毛結合ポイント64(丸印で示される。)、目パーツ画像を合成するための結合位置を示す目結合ポイント66(四角印で示される。)、鼻パーツ画像を合成するための結合位置を示す鼻結合ポイント68(三角印で示される。)、および口パーツ画像を合成するための結合位置を示す口結合ポイント70(星印で示される。)を含む。なお、各結合ポイントは、図では便宜上所定の形状で示されるが、この実施例では正確には1ドットないし1画素の色である。各結合ポイントの色としては、実際の輪郭の絵の画像では使用されない色が使用される。一例として、髪の毛結合ポイント64はオレンジ色のポイントであり、目結合ポイント66は黄緑色のポイントであり、鼻結合ポイント68はピンク色のポイントであり、口結合ポイント70は紫色のポイントである。また、複数の結合ポイントは、互いに異なる位置に描画され、輪郭パーツデータの上端から下端の向きでいうと、髪の毛結合ポイント64、目結合ポイント66、鼻結合ポイント68および口結合ポイント70の順に配列される。さらに、複数の結合ポイントは、左端などの表示範囲外の領域に描画されている。したがって、表示範囲内の領域に描画される輪郭を示す絵の画像は表示されるが、各結合ポイントは表示されないようになっている。また、複数の輪郭パーツデータの間では、輪郭の絵および複数の結合ポイントの配置の少なくともいずれか一方が、互いに異なるように設定される。
Specifically, as shown in FIG. 5, the contour part data includes a hair coupling point 64 (indicated by a circle) indicating a coupling position for synthesizing a hair part image, and an eye part image. An eye joint point 66 (indicated by a square mark) indicating a joint position, a nose joint point 68 (indicated by a triangle mark) representing a joint position for compositing a nose part image, and a mouth part image. And a mouth coupling point 70 (indicated by an asterisk) indicating the coupling position of. Note that each coupling point is shown in a predetermined shape for convenience in the figure, but in this embodiment, it is precisely a color of 1 dot to 1 pixel. As the color of each connection point, a color that is not used in the actual contour picture is used. As an example, the
髪の毛パーツデータ記憶領域56には、複数の髪の毛パーツデータが記憶される。髪の毛パーツデータは、所定のサイズ(図5では便宜上6×4の升目で示される領域全体)を有する画像データであり、髪の毛を示す図形ないし絵を含む。さらに、髪の毛パーツデータは、輪郭パーツデータの髪の毛結合ポイント64との結合位置を示す髪の毛基準ポイント72を含む。なお、髪の毛基準ポイント72もまた、図5等では便宜上所定の形状(丸印)で示されるが、この実施例では1ドットの色であり、その色には実際の髪の毛の絵の画像では使用されない色(たとえばオレンジ色)が使用される。したがって、この髪の毛パーツデータを含む要素パーツデータでも、色に基づいて基準ポイントを検索することによって、基準ポイントの座標を容易に把握することができる。また、基準ポイントのためのデータを別に用意しておく必要がなく、メモリ容量を節約できる。
The hair part
また、髪の毛パーツデータにおいても、髪の毛基準ポイント72は、たとえば左端のような表示範囲外の領域の所定位置に描画されている。したがって、髪の毛パーツデータでも、表示範囲内に描画される髪の毛の絵は表示されるが、表示範囲外の基準ポイント72は表示されないようになっている。また、複数の髪の毛パーツデータの間では、髪の毛の絵および髪の毛基準ポイント72の位置の少なくともいずれか一方が、互いに異なるように設定される。
Also in the hair part data, the
他の要素パーツデータも、上述の髪の毛パーツデータと同様なデータで構成される。すなわち、目パーツデータ記憶領域58には複数の目パーツデータが記憶される。目パーツデータは、所定サイズ(図5では便宜上6×2の升目)を有する画像データであり、両目(もしくは片目)を示す絵、および輪郭パーツデータの目結合ポイント66との結合位置を示す目基準ポイント74を含む。目基準ポイント74も、図5等では便宜上所定の形状(四角印)で示されるが、この実施例では1ドットの色であり、その色には実際の目の絵の画像で使用されない色(たとえば黄緑色)が使用される。また、目基準ポイント74はたとえば左端のような表示範囲外の領域の所定位置に描画される。さらに、複数の目パーツデータの間では、目の絵および目基準ポイント74の位置の少なくともいずれか一方が、互いに異なるように設定される。
Other element part data is also composed of data similar to the above-described hair part data. That is, the eye part
鼻パーツデータ記憶領域60には複数の鼻パーツデータが記憶される。鼻パーツデータは、所定サイズ(図5では便宜上6×2の升目)を有する画像データであり、鼻を示す絵、および輪郭パーツデータの鼻結合ポイント68との結合位置を示す鼻基準ポイント76を含む。鼻基準ポイント76も、図5等では便宜上所定の形状(三角印)で示されるが、この実施例では1ドットの色であり、その色には実際の鼻の絵の画像で使用されない色(たとえばピンク色)が使用される。また、鼻基準ポイント76はたとえば左端のような表示範囲外の領域の所定位置に描画される。さらに、複数の鼻パーツデータの間では、鼻の絵および鼻基準ポイント76の位置の少なくともいずれか一方が、互いに異なるように設定される。
The nose part
口パーツデータ記憶領域62には複数の口パーツデータが記憶される。口パーツデータは、所定サイズ(図5では便宜上6×2の升目)を有する画像データであり、口を示す絵、および輪郭パーツデータの口結合ポイント70との結合位置を示す口基準ポイント78を含む。口基準ポイント78も、図5等では便宜上所定の形状(星印)で示されるが、この実施例では1ドットの色であり、その色には実際の口の絵の画像で使用されない色(たとえば紫色)が使用される。また、口基準ポイント78はたとえば左端のような表示範囲外の領域の所定位置に描画される。さらに、複数の口パーツデータの間では、口の絵および口基準ポイント78の位置の少なくともいずれか一方が、互いに異なるように設定される。
The mouth part
上述のような各パーツ画像は開発者等によってたとえばCGソフトウェアを利用して予め作成されるものである。したがって、開発者等は、顔画像の各パーツの絵を描画する際に、複数の結合ポイントまたは各基準ポイントも一緒に描画するだけで、簡単にパーツデータを作成することができる。さらに、パーツの絵が同一であっても複数の結合ポイント(または各基準ポイント)の位置が異なっていれば、異なる顔画像を作成できることとなるので、開発者等は、1つの絵を使用して、複数の結合ポイント(または各基準ポイント)の位置を変更するだけで、簡単に多数のパーツデータを作成することができる。また、複数の結合ポイント(または各基準ポイント)の位置が同一でかつ絵が異なる場合にも、同様であり、簡単に多数のパーツデータを準備することができる。 Each part image as described above is created in advance by a developer or the like using, for example, CG software. Therefore, when a developer or the like draws a picture of each part of the face image, the developer can easily create part data by simply drawing a plurality of connection points or reference points together. Furthermore, even if the parts picture is the same, different face images can be created if the positions of multiple connecting points (or reference points) are different, so developers etc. use one picture. Thus, a large number of parts data can be easily created simply by changing the positions of a plurality of coupling points (or reference points). The same applies to the case where the positions of a plurality of connection points (or reference points) are the same and the pictures are different, and a large number of parts data can be prepared easily.
なお、図3では省略してあるが、ROM40のデータ記憶領域には、たとえば、キャラクタが身体を有する場合に身体を形成するための身体データ、サウンドデータ、およびキャラクタ選択画面データ等のような、その他必要なデータも予め記憶されている。
Although omitted in FIG. 3, the data storage area of the
図4には、ワークメモリ(外部W−RAM)34のメモリマップの一例が示される。この図4を参照して、ワークメモリ34には、選択パーツ記憶領域80、結合ポイント位置データ記憶領域82、基準ポイント位置データ記憶領域84および生成キャラクタデータ記憶領域86等が設けられる。なお、図4で省略されるワークメモリ34のその他の領域は、その他のデータの記憶や、必要な計算、一時的な値の格納などのために使用される。
FIG. 4 shows an example of a memory map of the work memory (external W-RAM) 34. Referring to FIG. 4, the work memory 34 includes a selected
選択パーツ記憶領域80は、パーツごとにその複数のパーツデータの中からランダムに選択されたパーツデータを指定するデータ(識別情報)を記憶するための領域である。すなわち、輪郭パーツ指定データ、髪の毛パーツ指定データ、目パーツ指定データ、鼻パーツ指定データ、および口パーツ指定データが記憶される。
The selected
結合ポイント位置データ記憶領域82は、選択された輪郭パーツデータにおける複数の結合ポイントの各々の位置データを記憶するための領域である。すなわち、髪の毛結合ポイント64の座標、目結合ポイント66の座標、鼻結合ポイント68の座標、および口結合ポイントの座標が記憶される。各結合ポイントの座標は、輪郭パーツデータにおいて、各結合ポイントの絵(色)を検索することによって、検出される。
The connection point position
基準ポイント位置データ記憶領域84は、選択された各要素パーツデータにおける各基準ポイントの位置データを記憶するための領域である。すなわち、髪の毛パーツデータの髪の毛基準ポイントの座標、目パーツデータの目基準ポイントの座標、鼻パーツデータの鼻基準ポイントの座標、および口パーツデータの口基準ポイントの座標が記憶される。各基準ポイントの座標は、各要素パーツデータにおける各基準ポイントの絵(色)を検索することによって検出される。
The reference point position
生成キャラクタデータ記憶領域86は、生成したキャラクタに関するデータを記憶するための領域であり、この記憶領域86には複数の生成キャラクタデータが記憶される。各生成キャラクタデータは、たとえば選択パーツデータおよび顔画像データを含む。選択パーツデータは、パーツごとに選択されたパーツデータの指定データを示す。顔画像データは、選択された複数のパーツデータを合成することによって生成された顔画像の画像データである。また、図示されないが、キャラクタが身体を有するものである場合には身体データを指定するデータ等も記憶される。
The generated character
図5には、顔画像の合成の概要の一例が示される。この図5では、輪郭パーツ1、髪の毛パーツ1、目パーツ1、鼻パーツ1および口パーツ1が、顔画像の合成に使用する各パーツ画像として選択されている。輪郭パーツ1は、髪の毛結合ポイント64の位置と髪の毛基準ポイント72の位置とが一致するようにして、髪の毛パーツ1と合成される。また、輪郭パーツ1は、目結合ポイント66の位置と目基準ポイント74の位置とが一致するようにして、目パーツ1と合成される。また、輪郭パーツ1は、鼻結合ポイント68の位置と鼻基準ポイント76の位置とが一致するようにして、鼻パーツ1と合成される。さらに、輪郭パーツ1は、口結合ポイント70の位置と口基準ポイント78の位置とが一致するようにして、口パーツ1と合成される。このように、輪郭パーツ画像に設定された結合ポイントと各要素パーツ画像に設定された各基準ポイントとの位置合わせによって、簡単に顔画像を合成することができる。なお、各パーツ画像は、合成の際には、拡大または縮小あるいは回転されたりすることなく、そのまま合成される。
FIG. 5 shows an example of an outline of face image synthesis. In FIG. 5, the
なお、図5等では、合成顔画像において複数の結合ポイントおよび各基準ポイントの図示を省略している。結合ポイントおよび基準ポイントの位置は、上述のように、表示範囲外であるので、この合成顔画像を用いてキャラクタを生成したとき、結合ポイントおよび基準ポイントがゲーム画像としてLCD18に表示されることはない。
In FIG. 5 and the like, a plurality of combined points and reference points are not shown in the synthesized face image. As described above, since the positions of the combined point and the reference point are outside the display range, when the character is generated using this composite face image, the combined point and the reference point are displayed on the
このようにして合成された顔画像に基づいてキャラクタが生成されることとなる。キャラクタが身体を有する場合には、さらに顔画像と身体とが組み合わされる。ROM40に複数の身体データを記憶しておく場合には、たとえばランダムにいずれか1つの身体データが選択される。また、キャラクタがポリゴンで形成される3次元のキャラクタである場合には、合成した顔画像を顔のポリゴンのテクスチャとして使用する。一方、キャラクタが2次元の顔のみによって形成される場合には、合成された顔画像が生成されたキャラクタとしてそのまま使用される。
A character is generated based on the face image synthesized in this way. When the character has a body, the face image and the body are further combined. When a plurality of body data is stored in the
図6には、輪郭パーツ2が選択された場合の顔画像の合成の概要の一例が示される。図6の輪郭パーツ2は、図5の輪郭パーツ1とは、輪郭の絵および複数の結合ポイントの配置の両方が異なるように設定されている。詳しくは、輪郭パーツ2では、輪郭パーツ1と比べて、面長の輪郭が描画されるとともに、髪の毛結合ポイント64、目結合ポイント66および鼻結合ポイント68がより高い(上端側の)位置に描画されている。この輪郭パーツ2と図5に示した各要素パーツ1とが合成されると、図6に示すような顔画像が生成される。このように、輪郭の絵および複数の結合ポイントの配置の両方が異なる輪郭パーツデータを用いることによって、図5および図6から分かるように、使用される各要素パーツが同じものであっても、印象の全く異なる顔画像を生成することができる。
FIG. 6 shows an example of an outline of synthesis of a face image when the contour part 2 is selected. The contour part 2 in FIG. 6 is set to be different from the
また、図7には、輪郭パーツ3が選択された場合の顔画像の合成の概要の一例が示される。図7の輪郭パーツ3は、図6の輪郭パーツ2とは、輪郭の絵は同一であるが、複数の結合ポイントの配置が異なる。具体的には、輪郭パーツ2と比べて、輪郭パーツ3の目結合ポイント66の位置は低く、鼻結合ポイント68の位置および口結合ポイント70の位置は高くされている。この輪郭パーツ3と図5に示した各要素パーツ1とが合成されると、図7に示すような顔画像が生成される。図6および図7から分かるように、複数の結合ポイントの配置が異なる輪郭パーツデータを用いることによって、使用される各要素パーツが同じものであっても、印象の異なる顔画像を生成することができる。
FIG. 7 shows an example of the outline of the synthesis of the face image when the
なお、図6および図7の例では、各要素パーツとして、図5の例と同じ要素パーツ1が使用される場合が示される。そして、上述のように、使用される全ての要素パーツが同じであっても輪郭パーツが異なれば、印象の異なった顔画像を作成することができる。したがって、複数の要素パーツのうちいずれか1つでも絵の異なる別の要素パーツが使用される場合には、完全に異なった顔画像を生成することができる。
6 and 7 show a case where the
また、図8には、各要素パーツ2が選択された場合の顔画像の合成の概要の一例が示される。各要素パーツ2では、図5の各要素パーツ1と同じ絵が使用されるが、各基準ポイントの位置が異なる。詳しくは、髪の毛パーツ2の髪の毛基準ポイント72は髪の毛パーツ1のそれよりも低い位置に設定され、目パーツ2の目基準ポイント74は目パーツ1のそれよりも低い位置に設定され、鼻パーツ2の鼻基準ポイント76は鼻パーツ1のそれよりも高い位置に設定され、そして、口パーツ2の口基準ポイント78は口パーツ1のそれよりも高い位置に設定される。また、この図8では、図5と同じ輪郭パーツ1が選択されている。この場合には、図8および図5から分かるように、要素パーツの絵が同じであっても、基準ポイントの位置が異なるパーツデータが使用されることによって、印象の異なる顔画像を生成することができる。
FIG. 8 shows an example of the outline of the synthesis of the face image when each element part 2 is selected. In each element part 2, the same picture as each
図9にはこのゲーム装置10のゲーム動作の一例が示される。ゲーム処理を開始すると、CPU28は、ステップS1で、パーツ選択処理を実行する。このパーツ選択処理の動作の一例が次の図10に詳細に示される。
FIG. 9 shows an example of the game operation of the
図10のステップS31で、CPU28は、まず、ROM40のパーツデータ記憶領域54に記憶された複数の輪郭パーツデータの中からランダムに1つを選択する。そして、CPU28は、選択した輪郭パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。
In step S31 of FIG. 10, the
続いて、CPU28は、要素パーツデータの選択を行う。つまり、CPU28は、ステップS33で髪の毛パーツデータ記憶領域56に記憶された複数の髪の毛パーツデータの中からランダムに1つを選択し、選択した髪の毛パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。ステップS35では、CPU28は、目パーツデータ記憶領域58に記憶された複数の目パーツデータの中からランダムに1つを選択し、選択した目パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。ステップS37では、CPU28は、鼻パーツデータ記憶領域60に記憶された複数の鼻パーツデータの中からランダムに1つを選択し、選択した鼻パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。そして、ステップS39では、CPU28は、口パーツデータ記憶領域62に記憶された複数の口パーツデータの中からランダムに1つを選択し、選択した口パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。ステップS39を終了すると、処理は図9のステップS3へ戻る。
Subsequently, the
図9のステップS3では、CPU28は、結合ポイント検索処理を実行する。この結合ポイント検索処理の動作の一例が、図11に詳細に示される。
In step S3 of FIG. 9, the
図11の最初のステップS51で、CPU28は、結合ポイントサーチ処理を実行する。この処理は、選択された輪郭パーツデータに含まれる複数の結合ポイントを探索するための処理である。この処理では、輪郭パーツデータ(画像データ)の画素の色データがサーチされる。結合ポイントは、上述のように、表示範囲外の領域(たとえば画像データの左端)に設けられるので、その領域の画素ないしドットが逐一調査される。
In the first step S51 of FIG. 11, the
ステップS53で、CPU28は、調査した画素の色データに基づいて、その画素がオレンジ色のポイントであるか否かを判断する。ステップS53で“YES”であれば、つまり、その画素に髪の毛結合ポイント64が描画されている場合には、CPU28は、ステップS55で、サーチしたポイントの座標を、髪の毛結合ポイント64の位置データとしてワークメモリ34の結合ポイント位置データ記憶領域82に記憶する。ステップS55を終了すると、処理はステップS69へ進む。
In step S53, the
ステップS53で“NO”であれば、CPU28は、ステップS57で、調査した画素が黄緑色のポイントであるか否かを判断する。ステップS57で“YES”であれば、つまり、その画素に目結合ポイント66が描画されている場合には、CPU28は、ステップS59で、サーチしたポイントの座標を、目結合ポイント66の位置データとしてワークメモリ34の結合ポイントデータ記憶領域82に記憶する。ステップS59を終了すると、処理はステップS69へ進む。
If “NO” in the step S53, the
また、ステップS57で“NO”であれば、CPU28は、ステップS61で、調査した画素がピンク色のポイントであるか否かを判断する。ステップS61で“YES”であれば、つまり、その画素に鼻結合ポイント68が描画されている場合には、CPU28は、ステップS63で、サーチしたポイントの座標を、鼻結合ポイント68の位置データとしてワークメモリ34の結合ポイント位置データ記憶領域82に記憶する。ステップS63を終了すると、処理はステップS69へ進む。
If “NO” in the step S57, the
一方、ステップS61で“NO”であれば、CPU28は、ステップS65で、調査した画素が紫色のポイントであるか否かを判断する。ステップS65で“YES”であれば、つまり、その画素に口結合ポイント70が描画されている場合には、CPU28は、ステップS67で、サーチしたポイントの座標を、口結合ポイント70の位置データとしてワークメモリ34の結合ポイント位置データ記憶領域82に記憶する。ステップS67を終了すると、またはステップS65で“NO”であれば、処理はステップS69へ進む。
On the other hand, if “NO” in the step S61, the
ステップS69では、CPU28は全ての座標をサーチしたか否かを判断する。たとえば、結合ポイントの描画される領域が決められている場合には、その領域内のすべての座標がサーチされたか否かが判断される。ただし、輪郭パーツデータの全領域の座標がサーチされたか否かが判断されてもよい。ステップS69で“NO”であれば、処理はステップS51へ戻って結合ポイントの検索を続ける。ステップS69で“YES”であれば、処理は図9のステップS5へ戻る。
In step S69, the
図9のステップS5では、CPU28は、基準ポイント検索処理を実行する。この処理は、選択された各要素パーツデータに含まれる各基準ポイントを探索するための処理である。上述の結合ポイント検索処理と同様の処理が実行されて、各基準ポイントの位置データが取得される。具体的には、CPU28は、髪の毛パーツデータ(画像データ)において、たとえば基準ポイントの描画される領域の全ての画素の色データをサーチする。そして、調査した画素がオレンジ色のポイントであった場合には、CPU28は、そのサーチしたポイントの座標を、髪の毛基準ポイント72の位置データとして、ワークメモリ34の基準ポイント位置データ記憶領域84に記憶する。同様にして、目パーツデータにおいて、全ての画素の色データがサーチされ、その画素が黄緑色のポイントであった場合には、そのポイントの座標が、目基準ポイント74の位置データとして基準ポイント位置データ記憶領域84に記憶される。また、鼻パーツデータにおいて全ての画素の色データがサーチされ、その画素がピンク色のポイントであった場合には、そのポイントの座標が、鼻基準ポイント76の位置データとして基準ポイント位置データ記憶領域84に記憶される。さらに、口パーツデータにおいて全ての画素の色データがサーチされ、その画素が紫色のポイントであった場合には、そのポイントの座標が、口基準ポイント78の位置データとして基準ポイント位置データ記憶領域84に記憶される。
In step S5 of FIG. 9, the
続いて、ステップS7で、CPU28は、輪郭パーツの各結合ポイントと対応する各要素パーツの基準ポイントとを合わせるように、輪郭パーツと各要素パーツとを合成する処理を実行する。具体的には、結合ポイント位置データ記憶領域82に記憶されている各結合ポイントの位置データと、基準ポイント位置データ記憶領域84に記憶されている各基準ポイントの位置データとに基づいて、各結合ポイントと対応する各基準ポイントとが一致するように各パーツ画像の相対位置を調整して、合成をする。これによって、合成された顔画像の画像データがワークメモリ34または図示しないVRAMに生成される。
Subsequently, in step S7, the
そして、ステップS9で、CPU28はキャラクタ生成処理を実行する。この処理では、CPU28は、ステップS7で生成した顔画像に基づいてキャラクタを生成し、その生成キャラクタデータを、たとえばその生成キャラクタの識別情報に関連付けて、ワークメモリ34の生成キャラクタデータ記憶領域86に記憶する。生成キャラクタデータは、そのキャラクタを生成する際に、選択パーツデータ記憶領域80に記憶された選択パーツデータ、およびステップS7で生成された合成顔画像データを含む。なお、キャラクタが身体を有して構成される場合には、このステップS9の処理で、身体データの選択が行われ、選択された身体と生成した顔画像とに基づいてキャラクタが生成される。
In step S9, the
続いて、ステップS11で、CPU28は、所定数(たとえば84体)のキャラクタを生成したか否かを判断し、“NO”であれば、処理はステップS1へ戻って、更なるキャラクタの生成を続ける。このようにして、プレイヤないしユーザの操作による調整や選択等を受けることなく、多種類の顔画像を生成することができる。
Subsequently, in step S11, the
そして、ステップS11で“YES”であれば、つまり、所定数のキャラクタが生成された場合には、ステップS13で、CPU28は、生成キャラクタデータ記憶領域86に記憶した生成キャラクタデータ、およびROM40に記憶される選択画面データ等に基づいて、生成した84体のキャラクタを選択画面に表示する。つまり、CPU28は、生成された多数のキャラクタを含む選択画面のゲーム画像をたとえばVRAMに生成し、そのゲーム画像をLCDコントローラを用いてLCD18に表示する。たとえば、選択画面では、生成した複数のキャラクタが所定位置に固定的に、あるいは画面内を移動しながら表示される。この選択画面で、プレイヤないしユーザは、操作スイッチ20を適宜操作して、たとえばカーソルをキャラクタの表示位置に合わせること等によって、複数のキャラクタの中からいずれか1つ(または複数)のキャラクタを選択することができる。なお、ここでプレイヤによって選択されるキャラクタは、プレイヤキャラクタであってもよいし、ノンプレイヤキャラクタであってもよい。プレイヤないしユーザは、ゲームに登場させたいキャラクタを多数のキャラクタの中から選択することができる。したがって、プレイヤにバリエーションに富んだキャラクタの中から希望のキャラクタを選択させることができるので、興趣性や娯楽性を高めたゲームを実現することが可能である。
If “YES” in the step S11, that is, if a predetermined number of characters are generated, the
なお、ここではプレイヤの操作に基づいてキャラクタが選択されることを説明したが、プレイヤの操作によらず、ランダムにキャラクタを選択するようにしてもよい。 Although the description has been given here of the case where the character is selected based on the operation of the player, the character may be selected at random regardless of the operation of the player.
ステップS15では、CPU28は、操作部20から入力される操作データおよび選択画面における各キャラクタの位置データ等に基づいて、何れかのキャラクタが選択されたか否かを判断する。ステップS15で“NO”であれば、ステップS13に戻って、キャラクタを含む選択画面の表示処理を繰り返す。
In step S <b> 15, the
ステップS15で“YES”であれば、つまり、必要な数のキャラクタが選択された場合には、CPU28は、ステップS17で、選択されたキャラクタをゲーム内に登場させる。たとえば、CPU28は、ワークメモリ34に記憶される生成キャラクタデータ、およびROM40に記憶されるゲーム空間データないしゲームフィールドデータ等に基づいて、選択されたキャラクタを含むゲーム空間のゲーム画像を生成し、そのゲーム画像をLCD18に表示する。
If “YES” in the step S15, that is, if a necessary number of characters are selected, the
続いて、ステップS19で、CPU28は、プレイヤの操作に基づくゲーム処理を実行する。たとえば、CPU28は、操作部20から入力される操作データに基づいてキャラクタの動作を制御したり、ゲーム進行に必要な他の処理を実行したりする。そして、ステップS21で、CPU28はゲーム終了であるか否かを判断する。ステップS21で“NO”であれば、処理はステップS19へ戻ってゲームを進行させる。ステップS21で“YES”であればこのゲーム処理を終了する。
Subsequently, in step S19, the
この実施例によれば、複数のパーツデータから、パーツごとに1つをランダムに選択し、複数の結合ポイントが設定された輪郭パーツデータと基準ポイントが設定された各要素パーツデータとを、結合ポイントと基準ポイントとを合わせるようにして合成するようにしたので、簡単な処理で、バリエーションに富んだ顔画像を自動で生成することができる。したがって、多種類のキャラクタを簡単に生成することができる。このため、バリエーション豊かなキャラクタをゲームに登場させることができるので、ゲームの興趣性や娯楽性を向上することも可能である。さらに、多種類のキャラクタを予め生成しておいてキャラクタデータとしてROM40に持たせておく必要がないので、ゲームカートリッジ14などのゲーム情報記憶媒体のメモリ容量を節約することができる。
According to this embodiment, one part is randomly selected from a plurality of parts data, and the contour part data set with a plurality of connecting points and the element part data set with the reference points are combined. Since the point and the reference point are combined so as to be combined, it is possible to automatically generate a variety of face images with simple processing. Therefore, many types of characters can be easily generated. For this reason, since characters with rich variations can appear in the game, it is possible to improve the fun and entertainment of the game. Furthermore, since it is not necessary to generate various types of characters in advance and store them in the
なお、上述の実施例では、輪郭の絵に複数の結合ポイントが描画された複数の輪郭パーツデータを予め用意するようにしていた。しかしながら、図12に示す他の実施例のように、輪郭の絵自体と複数の結合ポイントとを別のデータとして用意するようにしてもよい。すなわち、図12のROM40のメモリマップに示すように、輪郭パーツデータ記憶領域54には、複数の輪郭パーツデータが記憶され、各輪郭パーツデータは、輪郭の絵のみを示す画像データであり、結合ポイントを含まない。
In the above-described embodiment, a plurality of contour part data in which a plurality of coupling points are drawn on a contour picture is prepared in advance. However, as in another embodiment shown in FIG. 12, the outline picture itself and a plurality of connection points may be prepared as separate data. That is, as shown in the memory map of the
なお、髪の毛パーツデータ記憶領域56、目パーツデータ記憶領域58、鼻パーツデータ記憶領域60および口パーツデータ記憶領域62に記憶される各要素パーツデータは、上述の実施例と同じである。つまり、図3に示したように、各要素パーツデータは、当該要素パーツの絵と基準ポイントとを含む。
The element part data stored in the hair part
さらに、データ記憶領域は結合ポイントセットデータ記憶領域90を含み、この記憶領域90には、複数の結合ポイントセットデータが記憶される。結合ポイントセットデータは、複数の要素パーツの基準ポイントに対応する複数の結合ポイントと、当該複数の結合ポイントの輪郭パーツデータにおける位置を示す座標データとを含む。すなわち、髪の毛結合ポイントとその座標、目結合ポイントとその座標、鼻結合ポイントとその座標、口結合ポイントとその座標が記憶される。記憶される結合ポイントは、その色を示すデータである。あるいは、結合ポイントは、その画像データであってもよい。この実施例では、結合ポイントは1ドットであるので、その画像データは結合ポイントの色データを含む。また、複数の結合ポイントセットデータ間では、複数の結合ポイントのうちのいずれか1つの位置が互いに異なるように設定されている。
Further, the data storage area includes a combination point set
なお、プログラム記憶領域50も、上述の実施例と同様に構成される。さらに、この実施例では、結合ポイントを輪郭パーツデータに設定するためのプログラム等も記憶されている。
The
図13には、この実施例における顔画像の合成の概略の一例が示される。上述の実施例と同様に、各パーツについて、複数のパーツデータの中からいずれか1つのパーツデータがランダムに選択される。図13では、輪郭パーツ1、髪の毛パーツ1、目パーツ1、鼻パーツ1、および口パーツ1が選択されている。また、この実施例では、複数の結合ポイントセットデータの中からいずれか1つの結合ポイントセットデータがランダムに選択される。図13では、結合ポイントセット1が選択されている。
FIG. 13 shows an example of an outline of synthesis of face images in this embodiment. Similar to the above-described embodiment, for each part, any one part data is randomly selected from a plurality of part data. In FIG. 13, the
そして、輪郭パーツデータには、選択された結合ポイントセットデータに基づいて、複数の結合ポイントが設定される。具体的には、結合ポイントとして色を示すデータが記憶される場合には、各結合ポイントの色データおよび座標データに基づいて、輪郭パーツ上における座標データの示す位置に各ポイントの色付けをする。つまり、輪郭パーツ上の座標データの示す位置の画素の色データを結合ポイントの色に変更する。あるいは、結合ポイントとしてその画像データを記憶する場合には、輪郭パーツ上に結合ポイントの画像データを合成するようにしてもよい。このようにして、複数の結合ポイントが描画された輪郭パーツデータを生成することができる。そして、上述の実施例と同様にして、複数の結合ポイントと対応する各基準ポイントとを合わせるようにして、輪郭パーツと複数の要素パーツとを合成し、合成顔画像に基づいてキャラクタを生成する。 In the contour part data, a plurality of coupling points are set based on the selected coupling point set data. Specifically, when data indicating a color is stored as a connection point, each point is colored at the position indicated by the coordinate data on the contour part based on the color data and coordinate data of each connection point. That is, the color data of the pixel at the position indicated by the coordinate data on the contour part is changed to the color of the coupling point. Alternatively, when the image data is stored as a connection point, the image data of the connection point may be synthesized on the contour part. In this way, contour part data in which a plurality of coupling points are drawn can be generated. Then, in the same manner as in the above-described embodiment, the contour part and the plurality of element parts are synthesized so as to match the plurality of combined points with the corresponding reference points, and a character is generated based on the synthesized face image. .
図14には、結合ポイントセット2が選択された場合の顔画像の合成の概要の一例が示される。結合ポイントセット2は、図13の結合ポイントセット1とは各結合ポイントの位置が異なる。詳しくは、結合ポイントセット2の髪の毛結合ポイント64、目結合ポイント66および鼻結合ポイント68の位置は、結合ポイントセット1のそれらよりも高く、結合ポイントセット2の口結合ポイント70の位置は、結合ポイントセット1のそれよりも低い。また、各パーツデータは、図13の例と同じパーツデータが選択されている。図13および図14から分かるように、異なる結合ポイントセットが使用されることによって、各パーツの絵が同じであっても、印象の異なる顔画像を生成することができる。
FIG. 14 shows an example of the outline of synthesis of face images when the combination point set 2 is selected. The connection point set 2 differs from the connection point set 1 of FIG. 13 in the position of each connection point. Specifically, the positions of the
このように、この実施例によっても、多種類のキャラクタを簡単に生成することができ、しかもキャラクタ自体を予めデータとして持たせておく必要がないので、メモリ容量を節約することもできる。また、この実施例の場合には、1つの輪郭パーツに対して、用意しておいた複数の結合ポイントセットデータを設定することが可能である。したがって、予め結合ポイントが描画された輪郭パーツデータを複数準備する上述の実施例と比べても、同一の基本パーツ画像を複数個記憶しておかなくて済むので、さらにメモリ容量を節約することが可能である。また、複数の結合ポイントデータを記憶しているので、パーツ画像の種類を増やすことなくバリエーションに富んだ顔画像を簡単に生成することができ、したがって簡単に多数のキャラクタを生成することができる。 As described above, according to this embodiment, it is possible to easily generate many kinds of characters, and it is not necessary to previously store the characters themselves as data, so that the memory capacity can be saved. In the case of this embodiment, a plurality of prepared combination point set data can be set for one contour part. Therefore, even when compared with the above-described embodiment in which a plurality of contour part data in which the coupling points are drawn in advance is prepared, it is not necessary to store a plurality of the same basic part images, thereby further saving the memory capacity. Is possible. Further, since a plurality of combination point data are stored, it is possible to easily generate a variety of face images without increasing the types of part images, and thus it is possible to easily generate a large number of characters.
図15には、結合ポイントセットデータを記憶する場合のゲーム動作の一例を示すフロー図が示される。なお、図9に示したフロー図と同じ処理には、同一の符号を付して、重複する説明を省略する。 FIG. 15 is a flowchart showing an example of the game operation when storing the combined point set data. Note that the same processes as those in the flowchart shown in FIG. 9 are denoted by the same reference numerals, and redundant description is omitted.
ステップS1で各パーツを選択した後、CPU28は、ステップS91で結合ポイント設定処理を実行する。この処理の動作は次の図16に詳細に示される。すなわち、図16のステップS101で、CPU28は、結合ポイントセットデータ記憶領域90に記憶された複数の結合ポイントセットデータの中からランダムに1つを選択する。そして、選択した結合ポイントセットの指定データ(識別情報)をワークメモリ34の所定領域に記憶する。
After selecting each part in step S1, the
次に、ステップS103で、CPU28は、選択された結合ポイントセットデータの各結合ポイントの座標に基づいて、輪郭パーツ上の対応する位置に各結合ポイントを描画し、各結合ポイントの描画された輪郭パーツデータをたとえばVRAMまたはワークメモリ34に生成する。このステップS103を終了すると、処理は図15のステップS3へ戻る。その後は、CPU28は、上述した図9の各ステップと同様な処理を実行して、キャラクタを生成し、そのキャラクタをゲームに登場させる。
Next, in step S103, the
なお、上述の各実施例では、要素パーツデータについて、各パーツの絵に各基準ポイントが描画されたパーツデータを予め用意するようにしていた。しかしながら、上述の図12実施例の場合と同様にして、パーツの絵とは別のデータとして、複数の基準ポイントのデータを準備するようにしてもよい。そして、複数の基準ポイントデータから1つをランダムに選択して、基準ポイントをパーツ画像に描画する。この場合にも、上述の結合ポイントセットデータが設けられる場合と同様に、パーツ画像データを増やすことなくバリエーションに富んだ顔画像を作成することができるので、簡単に多種類のキャラクタを生成できるとともに、メモリ容量を節約できる。 In each of the above-described embodiments, part data in which each reference point is drawn on a picture of each part is prepared in advance for the element part data. However, as in the case of the above-described FIG. 12 embodiment, data of a plurality of reference points may be prepared as data different from the part picture. Then, one of the plurality of reference point data is randomly selected, and the reference point is drawn on the part image. Also in this case, as in the case where the above-described combination point set data is provided, it is possible to create a variety of face images without increasing the part image data, and thus it is possible to easily generate many types of characters. , Can save memory capacity.
また、上述の各実施例では、結合ポイント(および基準ポイント)を色によって識別するようにしていた。しかしながら、結合ポイント(および基準ポイント)は、色以外に、形状、記号、文字等で識別するようにしてもよい。この場合には、たとえば、結合ポイント画像とその結合ポイント画像の対応する要素パーツを示す情報とが対応付けられたテーブルデータ等を予めROM40に記憶しておく。そして、結合ポイントをサーチしたときに、このテーブルを参照して、サーチした結合ポイント画像が、どの要素パーツに対応するかを識別すればよい。あるいは、各結合ポイント画像を画像認識処理で識別するようにしてもよい。
In each of the above-described embodiments, the coupling point (and the reference point) is identified by color. However, the coupling point (and the reference point) may be identified by a shape, a symbol, a character, or the like in addition to the color. In this case, for example, table data or the like in which the combination point image and information indicating the corresponding element part of the combination point image are associated with each other is stored in the
また、結合ポイントは、サーチしたときのヒットした順番によって識別するようにしてもよい。上述のように、複数の結合ポイントの、パーツデータ(画像データ)の上下方向に並ぶ順序は決まっている。具体的には、上から、髪の毛結合ポイント、目結合ポイント、鼻結合ポイント、および口結合ポイントの順に並ぶ。したがって、パーツデータの上からまたは下から順にサーチしたときのヒット順によって、各結合ポイントの対応する要素パーツを識別することが可能である。ただし、この場合には、結合ポイントが配される、すなわち、結合ポイントをサーチする座標(画素列)は予め決まっている必要があり、たとえば、各結合ポイントはパーツデータの左端の画素列に描画される。 Further, the combination points may be identified by the order of hits when searching. As described above, the order in which the plurality of coupling points are arranged in the vertical direction of the part data (image data) is determined. Specifically, from the top, the hair connection point, the eye connection point, the nose connection point, and the mouth connection point are arranged in this order. Therefore, it is possible to identify the corresponding element part of each connection point according to the hit order when searching from the top or the bottom of the part data. In this case, however, the coupling points are arranged, that is, the coordinates (pixel columns) for searching the coupling points need to be determined in advance. For example, each coupling point is drawn in the pixel column at the left end of the part data. Is done.
10 …キャラクタ生成装置(ゲーム装置)
12 …ゲーム機
14 …ゲームカートリッジ
18 …LCD
28 …CPU
34 …ワークメモリ
40 …ROM
10: Character generation device (game device)
12 ...
28 ... CPU
34 ...
Claims (8)
顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する基本パーツデータ記憶手段、
前記要素パーツ画像と当該要素パーツ画像に対応する前記結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する基本パーツ選択手段、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択手段、
前記基本パーツ選択手段によって選択された基本パーツデータに含まれる前記複数の結合ポイントを検索する第1検索手段、
前記要素パーツ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索手段、
前記第1検索手段によって検索された複数の結合ポイントの各々と前記第2検索手段によって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択手段によって選択された基本パーツデータに含まれる基本パーツ画像と前記要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成手段、
前記合成手段によって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成手段、および
前記キャラクタ生成手段によって生成されたキャラクタをゲームに登場させるゲーム処理手段を備える、キャラクタ生成装置。 A character generation device that generates a character based on a face image created by combining a plurality of part images,
A basic part for storing a plurality of basic part data each including a basic part image for composing a face image and a plurality of connecting points indicating a connecting position of each of a plurality of element part images combined with the basic part image Data storage means,
Element part data storage means for storing a plurality of element part data each including the element part image and a reference point indicating a coupling position of the coupling point corresponding to the element part image;
Basic part selection means for randomly selecting any one of a plurality of basic part data stored in the basic part data storage means;
Element part selection means for randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means,
First search means for searching for the plurality of connection points included in the basic part data selected by the basic part selection means;
Second search means for searching for each reference point included in each of the plurality of element parts data selected by the element parts selection means;
Included in the basic part data selected by the basic part selection means so as to match each of the plurality of connection points searched by the first search means with the corresponding reference points searched by the second search means Combining means for combining the basic part image and each element part image included in the plurality of element part data selected by the element part selection means,
A character generation device comprising: character generation means for generating a character based on the face image synthesized by the synthesis means; and game processing means for causing the character generated by the character generation means to appear in a game.
前記第1検索手段は、前記複数の結合ポイントを前記色に基づいて検索する、請求項1記載のキャラクタ生成装置。 The basic part data stored in the basic part data storage means is image data indicating the basic part image in which a plurality of coupling points are drawn so as to be identifiable in different colors for each corresponding element part,
The character generation device according to claim 1, wherein the first search unit searches the plurality of connection points based on the color.
顔画像を構成するための複数の基本パーツ画像を記憶する基本パーツデータ記憶手段、
前記基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の前記基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する結合ポイントデータ記憶手段、
前記要素パーツ画像と当該要素パーツ画像に対応する前記結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する基本パーツ選択手段、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択手段、
前記結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する結合ポイント選択手段、
前記結合ポイント選択手段によって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを前記基本パーツ選択手段によって選択された基本パーツ画像上に描画する結合ポイント描画手段、
前記結合ポイント描画手段によって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する第1検索手段、
前記要素パーツデータ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索手段、
前記第1検索手段によって検索された複数の結合ポイントの各々と前記第2検索手段によって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択手段によって選択された前記基本パーツ画像と前記要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成手段、
前記合成手段によって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成手段、および
前記キャラクタ生成手段によって生成されたキャラクタをゲームに登場させるゲーム処理手段を備える、キャラクタ生成装置。 A character generation device that generates a character based on a face image created by combining a plurality of part images,
Basic part data storage means for storing a plurality of basic part images for constituting a face image;
A plurality of combination points each indicating a connection position of each of the plurality of element part images synthesized with the basic part image and a plurality of coordinate data indicating the position of each of the plurality of connection points in the basic part image. Coupling point data storage means for storing coupling point set data;
Element part data storage means for storing a plurality of element part data each including the element part image and a reference point indicating a coupling position of the coupling point corresponding to the element part image;
Basic part selection means for randomly selecting any one of a plurality of basic part images stored in the basic part data storage means;
Element part selection means for randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means,
Coupling point selection means for randomly selecting any one of a plurality of coupling point set data stored in the coupling point data storage means;
A connection point drawing unit for drawing a plurality of connection points on the basic part image selected by the basic part selection unit based on the connection point set data selected by the connection point selection unit;
First search means for searching the plurality of connection points in the basic part image in which a plurality of connection points are drawn by the connection point drawing means;
Second search means for searching for each reference point included in each of the plurality of element part data selected by the element parts data selection means;
The basic part image selected by the basic part selecting means so as to match each of the plurality of connecting points searched by the first searching means with the corresponding reference points searched by the second searching means; Combining means for combining each element part image included in the plurality of element part data selected by the element parts selecting means;
A character generation device comprising: character generation means for generating a character based on the face image synthesized by the synthesis means; and game processing means for causing the character generated by the character generation means to appear in a game.
前記判定手段によって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択するキャラクタ選択手段をさらに備え、
前記ゲーム処理手段は、前記キャラクタ選択手段によって選択されたキャラクタをゲームに登場させる、請求項1ないし3のいずれかに記載のキャラクタ生成装置。 Determining means for determining whether or not a predetermined number of characters have been generated by the character generating means; and when the determining means determines that a predetermined number of characters have been generated, any one of the generated characters A character selection means for selecting the character of
The character generation device according to claim 1, wherein the game processing unit causes the character selected by the character selection unit to appear in the game.
前記キャラクタ生成装置のプロセサに、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する基本パーツ選択ステップ、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択ステップ、
前記基本パーツ選択ステップによって選択された基本パーツデータに含まれる前記複数の結合ポイントを検索する第1検索ステップ、
前記要素パーツ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索ステップ、
前記第1検索ステップによって検索された複数の結合ポイントの各々と前記第2検索ステップによって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択ステップによって選択された基本パーツデータに含まれる基本パーツ画像と前記要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成ステップ、
前記合成ステップによって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成ステップ、および
前記キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させるゲーム処理ステップを実行させる、キャラクタ生成プログラム。 A basic part for storing a plurality of basic part data each including a basic part image for composing a face image and a plurality of connecting points indicating a connecting position of each of a plurality of element part images combined with the basic part image Data storage means, and element part data storage means for storing a plurality of element part data each including a reference point indicating a connection position of the element part image and the connection point corresponding to the element part image. A character generation program of a character generation device for generating a character based on a face image created by combining the part images of
In the processor of the character generation device,
A basic part selection step of randomly selecting any one of a plurality of basic part data stored in the basic part data storage means;
An element part selection step of randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means;
A first search step for searching the plurality of connection points included in the basic part data selected by the basic part selection step;
A second search step of searching for each reference point included in each of the plurality of element parts data selected by the element parts selection step;
Included in the basic part data selected by the basic part selection step so as to match each of the plurality of connection points searched by the first search step with each corresponding reference point searched by the second search step Combining a basic part image and each element part image included in a plurality of element part data selected in the element part selection step;
A character generation program for executing a character generation step for generating a character based on the face image combined in the combining step, and a game processing step for causing the character generated in the character generation step to appear in the game.
前記第1検索ステップは、前記複数の結合ポイントを前記色に基づいて検索する、請求項5記載のキャラクタ生成プログラム。 The basic part data stored in the basic part data storage means is image data indicating the basic part image in which a plurality of coupling points are drawn so as to be identifiable in different colors for each corresponding element part,
The character generation program according to claim 5, wherein in the first search step, the plurality of connection points are searched based on the color.
前記キャラクタ生成装置のプロセサに、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する基本パーツ選択ステップ、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択ステップ、
前記結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する結合ポイント選択ステップ、
前記結合ポイント選択ステップによって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを前記基本パーツ選択ステップによって選択された基本パーツ画像上に描画する結合ポイント描画ステップ、
前記結合ポイント描画ステップによって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する第1検索ステップ、
前記要素パーツデータ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索ステップ、
前記第1検索ステップによって検索された複数の結合ポイントの各々と前記第2検索ステップによって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択ステップによって選択された前記基本パーツ画像と前記要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成ステップ、
前記合成ステップによって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成ステップ、および
前記キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させるゲーム処理ステップを実行させる、キャラクタ生成プログラム。 Basic part data storage means for storing a plurality of basic part images for constituting a face image, a plurality of connecting points indicating respective connecting positions of a plurality of element part images combined with the basic part image, and the plurality of connecting parts Coupling point data storage means for storing a plurality of coupling point set data each including coordinate data indicating the position of each point in the basic part image, and the coupling point corresponding to the element part image and the element part image And a character for generating a character based on a face image created by combining a plurality of part images, including element part data storage means for storing a plurality of element part data each including a reference point indicating a coupling position with A character generation program for a generation device,
In the processor of the character generation device,
A basic part selection step of randomly selecting any one of a plurality of basic part images stored in the basic part data storage means;
An element part selection step of randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means;
A coupling point selection step of randomly selecting any one of a plurality of coupling point set data stored in the coupling point data storage means;
A coupling point drawing step for drawing a plurality of coupling points on the basic part image selected by the basic part selection step based on the coupling point set data selected by the coupling point selection step.
A first search step of searching for the plurality of connection points in the basic part image in which a plurality of connection points are drawn by the connection point drawing step;
A second search step of searching for each reference point included in each of the plurality of element part data selected by the element part data selection step;
The basic part image selected by the basic part selection step so as to match each of the plurality of connection points searched by the first search step with each corresponding reference point searched by the second search step; A synthesis step of synthesizing each element part image included in the plurality of element part data selected in the element part selection step;
A character generation program for executing a character generation step for generating a character based on the face image combined in the combining step, and a game processing step for causing the character generated in the character generation step to appear in the game.
前記キャラクタ生成ステップによって所定数のキャラクタが生成されたか否かを判定する判定ステップ、および
前記判定ステップによって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択するキャラクタ選択ステップをさらに実行させ、
前記ゲーム処理ステップは、前記キャラクタ選択ステップによって選択されたキャラクタをゲームに登場させる、請求項5ないし7のいずれかに記載のキャラクタ生成プログラム。 In the processor of the character generation device,
A determination step for determining whether or not a predetermined number of characters have been generated by the character generation step, and when it is determined that the predetermined number of characters has been generated by the determination step, one of a plurality of generated characters Further executing a character selection step of selecting a character of
The character generation program according to claim 5, wherein the game processing step causes the character selected in the character selection step to appear in the game.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305133A JP4473697B2 (en) | 2004-10-20 | 2004-10-20 | Character generation device and character generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305133A JP4473697B2 (en) | 2004-10-20 | 2004-10-20 | Character generation device and character generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006119788A true JP2006119788A (en) | 2006-05-11 |
JP4473697B2 JP4473697B2 (en) | 2010-06-02 |
Family
ID=36537635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004305133A Active JP4473697B2 (en) | 2004-10-20 | 2004-10-20 | Character generation device and character generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4473697B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013153963A (en) * | 2012-01-30 | 2013-08-15 | Genius Sonority Kk | Video game processing program, video game processing method, and video game processing device |
JP2015198335A (en) * | 2014-04-01 | 2015-11-09 | ビッグローブ株式会社 | Communication terminal, stamp image creation method, and program |
JP2021517490A (en) * | 2018-03-19 | 2021-07-26 | ロブロックス・コーポレーション | Data overflow inspection and improved execution of gaming process |
-
2004
- 2004-10-20 JP JP2004305133A patent/JP4473697B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013153963A (en) * | 2012-01-30 | 2013-08-15 | Genius Sonority Kk | Video game processing program, video game processing method, and video game processing device |
JP2015198335A (en) * | 2014-04-01 | 2015-11-09 | ビッグローブ株式会社 | Communication terminal, stamp image creation method, and program |
JP2021517490A (en) * | 2018-03-19 | 2021-07-26 | ロブロックス・コーポレーション | Data overflow inspection and improved execution of gaming process |
JP7128286B2 (en) | 2018-03-19 | 2022-08-30 | ロブロックス・コーポレーション | Data flood inspection and improved execution of gaming processes |
JP7389192B2 (en) | 2018-03-19 | 2023-11-29 | ロブロックス・コーポレーション | Data overflow inspection and improved execution of gaming processes |
Also Published As
Publication number | Publication date |
---|---|
JP4473697B2 (en) | 2010-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4671196B2 (en) | NETWORK GAME SYSTEM, NETWORK GAME TERMINAL DEVICE, GAME SCREEN DISPLAY METHOD, PROGRAM, AND RECORDING MEDIUM | |
JP4447568B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
US6540611B1 (en) | Portable game machine and game-advancing method | |
US20010006391A1 (en) | Image creating device | |
US8246469B2 (en) | Storage medium storing program, apparatus, communication system and control method | |
JP2015112386A (en) | Game system, control method and computer program used for the same | |
JP2000279637A (en) | Game device, game display control method, and computer- readable record medium | |
JP2010033298A (en) | Program, information storage medium, and image generation system | |
WO2000049573A1 (en) | System for and method of implementing refraction mapping | |
JP4473697B2 (en) | Character generation device and character generation program | |
JP2020069317A (en) | Game program, recording medium, and game processing method | |
JP2992499B2 (en) | Image processing method and apparatus, recording medium | |
JP2004329681A (en) | Game system and game program | |
JP3271859B2 (en) | Electronic device with puzzle game function | |
JP2009201854A (en) | Game program, recording medium recorded with game program, and computer | |
JP4469709B2 (en) | Image processing program and image processing apparatus | |
JP4856749B2 (en) | Network game system | |
JP2009104522A (en) | Game device, program for executing the game device, and recording medium with the program recorded thereon | |
JP2002360921A (en) | Game system and program for game | |
JP4114826B2 (en) | Image generating apparatus and information storage medium | |
JP4707039B2 (en) | Network game system | |
JP4275155B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP4993422B2 (en) | Game system and game program | |
JP3183636B2 (en) | Three-dimensional game device and information storage medium | |
JP2005177173A (en) | Connectable and portable game machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100208 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100305 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4473697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |