JP2006119788A - Character generation apparatus and character generation program - Google Patents

Character generation apparatus and character generation program Download PDF

Info

Publication number
JP2006119788A
JP2006119788A JP2004305133A JP2004305133A JP2006119788A JP 2006119788 A JP2006119788 A JP 2006119788A JP 2004305133 A JP2004305133 A JP 2004305133A JP 2004305133 A JP2004305133 A JP 2004305133A JP 2006119788 A JP2006119788 A JP 2006119788A
Authority
JP
Japan
Prior art keywords
data
character
image
element part
basic part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004305133A
Other languages
Japanese (ja)
Other versions
JP4473697B2 (en
Inventor
Toru Osawa
徹 大澤
Daisuke Tsujimura
大介 辻村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2004305133A priority Critical patent/JP4473697B2/en
Publication of JP2006119788A publication Critical patent/JP2006119788A/en
Application granted granted Critical
Publication of JP4473697B2 publication Critical patent/JP4473697B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character generation apparatus and a character generation program capable of simply generating many sorts of characters and saving a memory capacity, too. <P>SOLUTION: The character generation apparatus includes a CPU which selects one of parts at random from a plurality of part data which are preliminarily stored. On a contour part image, a plurality of joining points 64-70 indicating joining positions with element part images to be combined are plotted. Alternatively, joining points 64-70 selected from a plurality of joining point set data can be plotted. On respective element part images, reference points 72-78 indicating joining positions with the corresponding joining points are plotted, respectively. The CPU retrieves positions of the plurality of joining points and respective reference points and combines the contour part image and respective element part images by matching the corresponding joining points and the reference points. Then the CPU generates a character on the basis of the combined face image and makes the character appear on a game. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、キャラクタ生成装置およびキャラクタ生成プログラムに関し、特にたとえば、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成する、キャラクタ生成装置およびキャラクタ生成プログラムに関する。   The present invention relates to a character generation device and a character generation program, and more particularly to, for example, a character generation device and a character generation program that generate a character based on a face image created by combining a plurality of part images.

従来、たとえば複数種類のキャラクタが登場するようなゲームを開発する場合には、開発者等が複数種類のキャラクタを予め全て作成している。しかしながら、多種類のキャラクタを1つ1つ準備するのは大変である。これを解決するために、パーツ画像を作成してそれらを組み合わせる方法が考えられる。   Conventionally, for example, when developing a game in which a plurality of types of characters appear, a developer or the like has created all the plurality of types of characters in advance. However, it is difficult to prepare many kinds of characters one by one. In order to solve this, a method of creating part images and combining them can be considered.

パーツ画像を組み合わせて1つの画像を作成するモンタージュ作成技術の一例がたとえば特許文献1−3に開示される。特許文献1には、「胴体」、「頭」、「右手」、「左手」、「右足」および「左足」等の各部品画像間の位置情報および角度情報を持たせることによって、部品画像相互間の平行移動および回転移動が行えるようにする技術が開示されている。また、特許文献2には、たとえば、輪郭、髪、目、鼻、口、眉等の基準パーツと、眼鏡、しわ等の付属パーツとの位置のずれ量を記憶しておき、ずれ量に応じて基準パーツと付属パーツの位置関係が調整される技術が開示されている。また、特許文献3には、画面上で髪、目、鼻、口等の各パーツの占有領域を定め、各パーツパターンが各占有領域に収まるようにサイズを決定して画面上に表示する技術が開示されている。
特開平3−256174号公報 特開平7−239943号公報 特許第3189583号公報
An example of a montage creation technique for creating one image by combining part images is disclosed in Patent Literatures 1-3, for example. In Patent Document 1, position information and angle information between component images such as “body”, “head”, “right hand”, “left hand”, “right foot”, “left foot”, and the like are provided, so A technique for enabling parallel translation and rotational movement between the two is disclosed. Patent Document 2 stores, for example, the amount of positional deviation between reference parts such as contours, hair, eyes, nose, mouth, and eyebrows and accessory parts such as glasses and wrinkles. A technique for adjusting the positional relationship between the reference part and the attached part is disclosed. Patent Document 3 discloses a technique for determining an occupied area of each part such as hair, eyes, nose, and mouth on the screen, determining the size so that each part pattern fits in each occupied area, and displaying it on the screen. Is disclosed.
JP-A-3-256174 Japanese Patent Laid-Open No. 7-239943 Japanese Patent No. 31895853

しかしながら、特許文献1では、各部品間の位置情報は固定的に決まっているため、部品画像のパターンを増やさないでバリエーションに富んだモンタージュ画像を作成することは難しいという問題がある。また、特許文献2では、基準パーツと付属パーツとのずれ量に応じて位置関係を調整することにより、違和感のない画像を作成することができるが、基準パーツの位置およびずれ量はパーツ毎に予め定められているので、特許文献1と同様の問題があった。また、特許文献3では、パーツ毎の占有領域を設定して各パーツパターンのサイズを決定するので、準備する画像パターンを少なくすることはできる。しかし、占有領域のサイズを変更し、その占有領域に収まるようにパターンのサイズを変更しなければならないので、多数のキャラクタを一度に生成するような場合には、却って処理負担が増大して簡単には生成することができないという問題がある。   However, since the position information between each component is fixedly determined in Patent Document 1, there is a problem that it is difficult to create a montage image rich in variations without increasing the pattern of component images. Further, in Patent Document 2, an image without a sense of incongruity can be created by adjusting the positional relationship according to the amount of deviation between the reference part and the attached part. However, the position and the amount of deviation of the reference part are different for each part. Since it is determined in advance, there is a problem similar to that of Patent Document 1. Further, in Patent Document 3, since the occupied area for each part is set and the size of each part pattern is determined, the number of image patterns to be prepared can be reduced. However, since the size of the occupied area must be changed and the size of the pattern must be changed to fit within the occupied area, if a large number of characters are generated at once, the processing load increases on the contrary. Has a problem that it cannot be generated.

さらに、上記先行技術は、使用者ないしオペレータ等による入力に基づいて各パーツが所望の位置に配置されたモンタージュ画像を作成しようとするものである。たとえば、特許文献2には、使用者のキー操作により基準パーツの位置を調整できるようにしてもよいことが開示されているが、その場合には使用者の負担を増やしてしまうという問題がある。また、特許文献3でも、オペレータの操作によって占有領域の位置や大きさを調整することが示唆されるが、上述の特許文献2と同様の問題がある。したがって、ゲームに登場するキャラクタを多種類作成するような場合には、ゲーム開発者等が上記先行技術を利用しても、非常に多くの入力作業が必要であり負担が増すので、多種類のキャラクタを作成するのはやはり簡単ではない。また、上記先行技術を利用するなどして、ゲームに登場する多種類のキャラクタを予め作成しておく場合には、作成した多数のキャラクタの1つ1つをデータで持たせることとなるので、キャラクタ自体のデータ量が多くなりメモリ容量が嵩んでしまうという問題もある。   Further, the above prior art attempts to create a montage image in which each part is arranged at a desired position based on an input by a user or an operator. For example, Patent Document 2 discloses that the position of the reference part may be adjusted by the user's key operation. In this case, however, there is a problem that the burden on the user is increased. . Also, Patent Document 3 suggests that the position and size of the occupied area are adjusted by the operation of the operator, but there is a problem similar to that of Patent Document 2 described above. Therefore, when creating many kinds of characters appearing in the game, even if game developers use the above-mentioned prior art, a large amount of input work is required and the burden increases. Creating a character is still not easy. In addition, when a variety of characters appearing in the game are created in advance by using the above prior art, etc., each of the created many characters is provided with data, There is also a problem that the amount of data of the character itself increases and the memory capacity increases.

それゆえに、この発明の主たる目的は、多種類のキャラクタを簡単に生成することができ、しかもメモリ容量を節約できる、キャラクタ生成装置およびキャラクタ生成プログラムを提供することである。   SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a character generation device and a character generation program that can easily generate many kinds of characters and save memory capacity.

請求項1の発明は、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置である。キャラクタ生成装置は、基本パーツデータ記憶手段、要素パーツデータ記憶手段、基本パーツ選択手段、要素パーツ選択手段、第1検索手段、第2検索手段、合成手段、キャラクタ生成手段、およびゲーム処理手段を備える。基本パーツデータ記憶手段は、顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する。要素パーツデータ記憶手段は、要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する。基本パーツ選択手段は、基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する。要素パーツ選択手段は、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。第1検索手段は、基本パーツ選択手段によって選択された基本パーツデータに含まれる複数の結合ポイントを検索する。第2検索手段は、要素パーツ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成手段は、第1検索手段によって検索された複数の結合ポイントの各々と第2検索手段によって検索された対応する各基準ポイントとを合せるように、基本パーツ選択手段によって選択された基本パーツデータに含まれる基本パーツ画像と要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成手段は、合成手段によって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理手段は、キャラクタ生成手段によって生成されたキャラクタをゲームに登場させる。   The invention of claim 1 is a character generation device that generates a character based on a face image created by combining a plurality of part images. The character generation device includes basic part data storage means, element part data storage means, basic part selection means, element part selection means, first search means, second search means, composition means, character generation means, and game processing means. . The basic part data storage means includes a plurality of basic parts each including a basic part image for constructing a face image and a plurality of connecting points indicating the connecting positions of the plurality of element part images combined with the basic part image. Stores part data. The element part data storage unit stores a plurality of element part data each including an element part image and a reference point indicating a connection position of a connection point corresponding to the element part image. The basic part selection means randomly selects any one of the plurality of basic part data stored in the basic part data storage means. The element part selection means randomly selects element part data for each element part from a plurality of element part data stored in the element part data storage means. The first search means searches for a plurality of connection points included in the basic part data selected by the basic part selection means. The second search means searches for each reference point included in each of the plurality of element part data selected by the element parts selection means. The synthesizing unit adds the basic part data selected by the basic part selecting unit to the basic part data selected by the basic part selecting unit so as to match each of the plurality of coupling points searched by the first searching unit with each corresponding reference point searched by the second searching unit. The included basic part image and each element part image included in the plurality of element part data selected by the element part selecting means are synthesized. The character generation means generates a character based on the face image synthesized by the synthesis means. The game processing means causes the character generated by the character generating means to appear in the game.

請求項1の発明では、キャラクタ生成装置(10:実施例で相当する参照符号。以下同じ。)は、複数のパーツ画像を組み合わせて顔画像を作成し、その顔画像に基づいてキャラクタを生成する。パーツ画像は基本パーツ画像と当該基本パーツ画像に合成される要素パーツ画像を含み、実施例では、基本パーツ画像は輪郭パーツ画像であり、要素パーツ画像は、髪の毛パーツ画像、目パーツ画像、鼻パーツ画像および口パーツ画像を含む。基本パーツデータ記憶手段(40、54)は、基本パーツ画像と複数の結合ポイント(64−70)とを含む複数の基本パーツデータを記憶する。複数の結合ポイントは、合成される複数の要素パーツ画像の各々の結合位置を示す。要素パーツデータ記憶手段(40、56−62)は、要素パーツ画像と基準ポイントとを含む複数の要素パーツデータを記憶する。基準ポイントは、当該要素パーツ画像に対応する結合ポイントとの結合位置を示す。基本パーツ選択手段(28、S31)は、複数の基本パーツデータの中から1つをランダムに選択する。要素パーツ選択手段(28、S33−S39)は、複数の要素パーツデータの中から要素パーツごとに1つの要素パーツデータをランダムに選択する。第1検索手段(28、S3)は、選択された基本パーツデータに含まれる複数の結合ポイントを検索する。この第1検索手段によって、基本パーツデータにおける複数の結合ポイントの位置(座標)が把握される。第2検索手段(28、S5)は、選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。この第2検索手段によって、各要素パーツデータにおける各基準ポイントの位置(座標)が把握される。合成手段(28、S7)は、複数の結合ポイントの各々と各基準ポイントとを合わせるように、選択された基本パーツ画像と選択された各要素パーツ画像とを合成する。キャラクタ生成手段(28、S9)は、合成された顔画像に基づいてキャラクタを生成する。そして、ゲーム処理手段(28、S17)は、生成されたキャラクタをゲームに登場させる。   In the first aspect of the present invention, the character generation device (10: reference numeral corresponding to the embodiment; the same applies hereinafter) creates a face image by combining a plurality of part images, and generates a character based on the face image. . The part image includes a basic part image and an element part image combined with the basic part image. In the embodiment, the basic part image is a contour part image, and the element part image includes a hair part image, an eye part image, and a nose part. Includes images and mouth part images. The basic part data storage means (40, 54) stores a plurality of basic part data including a basic part image and a plurality of connection points (64-70). The plurality of coupling points indicate the coupling positions of the plurality of element part images to be synthesized. The element part data storage means (40, 56-62) stores a plurality of element part data including an element part image and a reference point. The reference point indicates a coupling position with a coupling point corresponding to the element part image. The basic part selection means (28, S31) randomly selects one from a plurality of basic part data. The element part selection means (28, S33 to S39) randomly selects one element part data for each element part from the plurality of element part data. The first search means (28, S3) searches for a plurality of connection points included in the selected basic part data. By this first search means, the positions (coordinates) of a plurality of coupling points in the basic part data are grasped. The second search means (28, S5) searches for each reference point included in each of the selected plurality of element part data. The position (coordinates) of each reference point in each element part data is grasped by this second search means. The synthesizing means (28, S7) synthesizes the selected basic part image and each selected element part image so as to match each of the plurality of connection points with each reference point. The character generation means (28, S9) generates a character based on the synthesized face image. Then, the game processing means (28, S17) causes the generated character to appear in the game.

したがって、請求項1の発明によれば、複数のパーツデータの中からパーツごとにランダムに選択された各パーツデータを、複数の結合ポイントと対応する各基準ポイントとを合わせるようにして合成するので、簡単な処理で、バリエーションに富んだ顔画像を生成することができる。したがって、多種類のキャラクタを簡単に生成することができ、バリエーション豊かなキャラクタをゲームに登場させることができる。したがって、多数のキャラクタを予め生成して、キャラクタデータとして持たせておく必要がないので、メモリ容量を節約することができる。   Therefore, according to the invention of claim 1, each part data selected randomly for each part from a plurality of part data is synthesized so as to match a plurality of coupling points and corresponding reference points. It is possible to generate a variety of face images with simple processing. Therefore, many kinds of characters can be easily generated, and characters with rich variations can appear in the game. Therefore, it is not necessary to generate a large number of characters in advance and store them as character data, so that memory capacity can be saved.

請求項2の発明は、請求項1の発明に従属し、基本パーツデータ記憶手段に記憶される基本パーツデータは、複数の結合ポイントが対応する要素パーツごとに異なる色で識別可能に描画されている当該基本パーツ画像を示す画像データであり、第1検索手段は、複数の結合ポイントを色に基づいて検索する。   The invention of claim 2 is dependent on the invention of claim 1, and the basic part data stored in the basic part data storage means is drawn such that a plurality of connecting points can be identified in different colors for each corresponding element part. The first search means searches for a plurality of connection points based on the color.

請求項2の発明では、基本パーツデータでは、複数の結合ポイントが、対応する要素パーツごとに異なる色で識別可能に描画されている。第1検索手段は、基本パーツデータにおいて、複数の結合ポイントを色に基づいて検索する。したがって、複数の結合ポイントの各々の座標を容易に把握することができる。また、複数の結合ポイントを示す色を基本パーツ画像に描画しておくので、複数の結合ポイントのためのデータを別に用意しておく必要がなく、メモリ容量を節約できる。   In the invention of claim 2, in the basic part data, a plurality of coupling points are drawn so as to be identifiable in different colors for each corresponding element part. The first search means searches for a plurality of coupling points based on the color in the basic part data. Therefore, it is possible to easily grasp the coordinates of each of the plurality of coupling points. In addition, since colors indicating a plurality of connection points are drawn on the basic part image, it is not necessary to prepare data for the plurality of connection points separately, and the memory capacity can be saved.

請求項3の発明は、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置である。キャラクタ生成装置は、基本パーツデータ記憶手段、結合ポイントデータ記憶手段、要素パーツデータ記憶手段、基本パーツ選択手段、要素パーツ選択手段、結合ポイント選択手段、結合ポイント描画手段、第1検索手段、第2検索手段、合成手段、キャラクタ生成手段、およびゲーム処理手段を備える。基本パーツデータ記憶手段は、顔画像を構成するための複数の基本パーツ画像を記憶する。結合ポイントデータ記憶手段は、基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する。要素パーツデータ記憶手段は、要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する。基本パーツ選択手段は、基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する。要素パーツ選択手段は、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。結合ポイント選択手段は、結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する。結合ポイント描画手段は、結合ポイント選択手段によって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを基本パーツ選択手段によって選択された基本パーツ画像上に描画する。第1検索手段は、結合ポイント描画手段によって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する。第2検索手段は、要素パーツデータ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成手段は、第1検索手段によって検索された複数の結合ポイントの各々と第2検索手段によって検索された対応する各基準ポイントとを合せるように、基本パーツ選択手段によって選択された基本パーツ画像と要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成手段は、合成手段によって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理手段は、キャラクタ生成手段によって生成されたキャラクタをゲームに登場させる。   According to a third aspect of the present invention, there is provided a character generation device for generating a character based on a face image created by combining a plurality of part images. The character generation device includes basic part data storage means, connection point data storage means, element part data storage means, basic part selection means, element part selection means, connection point selection means, connection point drawing means, first search means, second search Search means, synthesis means, character generation means, and game processing means are provided. The basic part data storage means stores a plurality of basic part images for constituting a face image. The coupling point data storage means includes a plurality of coupling points indicating the coupling positions of the plurality of element part images combined with the basic part image, and coordinate data indicating the positions of the coupling points in the basic part images. A plurality of combination point set data included in each is stored. The element part data storage unit stores a plurality of element part data each including an element part image and a reference point indicating a connection position of a connection point corresponding to the element part image. The basic part selection unit randomly selects one of the plurality of basic part images stored in the basic part data storage unit. The element part selection means randomly selects element part data for each element part from a plurality of element part data stored in the element part data storage means. The coupling point selection unit randomly selects one of the plurality of coupling point set data stored in the coupling point data storage unit. The joining point drawing means draws a plurality of joining points on the basic part image selected by the basic part selecting means based on the joining point set data selected by the joining point selecting means. The first search means searches for the plurality of connection points in the basic part image in which the plurality of connection points are drawn by the connection point drawing means. The second search means searches for each reference point included in each of the plurality of element part data selected by the element part data selection means. The synthesizing means includes the basic part image selected by the basic part selecting means so as to match each of the plurality of connecting points searched by the first searching means with each corresponding reference point searched by the second searching means. Each element part image included in the plurality of element part data selected by the element part selecting means is synthesized. The character generation means generates a character based on the face image synthesized by the synthesis means. The game processing means causes the character generated by the character generating means to appear in the game.

この請求項3の発明は、複数の基本パーツ画像と複数の結合ポイントとが別に設けられる点、および選択された結合ポイントが基本パーツ画像に描画される点等で、上述した請求項1の発明と異なっている。したがって、重複する説明は省略する。請求項3の発明では、基本パーツデータ記憶手段(40、54)は、複数の基本パーツ画像を記憶する。結合ポイントデータ記憶手段(40、90)は、複数の結合ポイントと当該複数の結合ポイントの基本パーツ画像における位置を示す座標データとを含む複数の結合ポイントセットデータを記憶する。基本パーツ選択手段(28、S31)は、複数の基本パーツ画像の中から1つをランダムに選択する。結合ポイント選択手段(28、S101)は、複数の結合ポイントセットデータの中から1つをランダムに選択する。結合ポイント描画手段(28、S103)は、選択された結合ポイントセットデータに基づいて、選択された基本パーツ画像上に、複数の結合ポイントを描画する。そして、第1検索手段(28、S3)は、基本パーツ画像における複数の結合ポイントを検索する。   The invention according to claim 3 is the invention according to claim 1 described above in that a plurality of basic part images and a plurality of connection points are provided separately, and the selected connection points are drawn on the basic part image. Is different. Therefore, the overlapping description is omitted. In the invention of claim 3, the basic part data storage means (40, 54) stores a plurality of basic part images. The connection point data storage means (40, 90) stores a plurality of connection point set data including a plurality of connection points and coordinate data indicating positions of the plurality of connection points in the basic part image. The basic part selection means (28, S31) randomly selects one from a plurality of basic part images. The combination point selection means (28, S101) randomly selects one from a plurality of combination point set data. The connection point drawing means (28, S103) draws a plurality of connection points on the selected basic part image based on the selected connection point set data. Then, the first search means (28, S3) searches for a plurality of connection points in the basic part image.

したがって、請求項3の発明によれば、請求項1の発明と同様に、多種類の顔画像を簡単に生成することができるので、多種類のキャラクタを簡単に生成することができる。また、多数のキャラクタを予めデータとして持たせておく必要がないので、メモリ容量を節約することができる。さらに、1つの基本パーツ画像に対して、複数の結合ポイントセットデータに基づいて結合ポイントを描画することが可能である。したがって、同一の基本パーツ画像を複数個記憶しておかなくて済むので、予め結合ポイントの描画された複数の基本パーツ画像を準備しておく場合よりも、さらにメモリ容量を節約することが可能である。また、複数の結合ポイントセットデータを記憶するので、パーツ画像の種類を増やすことなくバリエーションに富んだ顔画像を生成できる。   Therefore, according to the invention of claim 3, as with the invention of claim 1, since many types of face images can be easily generated, various types of characters can be generated easily. In addition, since it is not necessary to have a large number of characters as data in advance, memory capacity can be saved. Furthermore, it is possible to draw a coupling point based on a plurality of coupling point set data for one basic part image. Therefore, since it is not necessary to store a plurality of the same basic part images, it is possible to further save the memory capacity compared to the case where a plurality of basic part images in which coupling points are drawn in advance are prepared. is there. In addition, since a plurality of combination point set data is stored, it is possible to generate a variety of face images without increasing the types of part images.

請求項4の発明は、請求項1ないし3のいずれかの発明に従属し、判定手段およびキャラクタ選択手段をさらに備える。判定手段は、キャラクタ生成手段によって所定数のキャラクタが生成されたか否かを判定する。キャラクタ選択手段は、判定手段によって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択する。そして、ゲーム処理手段は、キャラクタ選択手段によって選択されたキャラクタをゲームに登場させる。   The invention of claim 4 is dependent on the invention of any one of claims 1 to 3, and further includes a determination unit and a character selection unit. The determination means determines whether a predetermined number of characters have been generated by the character generation means. The character selection means selects one of the plurality of generated characters when the determination means determines that a predetermined number of characters have been generated. The game processing means causes the character selected by the character selection means to appear in the game.

請求項4の発明では、判定手段(28、S11)は所定数のキャラクタが生成されたか否かを判定し、キャラクタ選択手段(28、S13、S15)は、所定数のキャラクタが生成されたとき、いずれかのキャラクタを選択する。そして、ゲームには選択されたキャラクタが登場する。この請求項4の発明によれば、多数のキャラクタを生成して、生成された多数のキャラクタの中からゲームに登場するキャラクタを選択することができる。したがって、ゲームの興趣性や娯楽性を高めることが可能である。   In the invention of claim 4, the determining means (28, S11) determines whether or not a predetermined number of characters have been generated, and the character selecting means (28, S13, S15) is when the predetermined number of characters has been generated. Select one of the characters. Then, the selected character appears in the game. According to the invention of claim 4, a large number of characters can be generated, and a character appearing in the game can be selected from the generated large number of characters. Therefore, it is possible to enhance the fun and entertainment of the game.

請求項5の発明は、顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する基本パーツデータ記憶手段、および要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段を備え、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置のキャラクタ生成プログラムである。このキャラクタ生成プログラムは、キャラクタ生成装置のプロセサに、基本パーツ選択ステップ、要素パーツ選択ステップ、第1検索ステップ、第2検索ステップ、合成ステップ、キャラクタ生成ステップ、およびゲーム処理ステップを実行させる。基本パーツ選択ステップは、基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する。要素パーツ選択ステップは、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。第1検索ステップは、基本パーツ選択ステップによって選択された基本パーツデータに含まれる複数の結合ポイントを検索する。第2検索ステップは、要素パーツ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成ステップは、第1検索ステップによって検索された複数の結合ポイントの各々と第2検索ステップによって検索された対応する各基準ポイントとを合せるように、基本パーツ選択ステップによって選択された基本パーツデータに含まれる基本パーツ画像と要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成ステップは、合成ステップによって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理ステップは、キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させる。   The invention according to claim 5 is a plurality of basic parts each including a basic part image for constituting a face image and a plurality of connecting points indicating respective connecting positions of a plurality of element part images combined with the basic part image. Basic part data storage means for storing part data, and element part data storage for storing a plurality of element part data each including an element part image and a reference point indicating a connection position of a connection point corresponding to the element part image A character generation program of a character generation device that includes means and generates a character based on a face image created by combining a plurality of part images. The character generation program causes the processor of the character generation device to execute a basic part selection step, an element part selection step, a first search step, a second search step, a synthesis step, a character generation step, and a game processing step. In the basic part selection step, any one of a plurality of basic part data stored in the basic part data storage means is selected at random. The element part selection step randomly selects element part data for each element part from a plurality of element part data stored in the element part data storage means. In the first search step, a plurality of connection points included in the basic part data selected in the basic part selection step are searched. In the second search step, each reference point included in each of the plurality of element part data selected in the element part selection step is searched. The synthesis step adds the basic part data selected by the basic part selection step to match each of the plurality of connection points searched by the first search step with each corresponding reference point searched by the second search step. The included basic part image and each element part image included in the plurality of element part data selected in the element part selection step are synthesized. In the character generation step, a character is generated based on the face image synthesized in the synthesis step. In the game processing step, the character generated in the character generation step appears in the game.

請求項6の発明は、請求項5の発明に従属し、基本パーツデータ記憶手段に記憶される基本パーツデータは、複数の結合ポイントが要素パーツごとに異なる色で識別可能に描画されている当該基本パーツ画像を示す画像データである。第1検索ステップは、複数の結合ポイントを色に基づいて検索する。   The invention of claim 6 is dependent on the invention of claim 5, and the basic part data stored in the basic part data storage means is drawn in such a manner that a plurality of coupling points are drawn in different colors for each element part. It is image data which shows a basic part image. The first search step searches for a plurality of coupling points based on the color.

請求項7の発明は、顔画像を構成するための複数の基本パーツ画像を記憶する基本パーツデータ記憶手段、基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する結合ポイントデータ記憶手段、および要素パーツ画像と当該要素パーツ画像に対応する結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段を備え、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置のキャラクタ生成プログラムである。このキャラクタ生成プログラムは、キャラクタ生成装置のプロセサに、基本パーツ選択ステップ、要素パーツ選択ステップ、結合ポイント選択ステップ、結合ポイント描画ステップ、第1検索ステップ、第2検索ステップ、合成ステップ、キャラクタ生成ステップ、およびゲーム処理ステップを実行させる。基本パーツ選択ステップは、基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する。要素パーツ選択ステップは、要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する。結合ポイント選択ステップは、結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する。結合ポイント描画ステップは、結合ポイント選択ステップによって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを基本パーツ選択ステップによって選択された基本パーツ画像上に描画する。第1検索ステップは、結合ポイント描画ステップによって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する。第2検索ステップは、要素パーツデータ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する。合成ステップは、第1検索ステップによって検索された複数の結合ポイントの各々と第2検索ステップによって検索された対応する各基準ポイントとを合せるように、基本パーツ選択ステップによって選択された基本パーツ画像と要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する。キャラクタ生成ステップは、合成ステップによって合成された顔画像に基づいてキャラクタを生成する。ゲーム処理ステップは、キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させる。   The invention according to claim 7 is a basic part data storage means for storing a plurality of basic part images for composing a face image, and a plurality of connections indicating respective connection positions of a plurality of element part images combined with the basic part image. Combined point data storage means for storing a plurality of combined point set data each including a point and coordinate data indicating the position of each of the combined points in the basic part image, and corresponding to the element part image and the element part image Element part data storage means for storing a plurality of element part data, each of which includes a reference point indicating a connection position with a connection point to be connected, and a character based on a face image created by combining a plurality of part images It is a character generation program of the character generation apparatus to generate. This character generation program includes a basic part selection step, an element part selection step, a connection point selection step, a connection point drawing step, a first search step, a second search step, a composition step, a character generation step, And a game processing step is performed. In the basic part selection step, any one of a plurality of basic part images stored in the basic part data storage means is selected at random. The element part selection step randomly selects element part data for each element part from a plurality of element part data stored in the element part data storage means. In the coupling point selection step, any one of the plurality of coupling point set data stored in the coupling point data storage means is selected at random. The connection point drawing step draws a plurality of connection points on the basic part image selected by the basic part selection step based on the connection point set data selected by the connection point selection step. The first search step searches for the plurality of connection points in the basic part image in which the plurality of connection points are drawn by the connection point drawing step. In the second search step, each reference point included in each of the plurality of element part data selected by the element part data selection step is searched. The compositing step includes the basic part image selected by the basic part selecting step so as to match each of the plurality of connecting points searched by the first searching step with each corresponding reference point searched by the second searching step. Each element part image included in the plurality of element part data selected in the element part selection step is synthesized. In the character generation step, a character is generated based on the face image synthesized in the synthesis step. The game processing step causes the character generated by the character generation step to appear in the game.

請求項8の発明は、請求項5ないし7のいずれかの発明に従属し、キャラクタ生成装置のプロセサに、判定ステップ、およびキャラクタ選択ステップをさらに実行させる。判定ステップは、キャラクタ生成ステップによって所定数のキャラクタが生成されたか否かを判定する。キャラクタ選択ステップは、判定ステップによって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択する。そして、ゲーム処理ステップは、キャラクタ選択ステップによって選択されたキャラクタをゲームに登場させる。   The invention according to claim 8 is dependent on the invention according to any one of claims 5 to 7, and causes the processor of the character generation device to further execute a determination step and a character selection step. The determination step determines whether or not a predetermined number of characters have been generated by the character generation step. In the character selection step, when it is determined in the determination step that a predetermined number of characters have been generated, one of the generated characters is selected. The game processing step causes the character selected in the character selection step to appear in the game.

請求項5−8の発明は、上記請求項1−4の発明と同様に、簡単な処理でバリエーションに富んだ顔画像を生成できるので、多種類のキャラクタを簡単に生成することができ、しかもメモリ容量を節約することができる。   Since the invention of claim 5-8 can generate a variety of face images with simple processing, as in the invention of claims 1-4 above, it can easily generate many kinds of characters. Memory capacity can be saved.

この発明によれば、顔画像を構成するために準備された複数のパーツデータの中からパーツごとに各パーツデータをランダムに選択し、複数の結合ポイントと対応する各基準ポイントとを合わせるようにして基本パーツ画像と各要素パーツ画像とを合成するようにした。このように、簡単な処理で、バリエーションに富んだ顔画像を生成することができる。したがって、多種類のキャラクタを簡単に生成することができる。さらに、多数のキャラクタを予め生成して、キャラクタデータとして記憶手段に持たせておく必要がないので、メモリ容量を節約することができる。   According to the present invention, each part data is randomly selected for each part from a plurality of part data prepared for constructing a face image, and a plurality of connection points and corresponding reference points are matched. The basic part image and each element part image were synthesized. In this way, face images rich in variations can be generated by simple processing. Therefore, many types of characters can be easily generated. Furthermore, since it is not necessary to generate a large number of characters in advance and store them in the storage means as character data, memory capacity can be saved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この発明の一実施例であるキャラクタ生成装置10は、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するためのものである。キャラクタ生成装置10は、一例として、ゲーム装置の形態で実現される。このゲーム装置10はゲーム機12およびゲーム機12に接続されるゲームカートリッジ14を含む。ゲーム機12としては、ゲームボーイアドバンス(GAMEBOY ADVANCE :商品名)のような携帯型のゲーム機等を適用することができる。   Referring to FIG. 1, a character generating apparatus 10 according to an embodiment of the present invention is for generating a character based on a face image created by combining a plurality of part images. As an example, the character generation device 10 is realized in the form of a game device. The game apparatus 10 includes a game machine 12 and a game cartridge 14 connected to the game machine 12. As the game machine 12, a portable game machine such as GAMEBOY ADVANCE (trade name) can be applied.

なお、ゲーム機12は携帯型ゲーム機に限られず、たとえば家庭用テレビ受像機に接続して使用される据置型のビデオゲーム機またはPC等のような他の形態のゲーム機であってよい。また、ゲームプログラムおよびゲームデータを記憶したゲーム情報記憶媒体は、ゲームカートリッジ14に限られず、たとえばCD−ROM,DVD等の光学式情報記憶媒体や光磁気ディスクまたは磁気ディスク等の各種の情報記憶媒体が適用されてよい。   Note that the game machine 12 is not limited to a portable game machine, and may be a stationary video game machine used by being connected to a home television receiver, or another type of game machine such as a PC. Further, the game information storage medium storing the game program and the game data is not limited to the game cartridge 14, and various information storage media such as an optical information storage medium such as a CD-ROM and a DVD and a magneto-optical disk or a magnetic disk. May be applied.

ゲーム機12は、たとえば横長形状のハウジング16を含む。ハウジング16の一方主面(表面)の略中央には、画像表示手段の一例として液晶表示器(以下、「LCD」と略称する。)18が設けられる。このLCD18の表示画面にはゲーム画像が表示され、たとえばゲーム空間およびゲームキャラクタ等が表示される。   The game machine 12 includes, for example, a horizontally long housing 16. A liquid crystal display (hereinafter abbreviated as “LCD”) 18 is provided as an example of an image display means at approximately the center of one main surface (front surface) of the housing 16. A game image is displayed on the display screen of the LCD 18, for example, a game space and a game character.

ハウジング16の左右端部には、プレイヤが操作を行う操作手段としての種々の操作スイッチ20a−20e(符号「20」で包括的に示す。)が設けられる。操作スイッチ20は、たとえば方向スイッチ20aと、動作スイッチ20bと、スタート/セレクトボタン20cと、ハウジング16の左角に設けられたLボタン20dと、ハウジング16の右角に設けられたRボタン20eとを含む。操作スイッチ20の各スイッチまたはボタンの操作によって指示される操作内容は、ゲーム装置10で処理されるゲームプログラムの内容によって異なるものである。一例として、方向スイッチ20aは、LCD18に表示されたゲームキャラクタやカーソルの移動方向の指示等のために使用される。動作スイッチ20bは、選択項目の決定/キャンセル等のために使用される。Lボタン20dおよびRボタン20eは、動作スイッチ20bと同様の動作の指示や、動作スイッチ20bの補助的な操作によるその他の動作の指示等のために使用される。スタート/セレクトボタン20cは、ゲームプレイの開始、ゲーム操作の中断あるいはゲームモードの選択等のために使用される。   Various operation switches 20a to 20e (generically indicated by reference numeral “20”) are provided at the left and right ends of the housing 16 as operation means for the player to operate. The operation switch 20 includes, for example, a direction switch 20a, an operation switch 20b, a start / select button 20c, an L button 20d provided at the left corner of the housing 16, and an R button 20e provided at the right corner of the housing 16. Including. The operation content instructed by the operation of each switch or button of the operation switch 20 differs depending on the content of the game program processed by the game apparatus 10. As an example, the direction switch 20a is used for instructing a moving direction of a game character or a cursor displayed on the LCD 18. The operation switch 20b is used for determining / cancelling a selection item. The L button 20d and the R button 20e are used for an operation instruction similar to that of the operation switch 20b, an instruction for other operations by an auxiliary operation of the operation switch 20b, and the like. The start / select button 20c is used to start game play, interrupt game operation, or select a game mode.

また、ハウジング16の裏面上端部には、挿入口22が形成される。この挿入口22にゲームカートリッジ14が挿入される。挿入口22の奥部とゲームカートリッジ14の挿入方向先端部とには、それぞれコネクタ24およびコネクタ26(図2参照)が設けられる。ゲームカートリッジ14が挿入口22に挿入されたとき、2つのコネクタが互いに接続され、ゲームカットリッジ14にゲーム機12のCPU28(図2参照)がアクセス可能となる。   An insertion port 22 is formed at the upper end of the back surface of the housing 16. The game cartridge 14 is inserted into the insertion port 22. A connector 24 and a connector 26 (see FIG. 2) are respectively provided at the back of the insertion port 22 and the tip of the game cartridge 14 in the insertion direction. When the game cartridge 14 is inserted into the insertion slot 22, the two connectors are connected to each other, and the CPU 28 (see FIG. 2) of the game machine 12 can access the game cut ridge 14.

また、ハウジング16の表面に設けられた音抜き孔の内部にはスピーカ30(破線表示)が内蔵される。スピーカ30からはゲーム中のBGMや効果音等の音が出力される。また、ゲーム機12には、必要に応じて、ハウジング16の上側面に外部拡張コネクタ32(図2参照)が設けられる。ゲーム装置10は、このコネクタ32を介して他のゲーム装置10(または他のゲーム機12)と接続され得る。ゲーム装置10は、コネクタ32を介して他のゲーム装置10との間でデータの送受信を行うことができる。   In addition, a speaker 30 (indicated by a broken line) is built in a sound release hole provided on the surface of the housing 16. The speaker 30 outputs sounds such as BGM and sound effects during the game. Further, the game machine 12 is provided with an external expansion connector 32 (see FIG. 2) on the upper side surface of the housing 16 as necessary. The game apparatus 10 can be connected to another game apparatus 10 (or another game machine 12) via the connector 32. The game apparatus 10 can transmit / receive data to / from another game apparatus 10 via the connector 32.

なお、図1では省略されるが、ハウジング16の裏面側には電池収容ボックスが設けられ、ハウジング16の底面側には電源スイッチ、音量調節つまみおよびイヤフォンジャックなどが設けられる。   Although omitted in FIG. 1, a battery storage box is provided on the back side of the housing 16, and a power switch, a volume control knob, an earphone jack, and the like are provided on the bottom side of the housing 16.

図2にはゲーム装置10の電気的な構成の一例が示される。この図2を参照して、ゲーム機12はCPU28を含み、このCPU28は、コンピュータまたはプロセサなどとも呼ばれ、ゲーム機12の全体制御を司る。CPU28またはコンピュータには、内部バスを介してLCD18、操作部20、コネクタ24、ワークメモリ(外部W−RAM)34、送受信バッファ36、およびサウンド回路38等が接続される。   FIG. 2 shows an example of an electrical configuration of the game apparatus 10. Referring to FIG. 2, game machine 12 includes a CPU 28, which is also referred to as a computer or a processor, and controls overall control of game machine 12. The CPU 28 or the computer is connected to the LCD 18, the operation unit 20, the connector 24, the work memory (external W-RAM) 34, the transmission / reception buffer 36, the sound circuit 38, and the like via an internal bus.

LCD18にはCPU28から表示データが与えられて、その表示画面にはゲーム画像が表示される。なお、図示は省略しているが、CPU28にはVRAMおよびLCDコントローラ等が接続されている。VRAMには、CPU28の指示の下、背景画像(BG)やプレイヤキャラクタ、ノンプレイヤキャラクタ、アイテム等の画像を含むゲーム画像が描画される。ここで、プレイヤキャラクタとは、プレイヤの操作によって移動等の任意のアクションが制御される動画キャラクタをいう。一方、ノンプレイヤキャラクタとは、プレイヤの操作によらないでコンピュータ(CPU28)によって移動等の任意のアクションが制御される動画キャラクタをいう。そして、LCDコントローラは、CPU28の指示に従ってVRAMに描画されたゲーム画像データ(表示データ)を読み出し、LCD18にゲーム画像を表示する。   Display data is given to the LCD 18 from the CPU 28, and a game image is displayed on the display screen. Although not shown, the CPU 28 is connected to a VRAM, an LCD controller, and the like. Under the instruction of the CPU 28, a game image including a background image (BG), an image of a player character, a non-player character, an item, and the like is drawn on the VRAM. Here, the player character refers to a moving image character in which an arbitrary action such as movement is controlled by an operation of the player. On the other hand, the non-player character is a moving image character whose arbitrary action such as movement is controlled by the computer (CPU 28) without being operated by the player. Then, the LCD controller reads game image data (display data) drawn in the VRAM according to an instruction from the CPU 28 and displays the game image on the LCD 18.

操作部20は上述した各操作スイッチ20a−20eを含み、各操作スイッチに対する操作に応じた操作入力データをCPU28に与える。したがって、CPU36は操作部20を通して与えられたプレイヤ(ユーザ)の指示に従った処理を実行する。   The operation unit 20 includes the operation switches 20a to 20e described above, and gives operation input data to the CPU 28 according to the operation on each operation switch. Therefore, the CPU 36 executes a process in accordance with a player (user) instruction given through the operation unit 20.

外部W−RAM34は書込み読出し可能なメモリであって、CPU28の作業領域またはバッファ領域として用いられる。外部W−RAM34にはゲーム処理中に発生されたデータが一時記憶される。   The external W-RAM 34 is a readable / writable memory, and is used as a work area or a buffer area for the CPU 28. The external W-RAM 34 temporarily stores data generated during game processing.

送受信バッファ36は、他のゲーム装置10またはゲーム機12等との間で送受信されるデータ、たとえば多人数用通信ゲーム時にやり取りされるデータ等を、一時的に蓄積しておくためのものであり、外部拡張コネクタ32に接続される。他のゲーム装置10との間でデータの通信を行う場合には、このコネクタ32に図示しない通信ケーブル等を接続して、他のゲーム装置10を接続する。   The transmission / reception buffer 36 is for temporarily storing data transmitted / received to / from other game apparatuses 10 or game machines 12, etc., for example, data exchanged during a multiplayer communication game. The external expansion connector 32 is connected. When data communication is performed with another game apparatus 10, a communication cable or the like (not shown) is connected to the connector 32 to connect the other game apparatus 10.

サウンド回路38にはスピーカ30が接続されている。CPU28から与えられた音声データはサウンド回路38によってアナログ信号に変換され、そしてスピーカ30からゲーム音楽、効果音、キャラクタの音声或いは擬制音などの音が出力される。   A speaker 30 is connected to the sound circuit 38. The sound data supplied from the CPU 28 is converted into an analog signal by the sound circuit 38, and sounds such as game music, sound effects, character sound, or pseudo-sounding sound are output from the speaker 30.

ゲームカートリッジ14にはROM40およびRAM42が内蔵されており、ROM40とRAM42とは互いにバス等で接続されるとともにコネクタ26に接続される。したがって、ゲームカートリッジ14がゲーム機12に装着されて、コネクタ26とコネクタ24とが接続されると、CPU28はROM40およびRAM42と電気的に接続される。したがって、CPU40は、ROMおよびRAM42にアクセスしてデータのやり取りを行うことができる。   The game cartridge 14 includes a ROM 40 and a RAM 42, and the ROM 40 and the RAM 42 are connected to each other via a bus or the like and to the connector 26. Therefore, when the game cartridge 14 is mounted on the game machine 12 and the connector 26 and the connector 24 are connected, the CPU 28 is electrically connected to the ROM 40 and the RAM 42. Therefore, the CPU 40 can access the ROM and RAM 42 to exchange data.

ROM40には、ゲームプログラム(キャラクタ生成プログラム)およびデータが予め記憶される。CPU28は、このプログラムに従って外部W−RAM34に一時的なデータを生成しつつ処理を実行する。RAM42は、生成されたゲームデータ等を保存するための書込み読出し可能なメモリであり、たとえば不揮発性メモリであるフラッシュメモリや電池を電源とするSRAM等が用いられ得る。   The ROM 40 stores a game program (character generation program) and data in advance. The CPU 28 executes processing while generating temporary data in the external W-RAM 34 according to this program. The RAM 42 is a readable / writable memory for storing generated game data and the like. For example, a flash memory which is a nonvolatile memory, an SRAM using a battery as a power source, or the like can be used.

図3には、ROM40のメモリマップの一例が示される。ROM40のメモリマップはプログラム記憶領域50を含む。プログラム記憶領域50には、ゲーム機12をこの発明にかかるキャラクタ生成装置10として機能させるためのゲームプログラム(キャラクタ生成プログラム)が記憶されている。キャラクタ生成プログラムは、この実施例では、たとえば、複数の基本パーツデータの中からランダムにいずれか1つを選択するためのプログラム、複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択するためのプログラム、基本パーツ画像における複数の結合ポイントを検索するためのプログラム、要素パーツ画像における基準ポイントを検索するためのプログラム、基本パーツ画像と複数の要素パーツ画像とを合成するためのプログラム、合成された顔画像に基づいてキャラクタを生成するためのプログラム、所定数のキャラクタが生成されたか否かを判定するためのプログラム、生成された複数のキャラクタの中からいずれかのキャラクタを選択するためのプログラム、および選択されたキャラクタをゲームに登場させるゲーム処理プログラム等を含む。   FIG. 3 shows an example of the memory map of the ROM 40. The memory map of the ROM 40 includes a program storage area 50. The program storage area 50 stores a game program (character generation program) for causing the game machine 12 to function as the character generation device 10 according to the present invention. In this embodiment, for example, the character generation program randomly selects any one of a plurality of basic part data, and randomly selects the element part data for each element part from the plurality of element part data. A program for selecting a plurality of connection points in a basic part image, a program for searching for a reference point in an element part image, and a composition of a basic part image and a plurality of element part images A program, a program for generating a character based on the synthesized face image, a program for determining whether or not a predetermined number of characters have been generated, and selecting one of the generated characters Program to do and selected character Including a game processing program and the like to appear in the game.

また、ROM40のメモリマップはデータ記憶領域を含み、データ記憶領域にはキャラクタ生成プログラムの実行に必要な各種データが予め記憶される。図3ではデータ記憶領域のうちパーツデータ記憶領域52が示される。このパーツデータ記憶領域52には顔画像を構成するための各パーツに関するデータが記憶される。この実施例では、顔画像は、輪郭パーツ画像、髪の毛パーツ画像、目パーツ画像、鼻パーツ画像および口パーツ画像から構成される。つまり、顔画像は、輪郭パーツ画像に、髪の毛パーツ画像、目パーツ画像、鼻パーツ画像および口パーツ画像を合成することによって作成される。輪郭パーツは基本パーツであり、髪の毛パーツ、目パーツ、鼻パーツおよび口パーツは要素パーツである。ただし、顔画像のパーツ構成は適宜変更されてよい。   The memory map of the ROM 40 includes a data storage area, and various data necessary for executing the character generation program are stored in advance in the data storage area. FIG. 3 shows a part data storage area 52 in the data storage area. The part data storage area 52 stores data related to each part for constituting a face image. In this embodiment, the face image is composed of a contour part image, a hair part image, an eye part image, a nose part image, and a mouth part image. That is, the face image is created by combining the hair part image, the eye part image, the nose part image, and the mouth part image with the contour part image. Contour parts are basic parts, and hair parts, eye parts, nose parts, and mouth parts are element parts. However, the part configuration of the face image may be changed as appropriate.

輪郭パーツデータ記憶領域54には複数の輪郭パーツデータが記憶される。輪郭パーツデータは、たとえば図5に示すように、所定のサイズ(図5では便宜上6×6の升目で示される領域全体)を有する画像データであり、顔の輪郭を示す図形ないし絵を含む。顔の輪郭にはこの実施例では耳も含まれている。さらに、輪郭パーツデータは、複数の要素パーツの各々の結合位置を示す複数の結合ポイントを含む。輪郭パーツデータにおいて、複数の結合ポイントの絵は、互いに異なる色で識別可能に描画されている。したがって、この色に基づいて複数の結合ポイントを検索することによって、複数の結合ポイントの各々の座標を容易に把握することができる。また、複数の結合ポイントのためのデータを別に用意しておく必要がなく、メモリ容量を節約できる。   The contour part data storage area 54 stores a plurality of contour part data. For example, as shown in FIG. 5, the contour part data is image data having a predetermined size (the whole area shown by a 6 × 6 grid in FIG. 5 for convenience), and includes a figure or a picture showing the outline of the face. In this embodiment, the face contour includes the ear. Further, the contour part data includes a plurality of coupling points indicating the coupling positions of the plurality of element parts. In the contour part data, pictures of a plurality of coupling points are drawn so as to be identifiable with different colors. Therefore, the coordinates of each of the plurality of coupling points can be easily grasped by searching the plurality of coupling points based on this color. In addition, it is not necessary to prepare separate data for a plurality of coupling points, and the memory capacity can be saved.

具体的には、輪郭パーツデータは、図5に示すように、髪の毛パーツ画像を合成するための結合位置を示す髪の毛結合ポイント64(丸印で示される。)、目パーツ画像を合成するための結合位置を示す目結合ポイント66(四角印で示される。)、鼻パーツ画像を合成するための結合位置を示す鼻結合ポイント68(三角印で示される。)、および口パーツ画像を合成するための結合位置を示す口結合ポイント70(星印で示される。)を含む。なお、各結合ポイントは、図では便宜上所定の形状で示されるが、この実施例では正確には1ドットないし1画素の色である。各結合ポイントの色としては、実際の輪郭の絵の画像では使用されない色が使用される。一例として、髪の毛結合ポイント64はオレンジ色のポイントであり、目結合ポイント66は黄緑色のポイントであり、鼻結合ポイント68はピンク色のポイントであり、口結合ポイント70は紫色のポイントである。また、複数の結合ポイントは、互いに異なる位置に描画され、輪郭パーツデータの上端から下端の向きでいうと、髪の毛結合ポイント64、目結合ポイント66、鼻結合ポイント68および口結合ポイント70の順に配列される。さらに、複数の結合ポイントは、左端などの表示範囲外の領域に描画されている。したがって、表示範囲内の領域に描画される輪郭を示す絵の画像は表示されるが、各結合ポイントは表示されないようになっている。また、複数の輪郭パーツデータの間では、輪郭の絵および複数の結合ポイントの配置の少なくともいずれか一方が、互いに異なるように設定される。   Specifically, as shown in FIG. 5, the contour part data includes a hair coupling point 64 (indicated by a circle) indicating a coupling position for synthesizing a hair part image, and an eye part image. An eye joint point 66 (indicated by a square mark) indicating a joint position, a nose joint point 68 (indicated by a triangle mark) representing a joint position for compositing a nose part image, and a mouth part image. And a mouth coupling point 70 (indicated by an asterisk) indicating the coupling position of. Note that each coupling point is shown in a predetermined shape for convenience in the figure, but in this embodiment, it is precisely a color of 1 dot to 1 pixel. As the color of each connection point, a color that is not used in the actual contour picture is used. As an example, the hair coupling point 64 is an orange point, the eye coupling point 66 is a yellow-green point, the nose coupling point 68 is a pink point, and the mouth coupling point 70 is a purple point. Further, the plurality of coupling points are drawn at different positions, and are arranged in the order of the hair coupling point 64, the eye coupling point 66, the nose coupling point 68, and the mouth coupling point 70 in the direction from the upper end to the lower end of the contour part data. Is done. Further, the plurality of coupling points are drawn in an area outside the display range such as the left end. Therefore, a picture image showing an outline drawn in an area within the display range is displayed, but each coupling point is not displayed. Further, between the plurality of contour part data, at least one of the contour picture and the arrangement of the plurality of connection points is set to be different from each other.

髪の毛パーツデータ記憶領域56には、複数の髪の毛パーツデータが記憶される。髪の毛パーツデータは、所定のサイズ(図5では便宜上6×4の升目で示される領域全体)を有する画像データであり、髪の毛を示す図形ないし絵を含む。さらに、髪の毛パーツデータは、輪郭パーツデータの髪の毛結合ポイント64との結合位置を示す髪の毛基準ポイント72を含む。なお、髪の毛基準ポイント72もまた、図5等では便宜上所定の形状(丸印)で示されるが、この実施例では1ドットの色であり、その色には実際の髪の毛の絵の画像では使用されない色(たとえばオレンジ色)が使用される。したがって、この髪の毛パーツデータを含む要素パーツデータでも、色に基づいて基準ポイントを検索することによって、基準ポイントの座標を容易に把握することができる。また、基準ポイントのためのデータを別に用意しておく必要がなく、メモリ容量を節約できる。   The hair part data storage area 56 stores a plurality of hair part data. The hair part data is image data having a predetermined size (the entire region indicated by a 6 × 4 grid in FIG. 5 for convenience), and includes a figure or a picture showing the hair. Further, the hair part data includes a hair reference point 72 that indicates a position where the contour part data is combined with the hair connection point 64. The hair reference point 72 is also shown in a predetermined shape (circle) for convenience in FIG. 5 and the like, but in this embodiment, it is a one-dot color, and this color is used in an image of an actual hair picture. Unused colors (eg orange) are used. Therefore, even in the element part data including the hair part data, the coordinates of the reference point can be easily grasped by searching the reference point based on the color. Further, it is not necessary to prepare data for the reference point separately, so that the memory capacity can be saved.

また、髪の毛パーツデータにおいても、髪の毛基準ポイント72は、たとえば左端のような表示範囲外の領域の所定位置に描画されている。したがって、髪の毛パーツデータでも、表示範囲内に描画される髪の毛の絵は表示されるが、表示範囲外の基準ポイント72は表示されないようになっている。また、複数の髪の毛パーツデータの間では、髪の毛の絵および髪の毛基準ポイント72の位置の少なくともいずれか一方が、互いに異なるように設定される。   Also in the hair part data, the hair reference point 72 is drawn at a predetermined position in a region outside the display range, such as the left end. Therefore, even in the hair part data, the hair picture drawn in the display range is displayed, but the reference point 72 outside the display range is not displayed. In addition, at least one of the hair picture and the position of the hair reference point 72 is set to be different between the plurality of hair part data.

他の要素パーツデータも、上述の髪の毛パーツデータと同様なデータで構成される。すなわち、目パーツデータ記憶領域58には複数の目パーツデータが記憶される。目パーツデータは、所定サイズ(図5では便宜上6×2の升目)を有する画像データであり、両目(もしくは片目)を示す絵、および輪郭パーツデータの目結合ポイント66との結合位置を示す目基準ポイント74を含む。目基準ポイント74も、図5等では便宜上所定の形状(四角印)で示されるが、この実施例では1ドットの色であり、その色には実際の目の絵の画像で使用されない色(たとえば黄緑色)が使用される。また、目基準ポイント74はたとえば左端のような表示範囲外の領域の所定位置に描画される。さらに、複数の目パーツデータの間では、目の絵および目基準ポイント74の位置の少なくともいずれか一方が、互いに異なるように設定される。   Other element part data is also composed of data similar to the above-described hair part data. That is, the eye part data storage area 58 stores a plurality of eye part data. The eye part data is image data having a predetermined size (for convenience, a 6 × 2 cell in FIG. 5), a picture showing both eyes (or one eye), and an eye indicating a position where the contour part data is connected to the eye connection point 66. A reference point 74 is included. The eye reference point 74 is also shown in a predetermined shape (square mark) for convenience in FIG. 5 and the like, but in this embodiment, it is a color of one dot, and that color is a color (not used in an actual eye picture image). For example, yellow-green) is used. The eye reference point 74 is drawn at a predetermined position in an area outside the display range such as the left end. Further, at least one of the eye picture and the position of the eye reference point 74 is set to be different between the plurality of eye part data.

鼻パーツデータ記憶領域60には複数の鼻パーツデータが記憶される。鼻パーツデータは、所定サイズ(図5では便宜上6×2の升目)を有する画像データであり、鼻を示す絵、および輪郭パーツデータの鼻結合ポイント68との結合位置を示す鼻基準ポイント76を含む。鼻基準ポイント76も、図5等では便宜上所定の形状(三角印)で示されるが、この実施例では1ドットの色であり、その色には実際の鼻の絵の画像で使用されない色(たとえばピンク色)が使用される。また、鼻基準ポイント76はたとえば左端のような表示範囲外の領域の所定位置に描画される。さらに、複数の鼻パーツデータの間では、鼻の絵および鼻基準ポイント76の位置の少なくともいずれか一方が、互いに異なるように設定される。   The nose part data storage area 60 stores a plurality of nose part data. The nose part data is image data having a predetermined size (a 6 × 2 grid in FIG. 5 for convenience), and includes a nose reference point 76 indicating a picture of the nose and a joint position of the contour part data with the nose joint point 68. Including. The nose reference point 76 is also indicated by a predetermined shape (triangle mark) in FIG. 5 and the like for convenience, but in this embodiment, it is a one-dot color, and that color is a color (not used in an actual nose picture image). For example, pink) is used. The nose reference point 76 is drawn at a predetermined position in an area outside the display range such as the left end. Further, at least one of the nose picture and the position of the nose reference point 76 is set to be different between the plurality of nose part data.

口パーツデータ記憶領域62には複数の口パーツデータが記憶される。口パーツデータは、所定サイズ(図5では便宜上6×2の升目)を有する画像データであり、口を示す絵、および輪郭パーツデータの口結合ポイント70との結合位置を示す口基準ポイント78を含む。口基準ポイント78も、図5等では便宜上所定の形状(星印)で示されるが、この実施例では1ドットの色であり、その色には実際の口の絵の画像で使用されない色(たとえば紫色)が使用される。また、口基準ポイント78はたとえば左端のような表示範囲外の領域の所定位置に描画される。さらに、複数の口パーツデータの間では、口の絵および口基準ポイント78の位置の少なくともいずれか一方が、互いに異なるように設定される。   The mouth part data storage area 62 stores a plurality of mouth part data. The mouth part data is image data having a predetermined size (in FIG. 5, for convenience, a 6 × 2 cell), and includes a mouth reference point 78 indicating a position where the mouth is connected to the picture and the mouth connection point 70 of the contour part data. Including. The mouth reference point 78 is also shown in a predetermined shape (star) for convenience in FIG. 5 and the like, but in this embodiment, it is a color of one dot, and that color is a color (not used in an actual mouth picture image). Purple, for example) is used. The mouth reference point 78 is drawn at a predetermined position in an area outside the display range such as the left end. Furthermore, between the plurality of mouth part data, at least one of the mouth picture and the position of the mouth reference point 78 is set to be different from each other.

上述のような各パーツ画像は開発者等によってたとえばCGソフトウェアを利用して予め作成されるものである。したがって、開発者等は、顔画像の各パーツの絵を描画する際に、複数の結合ポイントまたは各基準ポイントも一緒に描画するだけで、簡単にパーツデータを作成することができる。さらに、パーツの絵が同一であっても複数の結合ポイント(または各基準ポイント)の位置が異なっていれば、異なる顔画像を作成できることとなるので、開発者等は、1つの絵を使用して、複数の結合ポイント(または各基準ポイント)の位置を変更するだけで、簡単に多数のパーツデータを作成することができる。また、複数の結合ポイント(または各基準ポイント)の位置が同一でかつ絵が異なる場合にも、同様であり、簡単に多数のパーツデータを準備することができる。   Each part image as described above is created in advance by a developer or the like using, for example, CG software. Therefore, when a developer or the like draws a picture of each part of the face image, the developer can easily create part data by simply drawing a plurality of connection points or reference points together. Furthermore, even if the parts picture is the same, different face images can be created if the positions of multiple connecting points (or reference points) are different, so developers etc. use one picture. Thus, a large number of parts data can be easily created simply by changing the positions of a plurality of coupling points (or reference points). The same applies to the case where the positions of a plurality of connection points (or reference points) are the same and the pictures are different, and a large number of parts data can be prepared easily.

なお、図3では省略してあるが、ROM40のデータ記憶領域には、たとえば、キャラクタが身体を有する場合に身体を形成するための身体データ、サウンドデータ、およびキャラクタ選択画面データ等のような、その他必要なデータも予め記憶されている。   Although omitted in FIG. 3, the data storage area of the ROM 40 includes, for example, body data for forming a body when the character has a body, sound data, character selection screen data, and the like. Other necessary data is also stored in advance.

図4には、ワークメモリ(外部W−RAM)34のメモリマップの一例が示される。この図4を参照して、ワークメモリ34には、選択パーツ記憶領域80、結合ポイント位置データ記憶領域82、基準ポイント位置データ記憶領域84および生成キャラクタデータ記憶領域86等が設けられる。なお、図4で省略されるワークメモリ34のその他の領域は、その他のデータの記憶や、必要な計算、一時的な値の格納などのために使用される。   FIG. 4 shows an example of a memory map of the work memory (external W-RAM) 34. Referring to FIG. 4, the work memory 34 includes a selected part storage area 80, a combined point position data storage area 82, a reference point position data storage area 84, a generated character data storage area 86, and the like. The other area of the work memory 34 omitted in FIG. 4 is used for storing other data, necessary calculations, temporary value storage, and the like.

選択パーツ記憶領域80は、パーツごとにその複数のパーツデータの中からランダムに選択されたパーツデータを指定するデータ(識別情報)を記憶するための領域である。すなわち、輪郭パーツ指定データ、髪の毛パーツ指定データ、目パーツ指定データ、鼻パーツ指定データ、および口パーツ指定データが記憶される。   The selected part storage area 80 is an area for storing data (identification information) for designating part data randomly selected from a plurality of part data for each part. That is, contour part designation data, hair part designation data, eye part designation data, nose part designation data, and mouth part designation data are stored.

結合ポイント位置データ記憶領域82は、選択された輪郭パーツデータにおける複数の結合ポイントの各々の位置データを記憶するための領域である。すなわち、髪の毛結合ポイント64の座標、目結合ポイント66の座標、鼻結合ポイント68の座標、および口結合ポイントの座標が記憶される。各結合ポイントの座標は、輪郭パーツデータにおいて、各結合ポイントの絵(色)を検索することによって、検出される。   The connection point position data storage area 82 is an area for storing position data of each of a plurality of connection points in the selected contour part data. That is, the coordinates of the hair coupling point 64, the coordinates of the eye coupling point 66, the coordinates of the nose coupling point 68, and the coordinates of the mouth coupling point are stored. The coordinates of each coupling point are detected by searching for the picture (color) of each coupling point in the contour part data.

基準ポイント位置データ記憶領域84は、選択された各要素パーツデータにおける各基準ポイントの位置データを記憶するための領域である。すなわち、髪の毛パーツデータの髪の毛基準ポイントの座標、目パーツデータの目基準ポイントの座標、鼻パーツデータの鼻基準ポイントの座標、および口パーツデータの口基準ポイントの座標が記憶される。各基準ポイントの座標は、各要素パーツデータにおける各基準ポイントの絵(色)を検索することによって検出される。   The reference point position data storage area 84 is an area for storing position data of each reference point in each selected element part data. That is, the coordinates of the hair reference point of the hair part data, the coordinates of the eye reference point of the eye part data, the coordinates of the nose reference point of the nose part data, and the coordinates of the mouth reference point of the mouth part data are stored. The coordinates of each reference point are detected by searching for a picture (color) of each reference point in each element part data.

生成キャラクタデータ記憶領域86は、生成したキャラクタに関するデータを記憶するための領域であり、この記憶領域86には複数の生成キャラクタデータが記憶される。各生成キャラクタデータは、たとえば選択パーツデータおよび顔画像データを含む。選択パーツデータは、パーツごとに選択されたパーツデータの指定データを示す。顔画像データは、選択された複数のパーツデータを合成することによって生成された顔画像の画像データである。また、図示されないが、キャラクタが身体を有するものである場合には身体データを指定するデータ等も記憶される。   The generated character data storage area 86 is an area for storing data relating to the generated character, and a plurality of generated character data is stored in the storage area 86. Each generated character data includes, for example, selected part data and face image data. The selected part data indicates designated data of part data selected for each part. The face image data is image data of a face image generated by combining a plurality of selected part data. Although not shown in the figure, when the character has a body, data specifying body data is also stored.

図5には、顔画像の合成の概要の一例が示される。この図5では、輪郭パーツ1、髪の毛パーツ1、目パーツ1、鼻パーツ1および口パーツ1が、顔画像の合成に使用する各パーツ画像として選択されている。輪郭パーツ1は、髪の毛結合ポイント64の位置と髪の毛基準ポイント72の位置とが一致するようにして、髪の毛パーツ1と合成される。また、輪郭パーツ1は、目結合ポイント66の位置と目基準ポイント74の位置とが一致するようにして、目パーツ1と合成される。また、輪郭パーツ1は、鼻結合ポイント68の位置と鼻基準ポイント76の位置とが一致するようにして、鼻パーツ1と合成される。さらに、輪郭パーツ1は、口結合ポイント70の位置と口基準ポイント78の位置とが一致するようにして、口パーツ1と合成される。このように、輪郭パーツ画像に設定された結合ポイントと各要素パーツ画像に設定された各基準ポイントとの位置合わせによって、簡単に顔画像を合成することができる。なお、各パーツ画像は、合成の際には、拡大または縮小あるいは回転されたりすることなく、そのまま合成される。   FIG. 5 shows an example of an outline of face image synthesis. In FIG. 5, the contour part 1, the hair part 1, the eye part 1, the nose part 1 and the mouth part 1 are selected as the respective part images used for the synthesis of the face image. The contour part 1 is synthesized with the hair part 1 so that the position of the hair coupling point 64 and the position of the hair reference point 72 coincide. Further, the contour part 1 is synthesized with the eye part 1 so that the position of the eye coupling point 66 and the position of the eye reference point 74 coincide. The contour part 1 is combined with the nose part 1 so that the position of the nose coupling point 68 and the position of the nose reference point 76 coincide. Further, the contour part 1 is synthesized with the mouth part 1 such that the position of the mouth coupling point 70 and the position of the mouth reference point 78 coincide. In this way, a face image can be easily synthesized by aligning the combination point set in the contour part image and each reference point set in each element part image. Each part image is synthesized as it is without being enlarged, reduced, or rotated during synthesis.

なお、図5等では、合成顔画像において複数の結合ポイントおよび各基準ポイントの図示を省略している。結合ポイントおよび基準ポイントの位置は、上述のように、表示範囲外であるので、この合成顔画像を用いてキャラクタを生成したとき、結合ポイントおよび基準ポイントがゲーム画像としてLCD18に表示されることはない。   In FIG. 5 and the like, a plurality of combined points and reference points are not shown in the synthesized face image. As described above, since the positions of the combined point and the reference point are outside the display range, when the character is generated using this composite face image, the combined point and the reference point are displayed on the LCD 18 as a game image. Absent.

このようにして合成された顔画像に基づいてキャラクタが生成されることとなる。キャラクタが身体を有する場合には、さらに顔画像と身体とが組み合わされる。ROM40に複数の身体データを記憶しておく場合には、たとえばランダムにいずれか1つの身体データが選択される。また、キャラクタがポリゴンで形成される3次元のキャラクタである場合には、合成した顔画像を顔のポリゴンのテクスチャとして使用する。一方、キャラクタが2次元の顔のみによって形成される場合には、合成された顔画像が生成されたキャラクタとしてそのまま使用される。   A character is generated based on the face image synthesized in this way. When the character has a body, the face image and the body are further combined. When a plurality of body data is stored in the ROM 40, for example, any one body data is selected at random. When the character is a three-dimensional character formed of polygons, the synthesized face image is used as the texture of the face polygon. On the other hand, when the character is formed by only a two-dimensional face, the synthesized face image is used as it is as a generated character.

図6には、輪郭パーツ2が選択された場合の顔画像の合成の概要の一例が示される。図6の輪郭パーツ2は、図5の輪郭パーツ1とは、輪郭の絵および複数の結合ポイントの配置の両方が異なるように設定されている。詳しくは、輪郭パーツ2では、輪郭パーツ1と比べて、面長の輪郭が描画されるとともに、髪の毛結合ポイント64、目結合ポイント66および鼻結合ポイント68がより高い(上端側の)位置に描画されている。この輪郭パーツ2と図5に示した各要素パーツ1とが合成されると、図6に示すような顔画像が生成される。このように、輪郭の絵および複数の結合ポイントの配置の両方が異なる輪郭パーツデータを用いることによって、図5および図6から分かるように、使用される各要素パーツが同じものであっても、印象の全く異なる顔画像を生成することができる。   FIG. 6 shows an example of an outline of synthesis of a face image when the contour part 2 is selected. The contour part 2 in FIG. 6 is set to be different from the contour part 1 in FIG. 5 in both the contour picture and the arrangement of a plurality of coupling points. Specifically, in the contour part 2, a surface length contour is drawn as compared to the contour part 1, and the hair coupling point 64, the eye coupling point 66, and the nose coupling point 68 are rendered at higher positions (on the upper end side). Has been. When the contour part 2 and each element part 1 shown in FIG. 5 are combined, a face image as shown in FIG. 6 is generated. In this way, by using contour part data in which both the contour picture and the arrangement of the plurality of coupling points are different, as can be seen from FIGS. 5 and 6, even if each element part used is the same, A face image with a completely different impression can be generated.

また、図7には、輪郭パーツ3が選択された場合の顔画像の合成の概要の一例が示される。図7の輪郭パーツ3は、図6の輪郭パーツ2とは、輪郭の絵は同一であるが、複数の結合ポイントの配置が異なる。具体的には、輪郭パーツ2と比べて、輪郭パーツ3の目結合ポイント66の位置は低く、鼻結合ポイント68の位置および口結合ポイント70の位置は高くされている。この輪郭パーツ3と図5に示した各要素パーツ1とが合成されると、図7に示すような顔画像が生成される。図6および図7から分かるように、複数の結合ポイントの配置が異なる輪郭パーツデータを用いることによって、使用される各要素パーツが同じものであっても、印象の異なる顔画像を生成することができる。   FIG. 7 shows an example of the outline of the synthesis of the face image when the contour part 3 is selected. The contour part 3 in FIG. 7 is different from the contour part 2 in FIG. 6 in the outline picture, but the arrangement of a plurality of coupling points is different. Specifically, as compared with the contour part 2, the position of the eye coupling point 66 of the contour part 3 is low, and the position of the nose coupling point 68 and the position of the mouth coupling point 70 are high. When the contour part 3 and each element part 1 shown in FIG. 5 are combined, a face image as shown in FIG. 7 is generated. As can be seen from FIGS. 6 and 7, by using contour part data in which the arrangement of a plurality of coupling points is different, it is possible to generate a face image with a different impression even if each element part used is the same. it can.

なお、図6および図7の例では、各要素パーツとして、図5の例と同じ要素パーツ1が使用される場合が示される。そして、上述のように、使用される全ての要素パーツが同じであっても輪郭パーツが異なれば、印象の異なった顔画像を作成することができる。したがって、複数の要素パーツのうちいずれか1つでも絵の異なる別の要素パーツが使用される場合には、完全に異なった顔画像を生成することができる。   6 and 7 show a case where the same element part 1 as in the example of FIG. 5 is used as each element part. As described above, even if all the element parts used are the same, if the contour parts are different, face images with different impressions can be created. Therefore, when any one of a plurality of element parts is used with another element part having a different picture, a completely different face image can be generated.

また、図8には、各要素パーツ2が選択された場合の顔画像の合成の概要の一例が示される。各要素パーツ2では、図5の各要素パーツ1と同じ絵が使用されるが、各基準ポイントの位置が異なる。詳しくは、髪の毛パーツ2の髪の毛基準ポイント72は髪の毛パーツ1のそれよりも低い位置に設定され、目パーツ2の目基準ポイント74は目パーツ1のそれよりも低い位置に設定され、鼻パーツ2の鼻基準ポイント76は鼻パーツ1のそれよりも高い位置に設定され、そして、口パーツ2の口基準ポイント78は口パーツ1のそれよりも高い位置に設定される。また、この図8では、図5と同じ輪郭パーツ1が選択されている。この場合には、図8および図5から分かるように、要素パーツの絵が同じであっても、基準ポイントの位置が異なるパーツデータが使用されることによって、印象の異なる顔画像を生成することができる。   FIG. 8 shows an example of the outline of the synthesis of the face image when each element part 2 is selected. In each element part 2, the same picture as each element part 1 in FIG. 5 is used, but the position of each reference point is different. Specifically, the hair reference point 72 of the hair part 2 is set to a position lower than that of the hair part 1, the eye reference point 74 of the eye part 2 is set to a position lower than that of the eye part 1, and the nose part 2 The nose reference point 76 is set at a position higher than that of the nose part 1, and the mouth reference point 78 of the mouth part 2 is set at a position higher than that of the mouth part 1. In FIG. 8, the same contour part 1 as in FIG. 5 is selected. In this case, as can be seen from FIG. 8 and FIG. 5, even if the picture of the element part is the same, a part image having a different impression is generated by using part data having different reference point positions. Can do.

図9にはこのゲーム装置10のゲーム動作の一例が示される。ゲーム処理を開始すると、CPU28は、ステップS1で、パーツ選択処理を実行する。このパーツ選択処理の動作の一例が次の図10に詳細に示される。   FIG. 9 shows an example of the game operation of the game apparatus 10. When the game process is started, the CPU 28 executes a part selection process in step S1. An example of the operation of this part selection process is shown in detail in FIG.

図10のステップS31で、CPU28は、まず、ROM40のパーツデータ記憶領域54に記憶された複数の輪郭パーツデータの中からランダムに1つを選択する。そして、CPU28は、選択した輪郭パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。   In step S31 of FIG. 10, the CPU 28 first randomly selects one from a plurality of contour part data stored in the part data storage area 54 of the ROM 40. Then, the CPU 28 stores the designated data of the selected contour part data in the selected part storage area 80 of the work memory 34.

続いて、CPU28は、要素パーツデータの選択を行う。つまり、CPU28は、ステップS33で髪の毛パーツデータ記憶領域56に記憶された複数の髪の毛パーツデータの中からランダムに1つを選択し、選択した髪の毛パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。ステップS35では、CPU28は、目パーツデータ記憶領域58に記憶された複数の目パーツデータの中からランダムに1つを選択し、選択した目パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。ステップS37では、CPU28は、鼻パーツデータ記憶領域60に記憶された複数の鼻パーツデータの中からランダムに1つを選択し、選択した鼻パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。そして、ステップS39では、CPU28は、口パーツデータ記憶領域62に記憶された複数の口パーツデータの中からランダムに1つを選択し、選択した口パーツデータの指定データをワークメモリ34の選択パーツ記憶領域80に記憶する。ステップS39を終了すると、処理は図9のステップS3へ戻る。   Subsequently, the CPU 28 selects element part data. That is, the CPU 28 randomly selects one of the plurality of hair part data stored in the hair part data storage area 56 in step S33 and stores the specified data of the selected hair part data in the selected part of the work memory 34. Store in area 80. In step S <b> 35, the CPU 28 randomly selects one of the plurality of eye part data stored in the eye part data storage area 58, and designates selected data of the selected eye part data in the selected part storage area of the work memory 34. Store in 80. In step S <b> 37, the CPU 28 randomly selects one from the plurality of nose part data stored in the nose part data storage area 60, and designates the selected data of the selected nose part data in the selected part storage area of the work memory 34. Store in 80. In step S39, the CPU 28 randomly selects one of the plurality of mouth part data stored in the mouth part data storage area 62, and designates the selected data of the mouth part data as the selected part of the work memory 34. Store in the storage area 80. When step S39 ends, the process returns to step S3 in FIG.

図9のステップS3では、CPU28は、結合ポイント検索処理を実行する。この結合ポイント検索処理の動作の一例が、図11に詳細に示される。   In step S3 of FIG. 9, the CPU 28 executes a join point search process. An example of the operation of this join point search process is shown in detail in FIG.

図11の最初のステップS51で、CPU28は、結合ポイントサーチ処理を実行する。この処理は、選択された輪郭パーツデータに含まれる複数の結合ポイントを探索するための処理である。この処理では、輪郭パーツデータ(画像データ)の画素の色データがサーチされる。結合ポイントは、上述のように、表示範囲外の領域(たとえば画像データの左端)に設けられるので、その領域の画素ないしドットが逐一調査される。   In the first step S51 of FIG. 11, the CPU 28 executes a join point search process. This process is a process for searching for a plurality of connection points included in the selected contour part data. In this process, pixel color data of contour part data (image data) is searched. As described above, since the coupling point is provided in an area outside the display range (for example, the left end of the image data), pixels or dots in the area are examined one by one.

ステップS53で、CPU28は、調査した画素の色データに基づいて、その画素がオレンジ色のポイントであるか否かを判断する。ステップS53で“YES”であれば、つまり、その画素に髪の毛結合ポイント64が描画されている場合には、CPU28は、ステップS55で、サーチしたポイントの座標を、髪の毛結合ポイント64の位置データとしてワークメモリ34の結合ポイント位置データ記憶領域82に記憶する。ステップS55を終了すると、処理はステップS69へ進む。   In step S53, the CPU 28 determines whether or not the pixel is an orange point based on the color data of the investigated pixel. If “YES” in the step S53, that is, if the hair coupling point 64 is drawn on the pixel, the CPU 28 uses the coordinates of the searched point as position data of the hair coupling point 64 in a step S55. The data is stored in the connection point position data storage area 82 of the work memory 34. When step S55 ends, the process proceeds to step S69.

ステップS53で“NO”であれば、CPU28は、ステップS57で、調査した画素が黄緑色のポイントであるか否かを判断する。ステップS57で“YES”であれば、つまり、その画素に目結合ポイント66が描画されている場合には、CPU28は、ステップS59で、サーチしたポイントの座標を、目結合ポイント66の位置データとしてワークメモリ34の結合ポイントデータ記憶領域82に記憶する。ステップS59を終了すると、処理はステップS69へ進む。   If “NO” in the step S53, the CPU 28 determines whether or not the investigated pixel is a yellow-green point in a step S57. If “YES” in the step S57, that is, if the eye coupling point 66 is drawn on the pixel, the CPU 28 uses the coordinates of the searched point as position data of the eye coupling point 66 in the step S59. The data is stored in the connection point data storage area 82 of the work memory 34. When step S59 ends, the process proceeds to step S69.

また、ステップS57で“NO”であれば、CPU28は、ステップS61で、調査した画素がピンク色のポイントであるか否かを判断する。ステップS61で“YES”であれば、つまり、その画素に鼻結合ポイント68が描画されている場合には、CPU28は、ステップS63で、サーチしたポイントの座標を、鼻結合ポイント68の位置データとしてワークメモリ34の結合ポイント位置データ記憶領域82に記憶する。ステップS63を終了すると、処理はステップS69へ進む。   If “NO” in the step S57, the CPU 28 determines whether or not the investigated pixel is a pink point in a step S61. If “YES” in the step S61, that is, if the nose coupling point 68 is drawn on the pixel, the CPU 28 uses the coordinates of the searched point as position data of the nose coupling point 68 in the step S63. The data is stored in the connection point position data storage area 82 of the work memory 34. When step S63 ends, the process proceeds to step S69.

一方、ステップS61で“NO”であれば、CPU28は、ステップS65で、調査した画素が紫色のポイントであるか否かを判断する。ステップS65で“YES”であれば、つまり、その画素に口結合ポイント70が描画されている場合には、CPU28は、ステップS67で、サーチしたポイントの座標を、口結合ポイント70の位置データとしてワークメモリ34の結合ポイント位置データ記憶領域82に記憶する。ステップS67を終了すると、またはステップS65で“NO”であれば、処理はステップS69へ進む。   On the other hand, if “NO” in the step S61, the CPU 28 determines whether or not the investigated pixel is a purple point in a step S65. If “YES” in the step S65, that is, if the mouth coupling point 70 is drawn on the pixel, the CPU 28 uses the coordinates of the searched point as position data of the mouth coupling point 70 in a step S67. The data is stored in the connection point position data storage area 82 of the work memory 34. When step S67 ends or if “NO” in the step S65, the process proceeds to a step S69.

ステップS69では、CPU28は全ての座標をサーチしたか否かを判断する。たとえば、結合ポイントの描画される領域が決められている場合には、その領域内のすべての座標がサーチされたか否かが判断される。ただし、輪郭パーツデータの全領域の座標がサーチされたか否かが判断されてもよい。ステップS69で“NO”であれば、処理はステップS51へ戻って結合ポイントの検索を続ける。ステップS69で“YES”であれば、処理は図9のステップS5へ戻る。   In step S69, the CPU 28 determines whether or not all coordinates have been searched. For example, when the area where the coupling point is drawn is determined, it is determined whether or not all the coordinates in the area have been searched. However, it may be determined whether or not the coordinates of the entire area of the contour part data have been searched. If “NO” in the step S69, the process returns to the step S51 to continue the search for the coupling point. If “YES” in the step S69, the process returns to the step S5 in FIG.

図9のステップS5では、CPU28は、基準ポイント検索処理を実行する。この処理は、選択された各要素パーツデータに含まれる各基準ポイントを探索するための処理である。上述の結合ポイント検索処理と同様の処理が実行されて、各基準ポイントの位置データが取得される。具体的には、CPU28は、髪の毛パーツデータ(画像データ)において、たとえば基準ポイントの描画される領域の全ての画素の色データをサーチする。そして、調査した画素がオレンジ色のポイントであった場合には、CPU28は、そのサーチしたポイントの座標を、髪の毛基準ポイント72の位置データとして、ワークメモリ34の基準ポイント位置データ記憶領域84に記憶する。同様にして、目パーツデータにおいて、全ての画素の色データがサーチされ、その画素が黄緑色のポイントであった場合には、そのポイントの座標が、目基準ポイント74の位置データとして基準ポイント位置データ記憶領域84に記憶される。また、鼻パーツデータにおいて全ての画素の色データがサーチされ、その画素がピンク色のポイントであった場合には、そのポイントの座標が、鼻基準ポイント76の位置データとして基準ポイント位置データ記憶領域84に記憶される。さらに、口パーツデータにおいて全ての画素の色データがサーチされ、その画素が紫色のポイントであった場合には、そのポイントの座標が、口基準ポイント78の位置データとして基準ポイント位置データ記憶領域84に記憶される。   In step S5 of FIG. 9, the CPU 28 executes a reference point search process. This process is a process for searching for each reference point included in each selected element part data. A process similar to the above-described combined point search process is executed, and the position data of each reference point is acquired. Specifically, the CPU 28 searches the color data of all the pixels in the region where the reference point is drawn, for example, in the hair part data (image data). If the investigated pixel is an orange point, the CPU 28 stores the coordinates of the searched point in the reference point position data storage area 84 of the work memory 34 as the position data of the hair reference point 72. To do. Similarly, in the eye part data, the color data of all the pixels are searched, and when the pixel is a yellow-green point, the coordinates of the point are the reference point position as the position data of the eye reference point 74. It is stored in the data storage area 84. In addition, when the color data of all the pixels is searched in the nose part data and the pixel is a pink point, the coordinates of the point are stored as the reference point position data storage area as the position data of the nose reference point 76. 84. Further, the color data of all the pixels is searched in the mouth part data, and when the pixel is a purple point, the coordinates of that point are used as the position data of the mouth reference point 78 as the reference point position data storage area 84. Is remembered.

続いて、ステップS7で、CPU28は、輪郭パーツの各結合ポイントと対応する各要素パーツの基準ポイントとを合わせるように、輪郭パーツと各要素パーツとを合成する処理を実行する。具体的には、結合ポイント位置データ記憶領域82に記憶されている各結合ポイントの位置データと、基準ポイント位置データ記憶領域84に記憶されている各基準ポイントの位置データとに基づいて、各結合ポイントと対応する各基準ポイントとが一致するように各パーツ画像の相対位置を調整して、合成をする。これによって、合成された顔画像の画像データがワークメモリ34または図示しないVRAMに生成される。   Subsequently, in step S7, the CPU 28 executes processing for synthesizing the contour part and each element part so as to match each connection point of the contour part with the reference point of each corresponding element part. Specifically, based on the position data of each connection point stored in the connection point position data storage area 82 and the position data of each reference point stored in the reference point position data storage area 84, each connection The relative position of each part image is adjusted so that the point and each corresponding reference point coincide with each other, and synthesis is performed. As a result, the image data of the synthesized face image is generated in the work memory 34 or a VRAM (not shown).

そして、ステップS9で、CPU28はキャラクタ生成処理を実行する。この処理では、CPU28は、ステップS7で生成した顔画像に基づいてキャラクタを生成し、その生成キャラクタデータを、たとえばその生成キャラクタの識別情報に関連付けて、ワークメモリ34の生成キャラクタデータ記憶領域86に記憶する。生成キャラクタデータは、そのキャラクタを生成する際に、選択パーツデータ記憶領域80に記憶された選択パーツデータ、およびステップS7で生成された合成顔画像データを含む。なお、キャラクタが身体を有して構成される場合には、このステップS9の処理で、身体データの選択が行われ、選択された身体と生成した顔画像とに基づいてキャラクタが生成される。   In step S9, the CPU 28 executes character generation processing. In this process, the CPU 28 generates a character based on the face image generated in step S7, and associates the generated character data with the generated character data storage area 86 of the work memory 34, for example, in association with the identification information of the generated character. Remember. The generated character data includes the selected part data stored in the selected part data storage area 80 and the synthesized face image data generated in step S7 when the character is generated. If the character has a body, body data is selected in the process of step S9, and the character is generated based on the selected body and the generated face image.

続いて、ステップS11で、CPU28は、所定数(たとえば84体)のキャラクタを生成したか否かを判断し、“NO”であれば、処理はステップS1へ戻って、更なるキャラクタの生成を続ける。このようにして、プレイヤないしユーザの操作による調整や選択等を受けることなく、多種類の顔画像を生成することができる。   Subsequently, in step S11, the CPU 28 determines whether or not a predetermined number (for example, 84 bodies) of characters have been generated. If “NO”, the process returns to step S1 to generate additional characters. to continue. In this way, various types of face images can be generated without receiving adjustments or selections by the operation of the player or user.

そして、ステップS11で“YES”であれば、つまり、所定数のキャラクタが生成された場合には、ステップS13で、CPU28は、生成キャラクタデータ記憶領域86に記憶した生成キャラクタデータ、およびROM40に記憶される選択画面データ等に基づいて、生成した84体のキャラクタを選択画面に表示する。つまり、CPU28は、生成された多数のキャラクタを含む選択画面のゲーム画像をたとえばVRAMに生成し、そのゲーム画像をLCDコントローラを用いてLCD18に表示する。たとえば、選択画面では、生成した複数のキャラクタが所定位置に固定的に、あるいは画面内を移動しながら表示される。この選択画面で、プレイヤないしユーザは、操作スイッチ20を適宜操作して、たとえばカーソルをキャラクタの表示位置に合わせること等によって、複数のキャラクタの中からいずれか1つ(または複数)のキャラクタを選択することができる。なお、ここでプレイヤによって選択されるキャラクタは、プレイヤキャラクタであってもよいし、ノンプレイヤキャラクタであってもよい。プレイヤないしユーザは、ゲームに登場させたいキャラクタを多数のキャラクタの中から選択することができる。したがって、プレイヤにバリエーションに富んだキャラクタの中から希望のキャラクタを選択させることができるので、興趣性や娯楽性を高めたゲームを実現することが可能である。   If “YES” in the step S11, that is, if a predetermined number of characters are generated, the CPU 28 stores the generated character data stored in the generated character data storage area 86 and the ROM 40 in a step S13. The generated 84 characters are displayed on the selection screen based on the selected screen data. That is, the CPU 28 generates a game image of a selection screen including a large number of generated characters, for example, in a VRAM, and displays the game image on the LCD 18 using the LCD controller. For example, on the selection screen, the plurality of generated characters are displayed fixedly at predetermined positions or while moving within the screen. On this selection screen, the player or the user selects one (or a plurality) of characters from among a plurality of characters by appropriately operating the operation switch 20 to move the cursor to the character display position, for example. can do. Here, the character selected by the player may be a player character or a non-player character. A player or a user can select a character that he / she wants to appear in the game from a large number of characters. Therefore, it is possible to cause the player to select a desired character from among a wide variety of characters, so that it is possible to realize a game with enhanced entertainment and entertainment.

なお、ここではプレイヤの操作に基づいてキャラクタが選択されることを説明したが、プレイヤの操作によらず、ランダムにキャラクタを選択するようにしてもよい。   Although the description has been given here of the case where the character is selected based on the operation of the player, the character may be selected at random regardless of the operation of the player.

ステップS15では、CPU28は、操作部20から入力される操作データおよび選択画面における各キャラクタの位置データ等に基づいて、何れかのキャラクタが選択されたか否かを判断する。ステップS15で“NO”であれば、ステップS13に戻って、キャラクタを含む選択画面の表示処理を繰り返す。   In step S <b> 15, the CPU 28 determines whether any character has been selected based on the operation data input from the operation unit 20 and the position data of each character on the selection screen. If “NO” in the step S15, the process returns to the step S13 to repeat the display process of the selection screen including the character.

ステップS15で“YES”であれば、つまり、必要な数のキャラクタが選択された場合には、CPU28は、ステップS17で、選択されたキャラクタをゲーム内に登場させる。たとえば、CPU28は、ワークメモリ34に記憶される生成キャラクタデータ、およびROM40に記憶されるゲーム空間データないしゲームフィールドデータ等に基づいて、選択されたキャラクタを含むゲーム空間のゲーム画像を生成し、そのゲーム画像をLCD18に表示する。   If “YES” in the step S15, that is, if a necessary number of characters are selected, the CPU 28 causes the selected character to appear in the game in a step S17. For example, the CPU 28 generates a game image of the game space including the selected character based on the generated character data stored in the work memory 34 and the game space data or game field data stored in the ROM 40. A game image is displayed on the LCD 18.

続いて、ステップS19で、CPU28は、プレイヤの操作に基づくゲーム処理を実行する。たとえば、CPU28は、操作部20から入力される操作データに基づいてキャラクタの動作を制御したり、ゲーム進行に必要な他の処理を実行したりする。そして、ステップS21で、CPU28はゲーム終了であるか否かを判断する。ステップS21で“NO”であれば、処理はステップS19へ戻ってゲームを進行させる。ステップS21で“YES”であればこのゲーム処理を終了する。   Subsequently, in step S19, the CPU 28 executes a game process based on the player's operation. For example, the CPU 28 controls the action of the character based on operation data input from the operation unit 20 or performs other processes necessary for the game progress. In step S21, the CPU 28 determines whether or not the game is over. If “NO” in the step S21, the process returns to the step S19 to advance the game. If “YES” in the step S21, the game process is ended.

この実施例によれば、複数のパーツデータから、パーツごとに1つをランダムに選択し、複数の結合ポイントが設定された輪郭パーツデータと基準ポイントが設定された各要素パーツデータとを、結合ポイントと基準ポイントとを合わせるようにして合成するようにしたので、簡単な処理で、バリエーションに富んだ顔画像を自動で生成することができる。したがって、多種類のキャラクタを簡単に生成することができる。このため、バリエーション豊かなキャラクタをゲームに登場させることができるので、ゲームの興趣性や娯楽性を向上することも可能である。さらに、多種類のキャラクタを予め生成しておいてキャラクタデータとしてROM40に持たせておく必要がないので、ゲームカートリッジ14などのゲーム情報記憶媒体のメモリ容量を節約することができる。   According to this embodiment, one part is randomly selected from a plurality of parts data, and the contour part data set with a plurality of connecting points and the element part data set with the reference points are combined. Since the point and the reference point are combined so as to be combined, it is possible to automatically generate a variety of face images with simple processing. Therefore, many types of characters can be easily generated. For this reason, since characters with rich variations can appear in the game, it is possible to improve the fun and entertainment of the game. Furthermore, since it is not necessary to generate various types of characters in advance and store them in the ROM 40 as character data, the memory capacity of the game information storage medium such as the game cartridge 14 can be saved.

なお、上述の実施例では、輪郭の絵に複数の結合ポイントが描画された複数の輪郭パーツデータを予め用意するようにしていた。しかしながら、図12に示す他の実施例のように、輪郭の絵自体と複数の結合ポイントとを別のデータとして用意するようにしてもよい。すなわち、図12のROM40のメモリマップに示すように、輪郭パーツデータ記憶領域54には、複数の輪郭パーツデータが記憶され、各輪郭パーツデータは、輪郭の絵のみを示す画像データであり、結合ポイントを含まない。   In the above-described embodiment, a plurality of contour part data in which a plurality of coupling points are drawn on a contour picture is prepared in advance. However, as in another embodiment shown in FIG. 12, the outline picture itself and a plurality of connection points may be prepared as separate data. That is, as shown in the memory map of the ROM 40 of FIG. 12, a plurality of contour part data is stored in the contour part data storage area 54, and each contour part data is image data indicating only a picture of a contour, Does not include points.

なお、髪の毛パーツデータ記憶領域56、目パーツデータ記憶領域58、鼻パーツデータ記憶領域60および口パーツデータ記憶領域62に記憶される各要素パーツデータは、上述の実施例と同じである。つまり、図3に示したように、各要素パーツデータは、当該要素パーツの絵と基準ポイントとを含む。   The element part data stored in the hair part data storage area 56, the eye part data storage area 58, the nose part data storage area 60, and the mouth part data storage area 62 are the same as those in the above-described embodiment. That is, as shown in FIG. 3, each element part data includes a picture of the element part and a reference point.

さらに、データ記憶領域は結合ポイントセットデータ記憶領域90を含み、この記憶領域90には、複数の結合ポイントセットデータが記憶される。結合ポイントセットデータは、複数の要素パーツの基準ポイントに対応する複数の結合ポイントと、当該複数の結合ポイントの輪郭パーツデータにおける位置を示す座標データとを含む。すなわち、髪の毛結合ポイントとその座標、目結合ポイントとその座標、鼻結合ポイントとその座標、口結合ポイントとその座標が記憶される。記憶される結合ポイントは、その色を示すデータである。あるいは、結合ポイントは、その画像データであってもよい。この実施例では、結合ポイントは1ドットであるので、その画像データは結合ポイントの色データを含む。また、複数の結合ポイントセットデータ間では、複数の結合ポイントのうちのいずれか1つの位置が互いに異なるように設定されている。   Further, the data storage area includes a combination point set data storage area 90, and a plurality of combination point set data is stored in the storage area 90. The coupling point set data includes a plurality of coupling points corresponding to reference points of the plurality of element parts, and coordinate data indicating positions of the plurality of coupling points in the contour part data. That is, the hair coupling point and its coordinates, the eye coupling point and its coordinates, the nose coupling point and its coordinates, and the mouth coupling point and its coordinates are stored. The stored connection points are data indicating the color. Alternatively, the coupling point may be the image data. In this embodiment, since the combination point is one dot, the image data includes color data of the combination point. In addition, the position of any one of the plurality of coupling points is set to be different between the plurality of coupling point set data.

なお、プログラム記憶領域50も、上述の実施例と同様に構成される。さらに、この実施例では、結合ポイントを輪郭パーツデータに設定するためのプログラム等も記憶されている。   The program storage area 50 is configured in the same manner as in the above-described embodiment. Further, in this embodiment, a program for setting the connection point to the contour part data is also stored.

図13には、この実施例における顔画像の合成の概略の一例が示される。上述の実施例と同様に、各パーツについて、複数のパーツデータの中からいずれか1つのパーツデータがランダムに選択される。図13では、輪郭パーツ1、髪の毛パーツ1、目パーツ1、鼻パーツ1、および口パーツ1が選択されている。また、この実施例では、複数の結合ポイントセットデータの中からいずれか1つの結合ポイントセットデータがランダムに選択される。図13では、結合ポイントセット1が選択されている。   FIG. 13 shows an example of an outline of synthesis of face images in this embodiment. Similar to the above-described embodiment, for each part, any one part data is randomly selected from a plurality of part data. In FIG. 13, the contour part 1, the hair part 1, the eye part 1, the nose part 1, and the mouth part 1 are selected. In this embodiment, any one of the combination point set data is randomly selected from the plurality of combination point set data. In FIG. 13, the combination point set 1 is selected.

そして、輪郭パーツデータには、選択された結合ポイントセットデータに基づいて、複数の結合ポイントが設定される。具体的には、結合ポイントとして色を示すデータが記憶される場合には、各結合ポイントの色データおよび座標データに基づいて、輪郭パーツ上における座標データの示す位置に各ポイントの色付けをする。つまり、輪郭パーツ上の座標データの示す位置の画素の色データを結合ポイントの色に変更する。あるいは、結合ポイントとしてその画像データを記憶する場合には、輪郭パーツ上に結合ポイントの画像データを合成するようにしてもよい。このようにして、複数の結合ポイントが描画された輪郭パーツデータを生成することができる。そして、上述の実施例と同様にして、複数の結合ポイントと対応する各基準ポイントとを合わせるようにして、輪郭パーツと複数の要素パーツとを合成し、合成顔画像に基づいてキャラクタを生成する。   In the contour part data, a plurality of coupling points are set based on the selected coupling point set data. Specifically, when data indicating a color is stored as a connection point, each point is colored at the position indicated by the coordinate data on the contour part based on the color data and coordinate data of each connection point. That is, the color data of the pixel at the position indicated by the coordinate data on the contour part is changed to the color of the coupling point. Alternatively, when the image data is stored as a connection point, the image data of the connection point may be synthesized on the contour part. In this way, contour part data in which a plurality of coupling points are drawn can be generated. Then, in the same manner as in the above-described embodiment, the contour part and the plurality of element parts are synthesized so as to match the plurality of combined points with the corresponding reference points, and a character is generated based on the synthesized face image. .

図14には、結合ポイントセット2が選択された場合の顔画像の合成の概要の一例が示される。結合ポイントセット2は、図13の結合ポイントセット1とは各結合ポイントの位置が異なる。詳しくは、結合ポイントセット2の髪の毛結合ポイント64、目結合ポイント66および鼻結合ポイント68の位置は、結合ポイントセット1のそれらよりも高く、結合ポイントセット2の口結合ポイント70の位置は、結合ポイントセット1のそれよりも低い。また、各パーツデータは、図13の例と同じパーツデータが選択されている。図13および図14から分かるように、異なる結合ポイントセットが使用されることによって、各パーツの絵が同じであっても、印象の異なる顔画像を生成することができる。   FIG. 14 shows an example of the outline of synthesis of face images when the combination point set 2 is selected. The connection point set 2 differs from the connection point set 1 of FIG. 13 in the position of each connection point. Specifically, the positions of the hair coupling point 64, the eye coupling point 66, and the nasal coupling point 68 of the coupling point set 2 are higher than those of the coupling point set 1, and the position of the mouth coupling point 70 of the coupling point set 2 is Lower than that of point set 1. Further, the same part data as in the example of FIG. 13 is selected as each part data. As can be seen from FIG. 13 and FIG. 14, by using different combination point sets, it is possible to generate facial images with different impressions even if the pictures of the parts are the same.

このように、この実施例によっても、多種類のキャラクタを簡単に生成することができ、しかもキャラクタ自体を予めデータとして持たせておく必要がないので、メモリ容量を節約することもできる。また、この実施例の場合には、1つの輪郭パーツに対して、用意しておいた複数の結合ポイントセットデータを設定することが可能である。したがって、予め結合ポイントが描画された輪郭パーツデータを複数準備する上述の実施例と比べても、同一の基本パーツ画像を複数個記憶しておかなくて済むので、さらにメモリ容量を節約することが可能である。また、複数の結合ポイントデータを記憶しているので、パーツ画像の種類を増やすことなくバリエーションに富んだ顔画像を簡単に生成することができ、したがって簡単に多数のキャラクタを生成することができる。   As described above, according to this embodiment, it is possible to easily generate many kinds of characters, and it is not necessary to previously store the characters themselves as data, so that the memory capacity can be saved. In the case of this embodiment, a plurality of prepared combination point set data can be set for one contour part. Therefore, even when compared with the above-described embodiment in which a plurality of contour part data in which the coupling points are drawn in advance is prepared, it is not necessary to store a plurality of the same basic part images, thereby further saving the memory capacity. Is possible. Further, since a plurality of combination point data are stored, it is possible to easily generate a variety of face images without increasing the types of part images, and thus it is possible to easily generate a large number of characters.

図15には、結合ポイントセットデータを記憶する場合のゲーム動作の一例を示すフロー図が示される。なお、図9に示したフロー図と同じ処理には、同一の符号を付して、重複する説明を省略する。   FIG. 15 is a flowchart showing an example of the game operation when storing the combined point set data. Note that the same processes as those in the flowchart shown in FIG. 9 are denoted by the same reference numerals, and redundant description is omitted.

ステップS1で各パーツを選択した後、CPU28は、ステップS91で結合ポイント設定処理を実行する。この処理の動作は次の図16に詳細に示される。すなわち、図16のステップS101で、CPU28は、結合ポイントセットデータ記憶領域90に記憶された複数の結合ポイントセットデータの中からランダムに1つを選択する。そして、選択した結合ポイントセットの指定データ(識別情報)をワークメモリ34の所定領域に記憶する。   After selecting each part in step S1, the CPU 28 executes a coupling point setting process in step S91. The operation of this process is shown in detail in FIG. That is, in step S101 of FIG. 16, the CPU 28 randomly selects one from a plurality of combined point set data stored in the combined point set data storage area 90. Then, designated data (identification information) of the selected combination point set is stored in a predetermined area of the work memory 34.

次に、ステップS103で、CPU28は、選択された結合ポイントセットデータの各結合ポイントの座標に基づいて、輪郭パーツ上の対応する位置に各結合ポイントを描画し、各結合ポイントの描画された輪郭パーツデータをたとえばVRAMまたはワークメモリ34に生成する。このステップS103を終了すると、処理は図15のステップS3へ戻る。その後は、CPU28は、上述した図9の各ステップと同様な処理を実行して、キャラクタを生成し、そのキャラクタをゲームに登場させる。   Next, in step S103, the CPU 28 draws each joining point at a corresponding position on the contour part based on the coordinates of each joining point of the selected joining point set data, and draws the contour where each joining point is drawn. The part data is generated in the VRAM or the work memory 34, for example. When step S103 is completed, the process returns to step S3 in FIG. After that, the CPU 28 executes the same processing as each step of FIG. 9 described above, generates a character, and causes the character to appear in the game.

なお、上述の各実施例では、要素パーツデータについて、各パーツの絵に各基準ポイントが描画されたパーツデータを予め用意するようにしていた。しかしながら、上述の図12実施例の場合と同様にして、パーツの絵とは別のデータとして、複数の基準ポイントのデータを準備するようにしてもよい。そして、複数の基準ポイントデータから1つをランダムに選択して、基準ポイントをパーツ画像に描画する。この場合にも、上述の結合ポイントセットデータが設けられる場合と同様に、パーツ画像データを増やすことなくバリエーションに富んだ顔画像を作成することができるので、簡単に多種類のキャラクタを生成できるとともに、メモリ容量を節約できる。   In each of the above-described embodiments, part data in which each reference point is drawn on a picture of each part is prepared in advance for the element part data. However, as in the case of the above-described FIG. 12 embodiment, data of a plurality of reference points may be prepared as data different from the part picture. Then, one of the plurality of reference point data is randomly selected, and the reference point is drawn on the part image. Also in this case, as in the case where the above-described combination point set data is provided, it is possible to create a variety of face images without increasing the part image data, and thus it is possible to easily generate many types of characters. , Can save memory capacity.

また、上述の各実施例では、結合ポイント(および基準ポイント)を色によって識別するようにしていた。しかしながら、結合ポイント(および基準ポイント)は、色以外に、形状、記号、文字等で識別するようにしてもよい。この場合には、たとえば、結合ポイント画像とその結合ポイント画像の対応する要素パーツを示す情報とが対応付けられたテーブルデータ等を予めROM40に記憶しておく。そして、結合ポイントをサーチしたときに、このテーブルを参照して、サーチした結合ポイント画像が、どの要素パーツに対応するかを識別すればよい。あるいは、各結合ポイント画像を画像認識処理で識別するようにしてもよい。   In each of the above-described embodiments, the coupling point (and the reference point) is identified by color. However, the coupling point (and the reference point) may be identified by a shape, a symbol, a character, or the like in addition to the color. In this case, for example, table data or the like in which the combination point image and information indicating the corresponding element part of the combination point image are associated with each other is stored in the ROM 40 in advance. Then, when a connection point is searched, it is only necessary to identify which element part corresponds to the searched connection point image with reference to this table. Alternatively, each coupling point image may be identified by image recognition processing.

また、結合ポイントは、サーチしたときのヒットした順番によって識別するようにしてもよい。上述のように、複数の結合ポイントの、パーツデータ(画像データ)の上下方向に並ぶ順序は決まっている。具体的には、上から、髪の毛結合ポイント、目結合ポイント、鼻結合ポイント、および口結合ポイントの順に並ぶ。したがって、パーツデータの上からまたは下から順にサーチしたときのヒット順によって、各結合ポイントの対応する要素パーツを識別することが可能である。ただし、この場合には、結合ポイントが配される、すなわち、結合ポイントをサーチする座標(画素列)は予め決まっている必要があり、たとえば、各結合ポイントはパーツデータの左端の画素列に描画される。   Further, the combination points may be identified by the order of hits when searching. As described above, the order in which the plurality of coupling points are arranged in the vertical direction of the part data (image data) is determined. Specifically, from the top, the hair connection point, the eye connection point, the nose connection point, and the mouth connection point are arranged in this order. Therefore, it is possible to identify the corresponding element part of each connection point according to the hit order when searching from the top or the bottom of the part data. In this case, however, the coupling points are arranged, that is, the coordinates (pixel columns) for searching the coupling points need to be determined in advance. For example, each coupling point is drawn in the pixel column at the left end of the part data. Is done.

この発明の一実施例のキャラクタ生成装置(ゲーム装置)を示す外観図である。It is an external view which shows the character production | generation apparatus (game device) of one Example of this invention. 図1実施例のゲーム装置の電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the game device of FIG. 1 Example. 図2のROM40のメモリマップの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a memory map of a ROM 40 of FIG. 2. 図2の外部W−RAM34のメモリマップの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a memory map of an external W-RAM 34 of FIG. 2. 図1実施例における顔画像の合成の概要の一例を示す図解図である。It is an illustration figure which shows an example of the outline | summary of the synthesis | combination of the face image in FIG. 1 Example. 図1実施例における顔画像の合成の概要の他の例を示す図解図であり、図5の輪郭パーツ1とは輪郭の絵および複数の結合ポイントの位置が異なる輪郭パーツ2が選択された場合を示す。FIG. 6 is an illustrative view showing another example of the outline of the synthesis of the face image in the embodiment in FIG. 1, when a contour part 2 having a contour picture and positions of a plurality of coupling points different from the contour part 1 of FIG. 5 is selected. Indicates. 図1実施例における顔画像の合成の概要のさらに他の例を示す図解図であり、図6の輪郭パーツ2とは複数の結合ポイントの位置が異なる輪郭パーツ3が選択された場合を示す。FIG. 7 is an illustrative view showing still another example of the outline of synthesis of face images in the embodiment in FIG. 1, and shows a case where a contour part 3 having a plurality of coupling point positions different from the contour part 2 in FIG. 6 is selected. 図1実施例における顔画像の合成の概要の他の例を示す図解図であり、図5の各要素パーツ1とは各基準ポイントの位置が異なる各要素パーツ2が選択された場合を示す。FIG. 7 is an illustrative view showing another example of the outline of the synthesis of the face image in the embodiment in FIG. 1, and shows a case where each element part 2 having a position of each reference point different from each element part 1 in FIG. 5 is selected. 図1実施例のゲーム装置におけるゲーム動作の一例を示すフロー図である。It is a flowchart which shows an example of the game operation | movement in the game device of FIG. 1 Example. 図9のパーツ選択処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the parts selection process of FIG. 図9の結合ポイント検索処理の動作の一例を示すフロー図である。FIG. 10 is a flowchart showing an example of the operation of the join point search process of FIG. 9. 他の実施例におけるROM40のメモリマップの一例を示す図解図である。It is an illustration figure which shows an example of the memory map of ROM40 in another Example. 他の実施例における顔画像の合成の概要の一例を示す図解図である。It is an illustration figure which shows an example of the outline | summary of the synthesis | combination of the face image in another Example. 他の実施例における顔画像の合成の概要の他の例を示す図解図であり、図13とは異なる結合ポイントセット2が選択された場合を示す。It is an illustration figure which shows the other example of the outline | summary of the synthesis | combination of the face image in another Example, and shows the case where the joint point set 2 different from FIG. 13 is selected. 他の実施例におけるゲーム動作の一例を示すフロー図である。It is a flowchart which shows an example of the game operation | movement in another Example. 図15の結合ポイント設定処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the joint point setting process of FIG.

符号の説明Explanation of symbols

10 …キャラクタ生成装置(ゲーム装置)
12 …ゲーム機
14 …ゲームカートリッジ
18 …LCD
28 …CPU
34 …ワークメモリ
40 …ROM
10: Character generation device (game device)
12 ... Game machine 14 ... Game cartridge 18 ... LCD
28 ... CPU
34 ... Work memory 40 ... ROM

Claims (8)

複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置であって、
顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する基本パーツデータ記憶手段、
前記要素パーツ画像と当該要素パーツ画像に対応する前記結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する基本パーツ選択手段、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択手段、
前記基本パーツ選択手段によって選択された基本パーツデータに含まれる前記複数の結合ポイントを検索する第1検索手段、
前記要素パーツ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索手段、
前記第1検索手段によって検索された複数の結合ポイントの各々と前記第2検索手段によって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択手段によって選択された基本パーツデータに含まれる基本パーツ画像と前記要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成手段、
前記合成手段によって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成手段、および
前記キャラクタ生成手段によって生成されたキャラクタをゲームに登場させるゲーム処理手段を備える、キャラクタ生成装置。
A character generation device that generates a character based on a face image created by combining a plurality of part images,
A basic part for storing a plurality of basic part data each including a basic part image for composing a face image and a plurality of connecting points indicating a connecting position of each of a plurality of element part images combined with the basic part image Data storage means,
Element part data storage means for storing a plurality of element part data each including the element part image and a reference point indicating a coupling position of the coupling point corresponding to the element part image;
Basic part selection means for randomly selecting any one of a plurality of basic part data stored in the basic part data storage means;
Element part selection means for randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means,
First search means for searching for the plurality of connection points included in the basic part data selected by the basic part selection means;
Second search means for searching for each reference point included in each of the plurality of element parts data selected by the element parts selection means;
Included in the basic part data selected by the basic part selection means so as to match each of the plurality of connection points searched by the first search means with the corresponding reference points searched by the second search means Combining means for combining the basic part image and each element part image included in the plurality of element part data selected by the element part selection means,
A character generation device comprising: character generation means for generating a character based on the face image synthesized by the synthesis means; and game processing means for causing the character generated by the character generation means to appear in a game.
前記基本パーツデータ記憶手段に記憶される基本パーツデータは、複数の結合ポイントが対応する要素パーツごとに異なる色で識別可能に描画されている当該基本パーツ画像を示す画像データであり、
前記第1検索手段は、前記複数の結合ポイントを前記色に基づいて検索する、請求項1記載のキャラクタ生成装置。
The basic part data stored in the basic part data storage means is image data indicating the basic part image in which a plurality of coupling points are drawn so as to be identifiable in different colors for each corresponding element part,
The character generation device according to claim 1, wherein the first search unit searches the plurality of connection points based on the color.
複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置であって、
顔画像を構成するための複数の基本パーツ画像を記憶する基本パーツデータ記憶手段、
前記基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の前記基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する結合ポイントデータ記憶手段、
前記要素パーツ画像と当該要素パーツ画像に対応する前記結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する基本パーツ選択手段、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択手段、
前記結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する結合ポイント選択手段、
前記結合ポイント選択手段によって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを前記基本パーツ選択手段によって選択された基本パーツ画像上に描画する結合ポイント描画手段、
前記結合ポイント描画手段によって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する第1検索手段、
前記要素パーツデータ選択手段によって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索手段、
前記第1検索手段によって検索された複数の結合ポイントの各々と前記第2検索手段によって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択手段によって選択された前記基本パーツ画像と前記要素パーツ選択手段によって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成手段、
前記合成手段によって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成手段、および
前記キャラクタ生成手段によって生成されたキャラクタをゲームに登場させるゲーム処理手段を備える、キャラクタ生成装置。
A character generation device that generates a character based on a face image created by combining a plurality of part images,
Basic part data storage means for storing a plurality of basic part images for constituting a face image;
A plurality of combination points each indicating a connection position of each of the plurality of element part images synthesized with the basic part image and a plurality of coordinate data indicating the position of each of the plurality of connection points in the basic part image. Coupling point data storage means for storing coupling point set data;
Element part data storage means for storing a plurality of element part data each including the element part image and a reference point indicating a coupling position of the coupling point corresponding to the element part image;
Basic part selection means for randomly selecting any one of a plurality of basic part images stored in the basic part data storage means;
Element part selection means for randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means,
Coupling point selection means for randomly selecting any one of a plurality of coupling point set data stored in the coupling point data storage means;
A connection point drawing unit for drawing a plurality of connection points on the basic part image selected by the basic part selection unit based on the connection point set data selected by the connection point selection unit;
First search means for searching the plurality of connection points in the basic part image in which a plurality of connection points are drawn by the connection point drawing means;
Second search means for searching for each reference point included in each of the plurality of element part data selected by the element parts data selection means;
The basic part image selected by the basic part selecting means so as to match each of the plurality of connecting points searched by the first searching means with the corresponding reference points searched by the second searching means; Combining means for combining each element part image included in the plurality of element part data selected by the element parts selecting means;
A character generation device comprising: character generation means for generating a character based on the face image synthesized by the synthesis means; and game processing means for causing the character generated by the character generation means to appear in a game.
前記キャラクタ生成手段によって所定数のキャラクタが生成されたか否かを判定する判定手段、および
前記判定手段によって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択するキャラクタ選択手段をさらに備え、
前記ゲーム処理手段は、前記キャラクタ選択手段によって選択されたキャラクタをゲームに登場させる、請求項1ないし3のいずれかに記載のキャラクタ生成装置。
Determining means for determining whether or not a predetermined number of characters have been generated by the character generating means; and when the determining means determines that a predetermined number of characters have been generated, any one of the generated characters A character selection means for selecting the character of
The character generation device according to claim 1, wherein the game processing unit causes the character selected by the character selection unit to appear in the game.
顔画像を構成するための基本パーツ画像と当該基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントとをそれぞれが含む複数の基本パーツデータを記憶する基本パーツデータ記憶手段、および前記要素パーツ画像と当該要素パーツ画像に対応する前記結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段を備え、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置のキャラクタ生成プログラムであって、
前記キャラクタ生成装置のプロセサに、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツデータの中からランダムにいずれか1つを選択する基本パーツ選択ステップ、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択ステップ、
前記基本パーツ選択ステップによって選択された基本パーツデータに含まれる前記複数の結合ポイントを検索する第1検索ステップ、
前記要素パーツ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索ステップ、
前記第1検索ステップによって検索された複数の結合ポイントの各々と前記第2検索ステップによって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択ステップによって選択された基本パーツデータに含まれる基本パーツ画像と前記要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成ステップ、
前記合成ステップによって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成ステップ、および
前記キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させるゲーム処理ステップを実行させる、キャラクタ生成プログラム。
A basic part for storing a plurality of basic part data each including a basic part image for composing a face image and a plurality of connecting points indicating a connecting position of each of a plurality of element part images combined with the basic part image Data storage means, and element part data storage means for storing a plurality of element part data each including a reference point indicating a connection position of the element part image and the connection point corresponding to the element part image. A character generation program of a character generation device for generating a character based on a face image created by combining the part images of
In the processor of the character generation device,
A basic part selection step of randomly selecting any one of a plurality of basic part data stored in the basic part data storage means;
An element part selection step of randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means;
A first search step for searching the plurality of connection points included in the basic part data selected by the basic part selection step;
A second search step of searching for each reference point included in each of the plurality of element parts data selected by the element parts selection step;
Included in the basic part data selected by the basic part selection step so as to match each of the plurality of connection points searched by the first search step with each corresponding reference point searched by the second search step Combining a basic part image and each element part image included in a plurality of element part data selected in the element part selection step;
A character generation program for executing a character generation step for generating a character based on the face image combined in the combining step, and a game processing step for causing the character generated in the character generation step to appear in the game.
前記基本パーツデータ記憶手段に記憶される基本パーツデータは、複数の結合ポイントが対応する要素パーツごとに異なる色で識別可能に描画されている当該基本パーツ画像を示す画像データであり、
前記第1検索ステップは、前記複数の結合ポイントを前記色に基づいて検索する、請求項5記載のキャラクタ生成プログラム。
The basic part data stored in the basic part data storage means is image data indicating the basic part image in which a plurality of coupling points are drawn so as to be identifiable in different colors for each corresponding element part,
The character generation program according to claim 5, wherein in the first search step, the plurality of connection points are searched based on the color.
顔画像を構成するための複数の基本パーツ画像を記憶する基本パーツデータ記憶手段、前記基本パーツ画像に合成される複数の要素パーツ画像の各々の結合位置を示す複数の結合ポイントと当該複数の結合ポイントの各々の前記基本パーツ画像における位置を示す座標データとをそれぞれが含む複数の結合ポイントセットデータを記憶する結合ポイントデータ記憶手段、および前記要素パーツ画像と当該要素パーツ画像に対応する前記結合ポイントとの結合位置を示す基準ポイントとをそれぞれが含む複数の要素パーツデータを記憶する要素パーツデータ記憶手段を備え、複数のパーツ画像を組み合わせることによって作成される顔画像に基づいてキャラクタを生成するキャラクタ生成装置のキャラクタ生成プログラムであって、
前記キャラクタ生成装置のプロセサに、
前記基本パーツデータ記憶手段に記憶されている複数の基本パーツ画像の中からランダムにいずれか1つを選択する基本パーツ選択ステップ、
前記要素パーツデータ記憶手段に記憶されている複数の要素パーツデータの中から要素パーツごとに要素パーツデータをランダムに選択する要素パーツ選択ステップ、
前記結合ポイントデータ記憶手段に記憶されている複数の結合ポイントセットデータの中からランダムにいずれか1つを選択する結合ポイント選択ステップ、
前記結合ポイント選択ステップによって選択された結合ポイントセットデータに基づいて、複数の結合ポイントを前記基本パーツ選択ステップによって選択された基本パーツ画像上に描画する結合ポイント描画ステップ、
前記結合ポイント描画ステップによって複数の結合ポイントの描画された基本パーツ画像における当該複数の結合ポイントを検索する第1検索ステップ、
前記要素パーツデータ選択ステップによって選択された複数の要素パーツデータの各々に含まれる各基準ポイントを検索する第2検索ステップ、
前記第1検索ステップによって検索された複数の結合ポイントの各々と前記第2検索ステップによって検索された対応する各基準ポイントとを合せるように、前記基本パーツ選択ステップによって選択された前記基本パーツ画像と前記要素パーツ選択ステップによって選択された複数の要素パーツデータに含まれる各要素パーツ画像とを合成する合成ステップ、
前記合成ステップによって合成された顔画像に基づいてキャラクタを生成するキャラクタ生成ステップ、および
前記キャラクタ生成ステップによって生成されたキャラクタをゲームに登場させるゲーム処理ステップを実行させる、キャラクタ生成プログラム。
Basic part data storage means for storing a plurality of basic part images for constituting a face image, a plurality of connecting points indicating respective connecting positions of a plurality of element part images combined with the basic part image, and the plurality of connecting parts Coupling point data storage means for storing a plurality of coupling point set data each including coordinate data indicating the position of each point in the basic part image, and the coupling point corresponding to the element part image and the element part image And a character for generating a character based on a face image created by combining a plurality of part images, including element part data storage means for storing a plurality of element part data each including a reference point indicating a coupling position with A character generation program for a generation device,
In the processor of the character generation device,
A basic part selection step of randomly selecting any one of a plurality of basic part images stored in the basic part data storage means;
An element part selection step of randomly selecting element part data for each element part from a plurality of element part data stored in the element part data storage means;
A coupling point selection step of randomly selecting any one of a plurality of coupling point set data stored in the coupling point data storage means;
A coupling point drawing step for drawing a plurality of coupling points on the basic part image selected by the basic part selection step based on the coupling point set data selected by the coupling point selection step.
A first search step of searching for the plurality of connection points in the basic part image in which a plurality of connection points are drawn by the connection point drawing step;
A second search step of searching for each reference point included in each of the plurality of element part data selected by the element part data selection step;
The basic part image selected by the basic part selection step so as to match each of the plurality of connection points searched by the first search step with each corresponding reference point searched by the second search step; A synthesis step of synthesizing each element part image included in the plurality of element part data selected in the element part selection step;
A character generation program for executing a character generation step for generating a character based on the face image combined in the combining step, and a game processing step for causing the character generated in the character generation step to appear in the game.
前記キャラクタ生成装置のプロセサに、
前記キャラクタ生成ステップによって所定数のキャラクタが生成されたか否かを判定する判定ステップ、および
前記判定ステップによって所定数のキャラクタが生成されたと判断されたとき、生成された複数のキャラクタの中からいずれかのキャラクタを選択するキャラクタ選択ステップをさらに実行させ、
前記ゲーム処理ステップは、前記キャラクタ選択ステップによって選択されたキャラクタをゲームに登場させる、請求項5ないし7のいずれかに記載のキャラクタ生成プログラム。
In the processor of the character generation device,
A determination step for determining whether or not a predetermined number of characters have been generated by the character generation step, and when it is determined that the predetermined number of characters has been generated by the determination step, one of a plurality of generated characters Further executing a character selection step of selecting a character of
The character generation program according to claim 5, wherein the game processing step causes the character selected in the character selection step to appear in the game.
JP2004305133A 2004-10-20 2004-10-20 Character generation device and character generation program Active JP4473697B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004305133A JP4473697B2 (en) 2004-10-20 2004-10-20 Character generation device and character generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004305133A JP4473697B2 (en) 2004-10-20 2004-10-20 Character generation device and character generation program

Publications (2)

Publication Number Publication Date
JP2006119788A true JP2006119788A (en) 2006-05-11
JP4473697B2 JP4473697B2 (en) 2010-06-02

Family

ID=36537635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004305133A Active JP4473697B2 (en) 2004-10-20 2004-10-20 Character generation device and character generation program

Country Status (1)

Country Link
JP (1) JP4473697B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153963A (en) * 2012-01-30 2013-08-15 Genius Sonority Kk Video game processing program, video game processing method, and video game processing device
JP2015198335A (en) * 2014-04-01 2015-11-09 ビッグローブ株式会社 Communication terminal, stamp image creation method, and program
JP2021517490A (en) * 2018-03-19 2021-07-26 ロブロックス・コーポレーション Data overflow inspection and improved execution of gaming process

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153963A (en) * 2012-01-30 2013-08-15 Genius Sonority Kk Video game processing program, video game processing method, and video game processing device
JP2015198335A (en) * 2014-04-01 2015-11-09 ビッグローブ株式会社 Communication terminal, stamp image creation method, and program
JP2021517490A (en) * 2018-03-19 2021-07-26 ロブロックス・コーポレーション Data overflow inspection and improved execution of gaming process
JP7128286B2 (en) 2018-03-19 2022-08-30 ロブロックス・コーポレーション Data flood inspection and improved execution of gaming processes
JP7389192B2 (en) 2018-03-19 2023-11-29 ロブロックス・コーポレーション Data overflow inspection and improved execution of gaming processes

Also Published As

Publication number Publication date
JP4473697B2 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4671196B2 (en) NETWORK GAME SYSTEM, NETWORK GAME TERMINAL DEVICE, GAME SCREEN DISPLAY METHOD, PROGRAM, AND RECORDING MEDIUM
JP4447568B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
US6540611B1 (en) Portable game machine and game-advancing method
US20010006391A1 (en) Image creating device
US8246469B2 (en) Storage medium storing program, apparatus, communication system and control method
JP2015112386A (en) Game system, control method and computer program used for the same
JP2000279637A (en) Game device, game display control method, and computer- readable record medium
JP2010033298A (en) Program, information storage medium, and image generation system
WO2000049573A1 (en) System for and method of implementing refraction mapping
JP4473697B2 (en) Character generation device and character generation program
JP2020069317A (en) Game program, recording medium, and game processing method
JP2992499B2 (en) Image processing method and apparatus, recording medium
JP2004329681A (en) Game system and game program
JP3271859B2 (en) Electronic device with puzzle game function
JP2009201854A (en) Game program, recording medium recorded with game program, and computer
JP4469709B2 (en) Image processing program and image processing apparatus
JP4856749B2 (en) Network game system
JP2009104522A (en) Game device, program for executing the game device, and recording medium with the program recorded thereon
JP2002360921A (en) Game system and program for game
JP4114826B2 (en) Image generating apparatus and information storage medium
JP4707039B2 (en) Network game system
JP4275155B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP4993422B2 (en) Game system and game program
JP3183636B2 (en) Three-dimensional game device and information storage medium
JP2005177173A (en) Connectable and portable game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4473697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250