JP2010246845A - Game machine and game programs - Google Patents

Game machine and game programs Download PDF

Info

Publication number
JP2010246845A
JP2010246845A JP2009102131A JP2009102131A JP2010246845A JP 2010246845 A JP2010246845 A JP 2010246845A JP 2009102131 A JP2009102131 A JP 2009102131A JP 2009102131 A JP2009102131 A JP 2009102131A JP 2010246845 A JP2010246845 A JP 2010246845A
Authority
JP
Japan
Prior art keywords
character
image data
input
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009102131A
Other languages
Japanese (ja)
Other versions
JP5581002B2 (en
Inventor
Taku Hirokawa
卓 廣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taito Corp
Original Assignee
Taito Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taito Corp filed Critical Taito Corp
Priority to JP2009102131A priority Critical patent/JP5581002B2/en
Publication of JP2010246845A publication Critical patent/JP2010246845A/en
Application granted granted Critical
Publication of JP5581002B2 publication Critical patent/JP5581002B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game machine and game programs, wherein characters used for animation can be created in an understandable way and easily. <P>SOLUTION: A CPU 10 inputs image data of a plurality of parts composing a character according to user's operations onto a touch panel 20. The CPU 10 records the input image data on RAM 11 for every layer corresponding to each of the plural parts composing the character. The CPU 10 displays the character on a display 18 based on the image data recorded in every layer by a display controller 16. The CPU 10 operates the character in a game screen by performing display-control determined respectively for the layer according to the character to be displayed on the image data of each layer. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ゲーム機、ゲームプログラムに関する。   The present invention relates to a game machine and a game program.

従来、ユーザから入力されたデータをもとにアニメーションを作成することが行われている。特許文献1に記載されたアニメーション生成方式では、ユーザによる形状入力により胴体,左足,右足,左手,右手などの部品(パーツ)が加えられてアニメーションのモデルを作成する。そして、パーツが何であるかの情報をユーザにより入力させ、部品の種類毎にデータを貼り合わせてアニメーションデータを加工し、決められた法則に従ってアニメーションを実行する。   Conventionally, an animation is created based on data input from a user. In the animation generation method described in Patent Document 1, parts (parts) such as the trunk, left foot, right foot, left hand, and right hand are added by a shape input by a user to create an animation model. Then, the user inputs information about what the part is, and the animation data is processed by pasting data for each type of part, and the animation is executed according to a determined rule.

ユーザによる形状入力では、胴体,左足,右足,左手,右手などのパーツの位置関係を考慮する必要がある。すなわち、パーツを3Dモデルとして作成するため、奥行きについての各部品の相対的な位置を合わせて形状入力する必要がある。また、複数のパーツを組み合わせて1つの3Dモデルを作成するので、各パーツを特定することができるように、例えばパーツの外形状を一筆で閉じた絵として入力する必要がある。   In the shape input by the user, it is necessary to consider the positional relationship of parts such as the trunk, left foot, right foot, left hand, right hand. That is, in order to create a part as a 3D model, it is necessary to input the shape by matching the relative positions of the parts with respect to the depth. In addition, since one 3D model is created by combining a plurality of parts, it is necessary to input, for example, the outer shape of the part as a closed picture with a single stroke so that each part can be identified.

また従来では、比較的簡単に格別なリソースを必要とせずにアニメーションを構築して表示するアニメーション表示装置が考えられている(特許文献1参照)。特許文献1に記載されたアニメーション表示装置では、アニメーションとして表示する対象が、背景、足、胴、頭で構成される場合、これらをそれぞれのレイヤとして分配し、レイヤ毎に、表示更新するタイミングと表示効果を示す属性情報でスケジュールを設定しておき、各レイヤはこのスケジュールに従ってそれぞれが与えられたタイミングでのみ表示更新する。   Conventionally, an animation display device that constructs and displays an animation relatively easily without requiring special resources has been considered (see Patent Document 1). In the animation display device described in Patent Document 1, when an object to be displayed as an animation is composed of a background, a foot, a torso, and a head, these are distributed as respective layers, and the display update timing is provided for each layer. A schedule is set with attribute information indicating the display effect, and each layer is updated and displayed only at a given timing according to the schedule.

特開2002−319035号公報JP 2002-319035 A 特開2000−285258号公報JP 2000-285258 A

このように従来では、アニメーションを作成する場合には、パーツを3Dモデルとして作成する必要があったため、例えば複数のパーツを組み合わせてキャラクターを作成する場合には、各パーツの位置関係を配慮して形状入力しなければならない。このために、キャラクター作成の難易度が高くなってしまい、例えば低年齢層のユーザにとっては容易に使用することができなかった。   Thus, conventionally, when creating an animation, it was necessary to create a part as a 3D model. For example, when creating a character by combining multiple parts, consider the positional relationship of each part. The shape must be entered. For this reason, the difficulty of character creation becomes high, and for example, it cannot be used easily for a user of a low age group.

また、複数のパーツを組み合わせて1つの3Dモデルを作成するため、各パーツの外形状を一筆で閉じた絵として入力しなければならないという制約があった。このため、自由な感覚でキャラクターを構成するパーツの入力をすることができなかった。   Moreover, in order to create one 3D model by combining a plurality of parts, there is a restriction that the external shape of each part must be input as a closed picture with a single stroke. For this reason, it was not possible to input the parts constituting the character with a free feeling.

本発明は前述した事情に考慮してなされたもので、その目的は、アニメーションに用いられるキャラクターを分かり易く簡単に作成することが可能なゲーム機、ゲームプログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a game machine and a game program capable of easily and easily creating characters used for animation.

上記の課題を解決するために、本発明は、キャラクターを構成する複数の部分の画像データをユーザ操作に応じて入力する入力手段と、前記入力手段によって入力された画像データを前記キャラクターを構成する複数の部分のそれぞれに対応するレイヤ毎に記録する記録手段と、前記記録手段によりレイヤ毎に記録された画像データをもとに前記キャラクターを表示する表示手段と、前記記録手段により記録されたレイヤ毎の画像データに対して、前記表示手段により表示対象となっている前記キャラクターに応じて前記レイヤのそれぞれに決められた表示制御を行う表示制御手段とを具備したことを特徴とする。   In order to solve the above-described problems, the present invention configures an input unit that inputs image data of a plurality of parts constituting a character in response to a user operation, and the image data input by the input unit constitutes the character. Recording means for recording each layer corresponding to each of a plurality of portions, display means for displaying the character based on image data recorded for each layer by the recording means, and layers recorded by the recording means And display control means for performing display control determined for each of the layers in accordance with the character to be displayed by the display means for each image data.

本発明によれば、アニメーションに用いられるキャラクターを分かり易く簡単に作成することが可能となる。   According to the present invention, it is possible to easily and easily create a character used for animation.

本実施形態におけるゲーム機の機能構成を示すブロック図。The block diagram which shows the function structure of the game machine in this embodiment. 本実施形態におけるゲーム機の外観構成を示す図。The figure which shows the external appearance structure of the game machine in this embodiment. 本実施形態のゲーム機におけるキャラクター作成処理により作成された「キャラクターデータ」のデータ構成の一例を示す図。The figure which shows an example of a data structure of the "character data" created by the character creation process in the game machine of this embodiment. 「おてほんデータ」のデータ構成の一例を示す図。The figure which shows an example of a data structure of "Otehon data". パーツデータの一例を示す図。The figure which shows an example of part data. 本実施形態のキャラクター作成処理により作成されるキャラクターデータとレイヤとの関係を示す図。The figure which shows the relationship between the character data created by the character creation process of this embodiment, and a layer. 本実施形態のゲーム機における全体処理を説明するフローチャート。The flowchart explaining the whole process in the game machine of this embodiment. 全体処理中のキャラクター作成処理における描画処理を説明するフローチャート。The flowchart explaining the drawing process in the character creation process in the whole process. キャラクター作成処理時に表示される画面の一例を示す図。The figure which shows an example of the screen displayed at the time of a character creation process. キャラクター作成処理時に表示される画面の一例を示す図。The figure which shows an example of the screen displayed at the time of a character creation process. ゲームプレイ処理を説明するフローチャート。The flowchart explaining a game play process. キャラクターのパーツに対する表示制御の一例を示す図。The figure which shows an example of the display control with respect to the parts of a character. 他のパーツに対して入力された描画イメージ(画像データ)の位置関係に基づいて表示制御を行う例を示す図。The figure which shows the example which performs display control based on the positional relationship of the drawing image (image data) input with respect to the other parts. パーツデータに対する表示制御を示すフローチャート。The flowchart which shows the display control with respect to parts data. パーツパターンの一例を示す図。The figure which shows an example of a part pattern.

以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施形態におけるゲーム機の機能構成を示すブロック図である。本実施形態におけるゲーム装置は、例えば携帯型に構成されている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a functional configuration of the game machine in the present embodiment. The game device in the present embodiment is configured to be portable, for example.

図1に示すように、本実施形態におけるゲーム装置には、CPU10が実装される。CPU10には、バスを介して、RAM11、GPU12,13、表示コントローラ16、ディスプレイ17,18、インタフェースユニット19、コネクタ23、及び通信ユニット26が接続される。   As shown in FIG. 1, a CPU 10 is mounted on the game device in the present embodiment. The CPU 10 is connected to the RAM 11, GPUs 12 and 13, display controller 16, displays 17 and 18, interface unit 19, connector 23, and communication unit 26 via a bus.

CPU10は、ゲーム装置全体の制御を司るもので、RAM11に記録されたプログラムに応じた各種処理を実行する。CPU10は、本実施形態におけるゲームプログラムに基づいて各部を制御し、ユーザ操作によって入力された画像データをもとにキャラクターを作成し、このキャラクターが動作するアニメーションを利用したゲームを実行することができる。   The CPU 10 controls the entire game apparatus, and executes various processes according to the programs recorded in the RAM 11. CPU10 controls each part based on the game program in this embodiment, creates a character based on the image data input by user operation, and can run the game using the animation which this character operates. .

CPU10は、ゲームプログラムによるキャラクター作成処理を実行して、キャラクターを構成する複数の部分(パーツ)の画像データを、ペン20aを用いたタッチパネル20に対するユーザ操作に応じて入力し、この入力された画像データをキャラクターを構成する複数のパーツのそれぞれに対応するレイヤ毎にRAM11に記録する。CPU10は、レイヤ毎に記録された画像データをもとに、表示コントローラ16によってディスプレイ17,18においてキャラクターを表示させる。CPU10は、ゲーム処理において、RAM11に記録されたレイヤ毎の画像データに対して、表示対象となっているキャラクターの種類あるいはゲーム状況に応じて、レイヤのそれぞれに決められた表示制御を行うことでキャラクターをゲーム画面中において動作させる(アニメーション化する)。   CPU10 performs the character creation process by a game program, inputs the image data of the some part (parts) which comprises a character according to user operation with respect to the touch panel 20 using the pen 20a, and this input image Data is recorded in the RAM 11 for each layer corresponding to each of a plurality of parts constituting the character. The CPU 10 displays characters on the displays 17 and 18 by the display controller 16 based on the image data recorded for each layer. In the game process, the CPU 10 performs display control determined for each layer on the image data for each layer recorded in the RAM 11 according to the type of character to be displayed or the game situation. The character is moved (animated) in the game screen.

CPU10は、キャラクター作成処理においてユーザ操作によってキャラクターを構成する画像データを入力する際には、キャラクターに応じて決められた順番で複数のパーツ、例えば頭、胴、右腕、左腕などの画像データを入力する。CPU10により実行されるゲームプログラムでは、複数のキャラクターのそれぞれについて、複数のパーツの画像データを入力すべき順番に応じて、画像データの入力をユーザに促す画面を表示するための「おてほんデータ」(図4参照)が用意されている。CPU10は、予めゲームプログラムにおいて用意されている複数のキャラクターからユーザにより作成対象として指定されたキャラクターを選択し、この選択されたキャラクターに対応する「おてほんデータ」に基づいて、タッチパネル20を通じてユーザ操作によりキャラクターの各パーツの画像データが入力される毎に、次の順番のパーツに対応する画像データの入力をユーザに促す画面を表示コントローラ16を通じてディスプレイ17において表示させる。   When inputting image data constituting a character by a user operation in the character creation process, the CPU 10 inputs image data of a plurality of parts such as a head, a torso, a right arm, and a left arm in an order determined according to the character. To do. In the game program executed by the CPU 10, for each of a plurality of characters, “Ohonhon Data” for displaying a screen prompting the user to input image data according to the order in which the image data of a plurality of parts should be input. (See FIG. 4). The CPU 10 selects a character designated as a creation target by the user from a plurality of characters prepared in advance in the game program, and the user through the touch panel 20 based on “Otehon Data” corresponding to the selected character. Each time image data of each part of the character is input by the operation, a screen prompting the user to input image data corresponding to the next part in the order is displayed on the display 17 through the display controller 16.

また、CPU10は、タッチパネル20に対するユーザ操作によってキャラクターを構成する画像データを入力する場合、ユーザの手書きにより描画された画像の画像データ、あるいは予め作成されているキャラクターを構成するパーツに対応する複数の画像データ(後述する「しーる」によって指定される「パーツデータ」(図5参照))からユーザにより指示された画像データの何れかを、ユーザにより選択させることができる。   In addition, when the CPU 10 inputs image data constituting a character by a user operation on the touch panel 20, a plurality of image data corresponding to image data drawn by a user's handwriting or parts constituting a character created in advance. Any one of the image data instructed by the user from the image data (“part data” (see FIG. 5) specified by “Shiru” described later) can be selected by the user.

RAM11は、CPU10により実行されるプログラムやデータなどを一時的に記録する。キャラクター作成処理では、キャラクターを構成する複数のパーツのそれぞれに対応する画像データ(キャラクターデータ)が記録される。複数のパーツのそれぞれに対応する画像データは、各パーツに対応するレイヤによって管理される。また、キャラクター作成処理時には、RAM11には「おてほんデータ」や「パーツデータ」が記録され、必要に応じてCPU10によりアクセスされる。   The RAM 11 temporarily records programs executed by the CPU 10, data, and the like. In the character creation process, image data (character data) corresponding to each of a plurality of parts constituting the character is recorded. Image data corresponding to each of a plurality of parts is managed by a layer corresponding to each part. In addition, during the character creation process, “tehonhon data” and “part data” are recorded in the RAM 11 and accessed by the CPU 10 as necessary.

GPU12,13は、CPU10からの指示に応じて、RAM11に記録されている表示画像を生成するためのデータに基づいて表示画像データを生成するもので、GPU12には、VRAM14が接続され、GPU13には、VRAM15が接続されている。GPU12は、ディスプレイ17において表示するための表示画像データを生成してVRAM14に描画する。GPU13は、同様にディスプレイ18において表示するための表示画像データを生成してVRAM15に描画する。   The GPUs 12 and 13 generate display image data based on data for generating a display image recorded in the RAM 11 in response to an instruction from the CPU 10. The GPU 12 is connected to the VRAM 14 and is connected to the GPU 13. Is connected to the VRAM 15. The GPU 12 generates display image data to be displayed on the display 17 and draws it on the VRAM 14. Similarly, the GPU 13 generates display image data to be displayed on the display 18 and draws it on the VRAM 15.

ディスプレイ17,18は、表示コントローラ16の制御のもとで画像を表示する。ディスプレイ17,18は、例えばヒンジ機構によって開閉可能に結合された2つのハウジングのそれぞれに設けられる。一方のディスプレイ18は、後述するタッチパネル20と積層一体型に形成されている。ディスプレイ17,18は、例えばLCD(Liquid Crystal Display)により構成される。なお、EL(Electroluminescence)などの他の表示装置を用いることも可能である。   The displays 17 and 18 display images under the control of the display controller 16. The displays 17 and 18 are provided in each of two housings coupled so as to be openable and closable by, for example, a hinge mechanism. One display 18 is formed integrally with a touch panel 20 described later. The displays 17 and 18 are composed of, for example, an LCD (Liquid Crystal Display). It is also possible to use other display devices such as EL (Electroluminescence).

表示コントローラ16は、ディスプレイ17,18における画面表示を制御するもので、VRAM14,15に記録された画像データをもとにディスプレイ17において画像を表示させ、VRAM15に記録された画像データをもとにディスプレイ17において画像を表示させる。   The display controller 16 controls screen display on the displays 17 and 18. The display controller 16 displays an image on the display 17 based on the image data recorded on the VRAMs 14 and 15, and based on the image data recorded on the VRAM 15. An image is displayed on the display 17.

インタフェースユニット19は、各種デバイスを接続するためのもので、例えばタッチパネル20、スピーカ21、ボタン群22が接続される。タッチパネル20は、ペン20aを用いたパネル面に対する位置指示に応じた描画(画像)データを入力する。   The interface unit 19 is for connecting various devices. For example, a touch panel 20, a speaker 21, and a button group 22 are connected. The touch panel 20 inputs drawing (image) data corresponding to a position instruction on the panel surface using the pen 20a.

スピーカ21は、CPU10の制御のもとで操作音や各種アプリケーションに応じた各種音(メッセージ音声、音楽、効果音等)を出力させる。
ボタン群22は、ユーザからの指示を入力するためのもので、例えば十字ボタン、スタートボタン、セレクトボタン、Aボタン、Bボタン、Xボタン、Yボタン、電源ボタンなどを含んでいる。
The speaker 21 outputs operation sounds and various sounds (message voice, music, sound effects, etc.) according to various applications under the control of the CPU 10.
The button group 22 is used for inputting an instruction from the user, and includes, for example, a cross button, a start button, a select button, an A button, a B button, an X button, a Y button, and a power button.

コネクタ23は、外部デバイスを着脱自在に接続するためのもので、例えばメモリデバイス24を接続することができる。
メモリデバイス24は、例えばゲームプログラムを記録するROMと、データを書き換え可能に記録するRAM等が搭載されている。メモリデバイス24のRAMには、プログラムの他にも、適宜、CPU10がプログラムを実行して得られる一時的なデータ等が記録される。
The connector 23 is for detachably connecting an external device. For example, the memory device 24 can be connected.
The memory device 24 is equipped with, for example, a ROM that records a game program and a RAM that records data in a rewritable manner. In addition to the program, temporary data and the like obtained by the CPU 10 executing the program are recorded in the RAM of the memory device 24 as appropriate.

通信ユニット26は、他のゲーム装置やネットワークを解して接続された他の機器との間の通信を制御する。   The communication unit 26 controls communication with other game devices and other devices connected via a network.

なお、本実施形態におけるゲームプログラムは、メモリデバイス24等の外部記録媒体を通じてゲーム装置に供給されるだけでなく、有線または無線の通信回線を通じて供給されてもよい。また、ゲームプログラムは、ゲーム装置に実装された不揮発性記録装置に予め記録されていてもよい。なお、ゲームプログラムを記録する記録媒体としては、不揮発性半導体メモリに限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記録媒体でもよい。   Note that the game program in the present embodiment may be supplied not only to the game apparatus through an external recording medium such as the memory device 24 but also through a wired or wireless communication line. The game program may be recorded in advance in a non-volatile recording device mounted on the game device. Note that the recording medium for recording the game program is not limited to the nonvolatile semiconductor memory, but may be a CD-ROM, a DVD, or an optical disk-like recording medium similar to them.

図2は、本実施形態におけるゲーム機の外観構成を示す図である。
図2に示すようにゲーム機は、上側ハウジングと下側ハウジングとがヒンジ機構により結合されて構成されており、上側ハウジングにはディスプレイ17が収納され、下側ハウジングにはディスプレイ18が収納されている。
FIG. 2 is a diagram showing an external configuration of the game machine according to the present embodiment.
As shown in FIG. 2, the game machine is configured such that an upper housing and a lower housing are coupled by a hinge mechanism, a display 17 is stored in the upper housing, and a display 18 is stored in the lower housing. Yes.

上側ハウジングには、スピーカ21が収納されており、スピーカ21から音を外部に放出するための音抜き孔が形成されている。下側ハウジングには、ボタン群22として、スタートスイッチ、セレクトスイッチの他、ゲーム処理の実行時に操作される十字スイッチ22a、Aボタン、Bボタン、Xボタン、Yボタンなどのボタン22bが設けられている。   A speaker 21 is accommodated in the upper housing, and a sound release hole for releasing sound from the speaker 21 to the outside is formed. In the lower housing, as a group of buttons 22, a start switch, a select switch, and a cross switch 22a operated when executing the game process, a button 22b such as an A button, a B button, an X button, and a Y button are provided. Yes.

下側ハウジングに収納されたディスプレイ18の画面上にはタッチパネル20が装着されている。タッチパネル20としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式等、任意の方式のものを利用することができる。タッチパネル20は、その表面をペン20aで触れると、その接触位置に対応する座標データを出力する機能を有する。なお、以下の説明では、ユーザがタッチパネル20をペン20aで操作するものとするが、ペン20aの代わりに指などで操作することも勿論可能である。   A touch panel 20 is mounted on the screen of the display 18 housed in the lower housing. As the touch panel 20, an arbitrary system such as a resistive film system, an optical system (infrared system), and a capacitive coupling system can be used. When the surface of the touch panel 20 is touched with the pen 20a, the touch panel 20 has a function of outputting coordinate data corresponding to the contact position. In the following description, it is assumed that the user operates the touch panel 20 with the pen 20a. However, it is of course possible to operate the touch panel 20 with a finger or the like instead of the pen 20a.

図3は、本実施形態のゲーム機におけるキャラクター作成処理により作成された「キャラクターデータ」のデータ構成の一例を示す図である。
本実施形態におけるゲーム機では、キャラクター作成処理によって、ユーザによる操作によってゲームで使用されるキャラクターを作成することができる。キャラクター作成処理では、複数のキャラクター1,2,3…を作成することが可能であり、キャラクター毎にキャラクターを構成するキャラクターデータ1,2,3…が記録される。例えば、キャラクター1に対応するキャラクターデータ1は、キャラクターを構成する複数の部分(パーツ)の画像データが、それぞれに対応するレイヤ1,2,3…n毎に管理されている。
FIG. 3 is a diagram illustrating an example of a data configuration of “character data” created by the character creation process in the game machine of the present embodiment.
In the game machine according to the present embodiment, a character used in the game can be created by a user operation through the character creation process. In the character creation process, a plurality of characters 1, 2, 3,... Can be created, and character data 1, 2, 3,. For example, in the character data 1 corresponding to the character 1, image data of a plurality of parts (parts) constituting the character is managed for each of the layers 1, 2, 3,.

なお、キャラクターによってパーツの数が異なっていても良い。従って、キャラクターデータに含まれる画像データが記録されるレイヤの数もキャラクターによって異なっていても良い。   Note that the number of parts may differ depending on the character. Therefore, the number of layers in which image data included in the character data is recorded may be different depending on the character.

ゲームプログラムでは、キャラクター毎に、各レイヤの画像データに対して、どのような表示制御をするか、すなわちキャラクターのパーツをどのように動かすか決められている。例えば、キャラクター1に対応するレイヤ1については、キャラクターの頭の部分に相当する画像データが記録されるものとし、頭の動きを表現するように画像データに対して表示制御が行われるようになっている。   In the game program, for each character, it is determined what display control is performed on the image data of each layer, that is, how the character parts are moved. For example, for layer 1 corresponding to character 1, image data corresponding to the head portion of the character is recorded, and display control is performed on the image data so as to express the movement of the head. ing.

図4は、キャラクター作成処理において、ユーザによりキャラクターを作成させる際にお手本を提示するための「おてほんデータ」のデータ構成の一例を示す図である。
本実施形態におけるキャラクター作成処理では、キャラクターを構成する複数の部分(パーツ)の画像データを、それぞれに対応するレイヤによって管理するために、例えばキャラクター毎に決められた順番で複数のパーツの画像データを入力させる。「おてほんデータ」は、キャラクター毎に、ユーザに対して次に入力すべき順番のパーツを提示し、画像データの入力を促すためのデータが設定されている。
FIG. 4 is a diagram illustrating an example of a data configuration of “tehonhon data” for presenting a model when a user creates a character in the character creation process.
In the character creation process in this embodiment, in order to manage the image data of a plurality of parts (parts) constituting the character by using the layers corresponding to each, for example, the image data of a plurality of parts in the order determined for each character. To input. “Otehon Data” is set with data for prompting the user to input image data by presenting the parts in the order to be input next to the user for each character.

例えば、図4に示すように、キャラクター2に対応する「おてほんデータ2」には、キャラクターの「頭」「目」「体」…にそれぞれ対応する、ガイドを表示するためのパーツデータ1,2,3…が設定されている。この場合、キャラクター作成処理において、「頭」「目」「体」…の順番で各パーツの画像データを入力させるためのガイドを出力させる。パーツデータには、次に入力すべきキャラクターの部分をイメージによって表示させるためのイメージデータの他、文章によりガイド表示するためのテキストデータ、音声によって案内をするための音声データなどが含まれる。その他の形式のデータが含まれていても良い。   For example, as shown in FIG. 4, “Otehon Data 2” corresponding to the character 2 includes parts data 1 for displaying guides corresponding to the “head”, “eyes”, “body”,. , 2, 3... Are set. In this case, in the character creation process, a guide for inputting the image data of each part is output in the order of “head”, “eyes”, “body”,. The part data includes image data for displaying the character portion to be input next as an image, text data for guide display by text, voice data for guidance by voice, and the like. Other types of data may be included.

図5は、キャラクター作成処理において、ユーザの手書きによる画像データの入力ではなく、予め作成された画像データを用いる場合のパーツデータの一例を示す図である。
本実施形態におけるキャラクター作成処理では、キャラクターのパーツの画像データを入力する場合に、ユーザのペン20aを用いた手書きにより描画された画像の画像データだけでなく、パーツデータとして予め用意された画像データを利用することができる。パーツデータは、1つのパーツに対して複数の種類のパターン(画像データ)が用意されており、ユーザが何れかのパターンを任意に選択することができる。また、1つのパーツに対して、ゲーム中のキャラクター動作の違いに応じたパターンによって表示(アニメーション化)することができるように、キャラクター動作別の複数のパーツパターンデータが用意されている。
FIG. 5 is a diagram illustrating an example of part data in the case of using image data created in advance instead of inputting image data by handwriting by the user in the character creation processing.
In the character creation processing in the present embodiment, when inputting image data of a character part, not only image data of an image drawn by handwriting using the user's pen 20a but also image data prepared in advance as part data Can be used. As part data, a plurality of types of patterns (image data) are prepared for one part, and the user can arbitrarily select any one of the patterns. In addition, a plurality of part pattern data for each character action is prepared so that one part can be displayed (animated) by a pattern corresponding to a difference in character action during the game.

例えば、図5に示すように、キャラクターのパーツ「目」に対しては、キャラクターの動作1,2…のそれぞれに応じたパーツパターンデータ(画像データ)が用意されている。パーツパターンデータには、キャラクターをアニメーション化した時にパーツが動いていることを表現するための動作内容に応じて、キャラクター動作毎に対応する複数のパーツパターン1,2…が含まれている。例えば、通常の動作1においてキャラクターが目を閉じることを表現するために、目を開けている状態、目を閉じかけている状態、目を閉じた状態の3つのパーツパターンが用意されている。この3つのパーツパターンを切り替えながら繰り返し表示することで、目を閉じたり、開けたりする動作を表現することができるようになる。   For example, as shown in FIG. 5, part pattern data (image data) corresponding to each of character actions 1, 2,... The part pattern data includes a plurality of part patterns 1, 2,... Corresponding to each character action according to the action content for expressing that the part is moving when the character is animated. For example, in order to express that the character closes the eyes in the normal operation 1, three part patterns are prepared: an eye open state, an eye close state, and an eye close state. By repeatedly displaying these three part patterns while switching, it is possible to express an operation of closing or opening the eyes.

図6は、本実施形態のキャラクター作成処理により作成されるキャラクターデータとレイヤとの関係を示す図である。
図6に示すように、キャラクターを構成する複数のパーツのそれぞれに対応する画像データが入力されると、各パーツのそれぞれに対応するレイヤに分けて画像データを記録する。各レイヤに対しては、キャラクターの種類に応じて何れのパーツの画像データを記録するか決められており、キャラクターに応じてパーツに応じたアニメーション動作をするように予め決められた表示制御がおこなわれる。
FIG. 6 is a diagram showing the relationship between character data created by the character creation processing of this embodiment and layers.
As shown in FIG. 6, when image data corresponding to each of a plurality of parts constituting the character is input, the image data is recorded in layers corresponding to the respective parts. For each layer, it is determined which part of the image data is recorded according to the character type, and display control is performed in advance so that an animation operation corresponding to the part is performed according to the character. It is.

次に、本実施形態におけるゲーム機の動作について、フローチャートを参照しながら説明する。
図7は、本実施形態のゲーム機における全体処理を説明するフローチャート、図8は、全体処理中のキャラクター作成処理における描画処理を説明するフローチャートである。
CPU10は、ゲームプログラムが起動されると、ゲーム中で使用されるキャラクターを表示させるためのキャラクターデータが例えばメモリデバイス24に記録されているかを判別する。ここで、キャラクターデータが記録されている場合(ステップA1、Yes)、CPU10は、その既存のキャラクターデータを使用するかユーザに問い合わせる画面を、表示コントローラ16を通じてディスプレイ18に表示させる。
Next, the operation of the game machine in the present embodiment will be described with reference to a flowchart.
FIG. 7 is a flowchart for explaining the overall processing in the game machine of this embodiment, and FIG. 8 is a flowchart for explaining the drawing processing in the character creation processing during the overall processing.
When the game program is activated, the CPU 10 determines whether character data for displaying a character used in the game is recorded in, for example, the memory device 24. If character data is recorded (step A1, Yes), the CPU 10 causes the display 18 to display a screen asking the user whether to use the existing character data.

ここで、キャラクターデータを使用する指示がペン20aによるユーザ操作により入力された場合(ステップA2、Yes)、CPU10は、メモリデバイス24に記録されている既存のキャラクターデータを読み込み(ステップA3)、ゲームプレイ処理を開始する。CPU10は、ゲームプレイ処理によって、メモリデバイス24から読み込んだキャラクターデータを用いてゲーム画面中にキャラクターを表示させ、ゲーム内容に応じてキャラクターを動作させる(ステップA4)。なお、ゲームプレイ処理の詳細については後述する(図11、図12参照)。   If an instruction to use character data is input by a user operation with the pen 20a (step A2, Yes), the CPU 10 reads the existing character data recorded in the memory device 24 (step A3), and the game Start the play process. CPU10 displays a character on a game screen using the character data read from the memory device 24 by a game play process, and operates a character according to a game content (step A4). Details of the game play process will be described later (see FIGS. 11 and 12).

なお、ゲームプレイ処理において実行されるゲーム内容としては、ゲーム画面に表示されたキャラクターに対する所定の操作(例えば、ペン20aを用いて撫でたり、突いたりする操作など)や時間経過に伴ってキャラクターの反応(動き)が変化する育成系のゲーム、予め用意されたアイテム(楽器やボールなど)をキャラクターに与えることで、アイテムに応じた動作をキャラクターにさせるゲーム、あるいは予め用意された課題を達成するようにキャラクターを動かすミニゲームなどが実行可能である。   Note that the game content executed in the game play process includes a predetermined operation on the character displayed on the game screen (for example, an operation of stroking or striking with the pen 20a) and the character's content as time passes. A game of breeding that changes reaction (movement), a game that makes a character perform an action according to an item by giving a character a pre-prepared item (instrument, ball, etc.), or a pre-prepared task A mini-game that moves characters can be executed.

ゲームプレイ処理では、各ゲーム内容に応じて、キャラクターの動きが決められており、キャラクターを構成する各パーツの画像データ、すなわち各レイヤの画像データに対して表示制御が行われる。   In the game play process, the movement of the character is determined according to each game content, and display control is performed on the image data of each part constituting the character, that is, the image data of each layer.

一方、メモリデバイス24に既存のキャラクターデータが記録されていない場合(ステップA1、No)、あるいは既存のキャラクターデータを使用しない指示がユーザにより入力された場合には(ステップA2、No)、CPU10は、キャラクター作成処理を実行する(ステップA7〜A14)。   On the other hand, when the existing character data is not recorded in the memory device 24 (step A1, No), or when an instruction not to use the existing character data is input by the user (step A2, No), the CPU 10 Then, the character creation process is executed (steps A7 to A14).

CPU10は、キャラクター作成処理に移行すると、「おてほんデータ」が用意されている作成可能な複数のキャラクターの一覧を表示させて、作成対象とするキャラクターをユーザに選択させる。ここで、何れかのキャラクターが選択されると、CPU10は、該当するキャラクターの「おてほんデータ」を読出し、この「おてほんデータ」を用いてキャラクターに応じたガイド表示を開始する。   When the CPU 10 shifts to the character creation process, the CPU 10 displays a list of a plurality of characters that can be created with “Otehon Data” and allows the user to select a character to be created. Here, when any character is selected, the CPU 10 reads out “Otehon Data” of the corresponding character and starts guide display according to the character using this “Otehon Data”.

ここでは、「くま」のキャラクターの作成がユーザにより選択されたものとする。この「くま」のキャラクターは、複数のパーツ「頭」「胴体」「右腕」「左腕」「右足」「左足」「羽根」によって構成され、パーツ毎に画像データを入力する描画処理(ステップA7〜A13)が実行される。   Here, it is assumed that the creation of the character “Kuma” is selected by the user. The character of “Kuma” is composed of a plurality of parts “head”, “body”, “right arm”, “left arm”, “right foot”, “left foot”, and “wings”, and drawing processing for inputting image data for each part (steps A7 to A7) A13) is executed.

図8は、あるパーツに対応する画像データを入力するための描画処理を示すフローチャートである。図9及び図10は、キャラクター作成処理時に表示される画面の一例を示す図である。なお、図9(a)〜(d)、図10(a)において、上段側がディスプレイ17において表示される画面、下段側がディスプレイ18において表示される画面を示している。   FIG. 8 is a flowchart showing a drawing process for inputting image data corresponding to a certain part. 9 and 10 are diagrams illustrating examples of screens displayed during the character creation process. 9A to 9D and 10A, the upper side shows the screen displayed on the display 17, and the lower side shows the screen displayed on the display 18.

CPU10は、「おてほんデータ」のパーツデータをもとに、お手本画像とメッセージを、ガイド表示に使用するディスプレイ17において表示させる。なお、CPU10は、「おてほんデータ」に音声データが含まれる場合には、この音声データを用いてインタフェースユニット19を通じて、スピーカ21からガイドメッセージを音声出力させる。   The CPU 10 displays a model image and a message on the display 17 used for guide display based on the part data of “Otehon Data”. Note that, when the audio data is included in “Otehon Data”, the CPU 10 causes the audio message to be output from the speaker 21 through the interface unit 19 using the audio data.

例えば、図9(a)は、パーツ「頭」の描画処理時の表示画面を示している。図9(a)に示すように、ガイド表示として、描画対象とするパーツ「頭」の見本となるお手本画像と共に、「あたまをかこう!」のメッセージが表示されている。   For example, FIG. 9A shows a display screen during the drawing process of the part “head”. As shown in FIG. 9A, as a guide display, a message “Let's take care!” Is displayed together with a model image as a sample of the part “head” to be drawn.

ここで、ユーザは、お手本画像を見ながらペン20aを用いてディスプレイ18(タッチパネル20)上で「頭」に相当する画像を手書き入力することによって、パーツ「頭」の画像データを入力することができる(ステップB5)。   Here, the user can input the image data of the part “head” by handwriting input an image corresponding to the “head” on the display 18 (touch panel 20) using the pen 20a while looking at the model image. Yes (step B5).

CPU10は、描画対象としているパーツ「頭」に対応するレイヤに、タッチパネル20を通じて手書きによって描画された画像の画像データ(描画イメージ)を記録する(ステップB6)。図9(a)の下段(ディスプレイ18の表示)では、お手本画像を参考にしてパーツ「頭」が描画され、その描画イメージが表示されている状態を示している。   The CPU 10 records image data (drawing image) of an image drawn by handwriting through the touch panel 20 in a layer corresponding to the part “head” to be drawn (step B6). In the lower part of FIG. 9A (display 18), the part “head” is drawn with reference to the model image, and the drawing image is displayed.

なお、ディスプレイ18においては、パーツを描画する時の色を複数の中から選択することができるパレット(画面の下辺部に配列されている)の他、描画したイメージを消すことができる消去モードへの切り替えを指示する「けす」、パーツデータの選択を指示する「しーる」、次のパーツへの描画処理への移行を指示する「すすむ」、キャラクター作成処理の終了を指示する「おわり」の各アイコンメニューが表示されている。なお、アイコンメニューは、ユーザによって選択可能なものが表示されるものとする。   In addition, in the display 18, in addition to a palette (arranged at the lower side of the screen) from which a color for drawing a part can be selected from a plurality of colors, an erase mode in which the drawn image can be erased. "Kesu" to instruct switching, "Shiru" to instruct the selection of part data, "Proceed" to instruct the transition to the drawing process to the next part, "End" to instruct the end of the character creation process Each icon menu is displayed. It is assumed that the icon menu that can be selected by the user is displayed.

CPU10は、アイコンメニューの「すすむ」が選択されると(ステップB8、Yes)、現在のパーツ「頭」から次のパーツ「胴体」についての描画処理に移行する。   When “Proceed” is selected from the icon menu (step B8, Yes), the CPU 10 shifts from the current part “head” to the drawing process for the next part “body”.

また、描画処理では、手書きによる描画によって画像データを入力するのではなく、既存の「パーツデータ」を利用して画像入力することができる。CPU10は、ユーザによって「しーる」のアイコンメニューが選択されると(ステップB2、Yes)、現在のパーツにおいて使用できる「しーる」を選択するための選択画面を表示させる。例えば、「目」の「しーる」(パーツパターン)を貼り付けることが可能な場合、複数種類の「目」の一覧メニューを表示させて、その中からユーザに選択させる。   In the drawing process, image data can be input using existing “part data”, instead of inputting image data by hand-drawn drawing. When the user selects the “Shirel” icon menu (step B2, Yes), the CPU 10 displays a selection screen for selecting “Shirel” that can be used in the current part. For example, in the case where “eye” (part pattern) of “eyes” can be pasted, a list menu of a plurality of types of “eyes” is displayed, and the user is made to select from the list menu.

CPU10は、選択された「目」のパーツパターンを画面中に表示させ、ペン20aの操作によってパーツパターンの位置を指定させる。CPU10は、表示対象とするパーツに対応するレイヤにパーツデータ(パーツパターンデータ(画像データ))を記録する(ステップB4)。   The CPU 10 displays the part pattern of the selected “eye” on the screen, and designates the position of the part pattern by operating the pen 20a. The CPU 10 records part data (part pattern data (image data)) in a layer corresponding to the part to be displayed (step B4).

図9(b)は、「目」の「しーる」を貼り付ける場合の表示画面の一例を示している。アイコンメニューの「しーる」が選択されると、図9(b)の上段(ディスプレイ17)に示すように、目の部分が入力対象となっていることを表すお手本画像を表示すると共に「めのしーるをはろう!」のメッセージを表示する。ユーザは、前述したように、右目と左目のそれぞれについて、「しーる」の種類を選択して、貼り付ける位置を指定することで、図9(b)の下段(ディスプレイ18)のように表示させることができる。   FIG. 9B shows an example of a display screen in the case where “eye” of “eye” is pasted. When “SHIRU” is selected from the icon menu, as shown in the upper part (display 17) of FIG. The message “Let ’s do it!” Is displayed. As described above, the user selects the type of “Shiru” for each of the right eye and the left eye and designates the position to be pasted, as shown in the lower part of FIG. 9B (display 18). Can be displayed.

なお、前述した説明では、パーツ「頭」の一部として「目」の「しーる」を貼り付けるものとしているが、「目」の部分のみをパーツとして扱い、パーツ「頭」とは異なるレイヤによって管理されるようにしても良い。また、前述した説明では「目」についてのみ説明しているが、キャラクターの他の部分、例えば「口」などについても「しーる」(パーツデータ)の貼り付けの操作によって画像データを入力することができる。また、「しーる」の貼り付けが可能なパーツであっても、手書きによる描画によって画像データを入力することもできる。   In the above description, the “eye” “sheel” is pasted as a part of the part “head”, but only the “eye” part is treated as a part, which is different from the part “head”. You may make it manage by a layer. In the above description, only “eyes” are described, but image data is also input to other parts of the character, such as “mouth”, by pasting “Shir” (part data). be able to. Further, even if the part can be pasted with “Shiru”, the image data can be input by hand drawing.

以下、同様にして、例えば図9(c)(パーツ「胴体」の部分)、図9(d)(パーツ「右腕」)、図10(a)(パーツ「右足」)のように、各パーツについて、お手本画像と共にパーツの入力を促すメッセージを表示しながら、各パーツに対する画像データを入力し、パーツに対応するレイヤに記録していく。   Hereinafter, in the same manner, for example, as shown in FIG. 9C (part “body”), FIG. 9D (part “right arm”), and FIG. 10A (part “right foot”). The image data for each part is input and displayed on the layer corresponding to the part while displaying a message prompting the input of the part together with the model image.

そして、「おわり」のアイコンメニューがユーザにより選択されると、CPU10は、各パーツに対して入力された画像データをキャラクターデータとして保存する(ステップA14)。図10(b)には、キャラクター作成処理によって作成されたキャラクターの一例を示している。CPU10は、各パーツに対応するレイヤによって管理された画像データをそれぞれ重ね合わせて表示することで、1つのキャラクターを表示させることができる。   When the “end” icon menu is selected by the user, the CPU 10 stores the image data input to each part as character data (step A14). FIG. 10B shows an example of a character created by the character creation process. The CPU 10 can display one character by superimposing and displaying the image data managed by the layer corresponding to each part.

CPU10は、このキャラクターデータにより表示されるキャラクターを用いたゲームプレイ処理を開始する(ステップA4)。CPU10は、ゲームプレイ処理において、キャラクターデータを用いてゲーム画面中にキャラクターを表示させ、ゲーム内容に応じてキャラクターを動作させる。   CPU10 starts the game play process using the character displayed by this character data (step A4). In the game play process, the CPU 10 displays the character on the game screen using the character data, and operates the character according to the game content.

図11は、ゲームプレイ処理を説明するフローチャートである。
CPU10は、ユーザ操作や予めゲームプログラムにおける設定内容に応じたゲーム処理を実行する(ステップC1)。CPU10は、ゲーム処理においてキャラクターを動作させる状況となった場合(ステップC2、Yes)、各レイヤの画像データ(手書き描画イメージ、パーツデータ)のそれぞれに対して、パーツ毎に決められた表示制御を行う(ステップC3)。これにより、ゲーム画面中において、キャラクターをゲーム状況に合わせて動かす(アニメーション化する)ことができる。
FIG. 11 is a flowchart for explaining the game play process.
CPU10 performs the game process according to user operation or the setting content in a game program previously (step C1). CPU10 performs the display control decided for every part with respect to each of the image data (handwritten drawing image, part data) of each layer, when it will be in the situation where a character is operated in game processing (Step C2, Yes). Perform (Step C3). Thereby, the character can be moved (animated) in accordance with the game situation on the game screen.

例えば、育成系のゲームの実行中に、ユーザによるペン20aの操作によってキャラクターが撫でられた場合、キャラクターが喜んでいることを表現するようにキャラクターを動作させる。CPU10は、ゲームプログラムにおいて、キャラクターが喜んでいることを表現する動作をさせるために、各レイヤのパーツに
図12には、キャラクターのパーツに対する表示制御の一例を示している。図12は、キャラクター「くま」の「右腕」に対する表示制御の例を示している。例えば、キャラクターのパーツ「右腕」に対応するレイヤについては、図12(a)に示すように、手書きにより入力された描画イメージ(画像データ)の最初の入力点(始点)を基準として、図12(b)に示すように、所定の角度内で回転させるように表示制御が決められている。通常、右腕を描画する場合には、胴体に近い位置から描画を開始する場合が多いため、始点を基準として回転するように画像データに対して表示制御することで、右腕として入力された描画イメージに対して、腕を上下に振っているように表現することができる。
For example, when a character is stroked by a user's operation of the pen 20a while a breeding game is being executed, the character is operated so as to express that the character is happy. FIG. 12 shows an example of display control for the character parts in the parts of each layer in order for the CPU 10 to perform an action expressing that the character is happy in the game program. FIG. 12 shows an example of display control for the “right arm” of the character “Kuma”. For example, with respect to the layer corresponding to the character part “right arm”, as shown in FIG. 12A, the first input point (start point) of the drawing image (image data) input by handwriting is used as a reference. As shown in (b), display control is determined to rotate within a predetermined angle. Normally, when drawing the right arm, drawing often starts from a position close to the torso, so by controlling the display of image data so that it rotates with the start point as the reference, the drawing image input as the right arm On the other hand, it can be expressed as if the arm is swung up and down.

同様にして、各レイヤに対して決められた表示制御を行うことで、各レイヤに対応するパーツに応じた動作をするようにキャラクターを動作させることができる。なお、当然ながら、ゲーム処理の状況に応じてキャラクター動作が決定され、各キャラクター動作の内容に応じて各パーツ(レイヤ)に対する表示制御の内容も変えられるものとする。   Similarly, by performing display control determined for each layer, the character can be operated so as to perform an action corresponding to the part corresponding to each layer. Of course, it is assumed that the character action is determined according to the game processing status, and the display control content for each part (layer) can be changed according to the content of each character action.

また、図13(a)(b)に示すように、他のパーツに対して入力された描画イメージ(画像データ)の位置関係に基づいて表示制御を行うようにしても良い。図13(a)は、パーツの「頭」と「胴体」との関係を示している。例えば、パーツ「頭」に対して入力された画像データの重心位置G1と、パーツ「胴体」に対して入力された画像データの重心位置G2とを結ぶ線を基準線として、重心位置G1においてパーツ「頭」の画像データに対して、時計回り/反時計回りで同じ角度分回転させる。これにより、例えば、胴体が斜めに描画されたとしても、パーツ「頭」を胴体部分に対して適切な向きで動かすことができる。   Further, as shown in FIGS. 13A and 13B, display control may be performed based on the positional relationship of drawing images (image data) input to other parts. FIG. 13A shows the relationship between the “head” of the part and the “body”. For example, a part connecting the center of gravity position G1 of the image data input to the part “head” and the center of gravity position G2 of the image data input to the part “torso” is used as a reference line at the part of the center of gravity position G1. The image data of “head” is rotated by the same angle clockwise / counterclockwise. Thereby, for example, even if the trunk is drawn obliquely, the part “head” can be moved in an appropriate direction with respect to the trunk portion.

なお、表示制御の対象とするレイヤに対してパーツデータが選択されている場合には、図14のフローチャートに示す表示制御が行われるものとする。   Note that when part data is selected for a display control target layer, display control shown in the flowchart of FIG. 14 is performed.

例えば、CPU10は、ゲーム状況に応じてキャラクターを動作させる場合に、そのキャラクター動作に応じたパーツパターンデータを読出し(ステップD1)、
例えば、通常の動作1においてキャラクターが目を閉じることを表現するために、図15(a)〜(c)に示すような、目を開けている状態、目を閉じかけている状態、目を閉じた状態の3つのパーツパターンデータを順次読み出して、キャラクター動作に合わせて該当するレイヤの画像データを書き換えることによって、目を閉じたり、開けたりする動作を表現することができるようになる。
For example, when the character is operated according to the game situation, the CPU 10 reads out part pattern data corresponding to the character operation (step D1),
For example, in order to express that the character closes the eyes in the normal action 1, as shown in FIGS. 15A to 15C, the eyes are opened, the eyes are closed, the eyes are closed. By sequentially reading the three part pattern data in the closed state and rewriting the image data of the corresponding layer in accordance with the character action, it becomes possible to express the action of closing or opening the eyes.

また、キャラクター動作に応じて、例えば図15(d)に示すような、キャラクターに困った表情をさせるための「目」のパーツパターンデータを用意することで、
こうして、手書きによって描画された画像の画像データと、予め用意されたパーツデータとの組合せによってキャラクターを作成することができ、パーツパターンに対する制御によって、手書き入力された画像データに対する表示制御だけでは表現できないキャラクターに豊かな表情を持たせることができる。
Also, by preparing part pattern data of “eyes” for making the character have troublesome expressions as shown in FIG.
Thus, a character can be created by a combination of image data of an image drawn by handwriting and part data prepared in advance, and cannot be expressed only by display control for handwritten input image data by controlling the part pattern. A character can have a rich expression.

このようにして、本実施形態におけるゲーム機では、キャラクター作成処理において、作成対象とするキャラクターを構成するパーツ毎に、手書きによる描画あるいは「しーる」(パーツデータ)の指定により画像データを入力するだけで、簡単にキャラクターを作成することができる。パーツ毎に入力された画像データは、パーツ毎にレイヤにより管理されるので、3Dモデルのように奥行きを意識する必要がなくなり、各パーツ間の位置関係を配慮しながら画像データを入力する必要がないので、キャラクター作成の難易度を大幅に低下させることができる。また、各パーツの外形状を一筆で閉じた絵として入力するといった制約もないため、1つのパーツをレイヤ内に自由な感覚で描画できるようになる。例えば線描だけのパーツや塗りつぶしたパーツなど、小さな子供による落書きに近い感覚でキャラクターを作成することができる。また、作成対象とするキャラクターに応じたパーツ毎のガイド表示を予め決められた順番で提示するので、ガイドに従って各パーツの画像データを入力することで、キャラクター毎に決められた複数のレイヤに対して適切なパーツの画像データを描画でき、ユーザに何ら負担を与えないで済む。   In this way, in the game machine according to the present embodiment, in the character creation process, image data is input by hand-drawn drawing or “shiru” (part data) designation for each part constituting the character to be created. You can easily create a character. Since the image data input for each part is managed by the layer for each part, there is no need to be aware of the depth as in the 3D model, and it is necessary to input the image data while considering the positional relationship between the parts. Since there is no character, the difficulty of character creation can be greatly reduced. In addition, since there is no restriction that the external shape of each part is input as a closed picture with a single stroke, one part can be drawn in the layer freely. For example, a character can be created with a feeling similar to graffiti by a small child, such as a line drawing only part or a painted part. Also, because the guide display for each part corresponding to the character to be created is presented in a predetermined order, the image data of each part is input according to the guide, so that multiple layers determined for each character can be displayed. Therefore, image data of appropriate parts can be drawn, and there is no burden on the user.

なお、前述した説明では、キャラクターを描画するためのパーツの順番が予め決められているとしているが、ユーザが描画しようとするキャラクターのパーツ(例えば「頭」「右手」など)を指定できるようにしても良い。この場合、ユーザにより指定されたパーツについてのお手本画像を表示し、これに対して手書き入力された描画イメージ、あるいは「しーる」メニューから選択されたパーツイメージ(画像データ)を、該当するパーツに対応するレイヤに描画する。   In the above description, the order of parts for drawing a character is determined in advance. However, the user can specify the part of the character to be drawn (for example, “head”, “right hand”, etc.). May be. In this case, a model image of a part specified by the user is displayed, and a drawing image input by hand or a part image (image data) selected from the “Shiru” menu is displayed as the corresponding part. Draw on the layer corresponding to.

また、前述した説明では、2つのディスプレイ17,18を設けた構成とするゲーム機を例にしているが、ディスプレイが1つのゲーム機においても当然ながら実現可能である。すなわち、1つのディスプレイにおいてディスプレイ17,18のそれぞれに相当する表示領域を設けて、前述と同様の表示制御を行えばよい。   In the above description, a game machine having two displays 17 and 18 is taken as an example, but it is naturally possible to realize a game machine with one display. That is, a display area corresponding to each of the displays 17 and 18 may be provided in one display, and display control similar to that described above may be performed.

また、タッチパネル20に対してペン20aを用いて手書きによる画像データを入力すもとしているが、その他のポインティングデバイス(マウス、ジョイスティック等)を用いることも可能である。   In addition, although handwritten image data is input to the touch panel 20 using the pen 20a, other pointing devices (mouse, joystick, etc.) can be used.

また、携帯型のゲーム機を対象として説明しているが、ゲームセンター等に設置される業務用のゲーム機、家庭用の据え置き型のゲーム機などの他、パーソナルコンピュータや携帯電話機などのゲーム機として機能させることが可能な装置に適用することが可能である。   In addition, although described for portable game machines, game machines such as personal computers and mobile phones, as well as commercial game machines installed at game centers and the like, stationary game machines for home use, etc. It is possible to apply to an apparatus that can function as

また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、実施形態に記載した手法は、コンピュータに実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、コンピュータに実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)をコンピュータ内に構成させる設定プログラムをも含む。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、コンピュータ内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記録媒体を含むものである。   In addition, the method described in the embodiment is, for example, a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), a semiconductor memory, etc. It can also be stored in a recording medium such as (ROM, RAM, flash memory, etc.), or transmitted and distributed via a communication medium. The program stored on the medium side also includes a setting program that configures in the computer software means (including not only the execution program but also a table and data structure) that is executed by the computer. A computer that implements the present apparatus reads the program recorded on the recording medium, constructs software means by a setting program in some cases, and executes the above-described processing by controlling the operation by the software means. The recording medium referred to in this specification is not limited to the distribution, but includes a recording medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network.

10…CPU、11…RAM、12,13…GPU、14,15…VRAM、16…表示コントローラ、17,18…ディスプレイ、19…インタフェースユニット、20…タッチパネル、20a…ペン、21…スピーカ、22…ボタン群、23…コネクタ、24…メモリデバイス、26…通信ユニット。  DESCRIPTION OF SYMBOLS 10 ... CPU, 11 ... RAM, 12, 13 ... GPU, 14,15 ... VRAM, 16 ... Display controller, 17, 18 ... Display, 19 ... Interface unit, 20 ... Touch panel, 20a ... Pen, 21 ... Speaker, 22 ... Button group, 23 ... connector, 24 ... memory device, 26 ... communication unit.

Claims (5)

キャラクターを構成する複数の部分の画像データをユーザ操作に応じて入力する入力手段と、
前記入力手段によって入力された画像データを前記キャラクターを構成する複数の部分のそれぞれに対応するレイヤ毎に記録する記録手段と、
前記記録手段によりレイヤ毎に記録された画像データをもとに前記キャラクターを表示する表示手段と、
前記記録手段により記録されたレイヤ毎の画像データに対して、前記表示手段により表示対象となっている前記キャラクターに応じて前記レイヤのそれぞれに決められた表示制御を行う表示制御手段と
を具備したことを特徴とするゲーム機。
Input means for inputting image data of a plurality of parts constituting the character in response to a user operation;
Recording means for recording image data input by the input means for each layer corresponding to each of a plurality of parts constituting the character;
Display means for displaying the character based on the image data recorded for each layer by the recording means;
Display control means for performing display control determined for each of the layers according to the character to be displayed by the display means on the image data for each layer recorded by the recording means. A game machine characterized by that.
前記入力手段は、前記キャラクターに応じて決められた順番で前記複数の部分の画像データを入力することを特徴とする請求項1記載のゲーム機。   The game machine according to claim 1, wherein the input means inputs the image data of the plurality of portions in an order determined according to the character. 複数のキャラクターのそれぞれについて、前記複数の部分の画像データを入力すべき順番に応じて、前記画像データの入力を前記ユーザに促す画面を表示するためのデータを記録するデータ記録手段と、
ユーザにより指定されたキャラクターを選択するキャラクター選択手段と、
前記キャラクター選択手段により選択されたキャラクターに対応する前記データ記録手段に記録されたデータに基づいて、前記入力手段により前記キャラクターの各部分の画像データが入力される毎に、次の順番の部分に対応する前記画像データの入力を前記ユーザに促す画面を表示するガイド表示手段とをさらに具備したことを特徴とする請求項2記載のゲーム機。
For each of a plurality of characters, data recording means for recording data for displaying a screen prompting the user to input the image data according to the order in which the image data of the plurality of portions should be input;
A character selection means for selecting a character designated by the user;
Based on the data recorded in the data recording means corresponding to the character selected by the character selection means, every time image data of each part of the character is input by the input means, 3. The game machine according to claim 2, further comprising guide display means for displaying a screen prompting the user to input the corresponding image data.
前記入力手段は、
ユーザによる手書きにより描画された画像の画像データを入力する画像データ入力手段と、
予め作成されている前記キャラクターを構成する部分に対応する画像データをユーザからの指示に応じて選択する画像データ選択手段とを有し、
前記記録手段は、
前記画像データ入力手段によって入力された画像データ、あるいは前記画像データ選択手段により選択された画像データを記録することを特徴とする請求項1または3記載のゲーム機。
The input means includes
Image data input means for inputting image data of an image drawn by handwriting by a user;
Image data selection means for selecting image data corresponding to a part constituting the character created in advance according to an instruction from the user;
The recording means includes
4. The game machine according to claim 1, wherein the image data input by the image data input means or the image data selected by the image data selection means is recorded.
コンピュータを、
キャラクターを構成する複数の部分の画像データをユーザ操作に応じて入力する入力手段と、
前記入力手段によって入力された画像データを前記キャラクターを構成する複数の部分のそれぞれに対応するレイヤ毎に記録する記録手段と、
前記記録手段によりレイヤ毎に記録された画像データをもとに前記キャラクターを表示する表示手段と、
前記記録手段により記録されたレイヤ毎の画像データに対して、前記表示手段により表示対象となっている前記キャラクターに応じて前記レイヤのそれぞれに決められた表示制御を行う表示制御手段として機能させるためのゲームプログラム。
Computer
Input means for inputting image data of a plurality of parts constituting the character in response to a user operation;
Recording means for recording image data input by the input means for each layer corresponding to each of a plurality of parts constituting the character;
Display means for displaying the character based on the image data recorded for each layer by the recording means;
To function as display control means for performing display control determined for each of the layers in accordance with the character to be displayed by the display means on the image data for each layer recorded by the recording means. Game program.
JP2009102131A 2009-04-20 2009-04-20 Game machine, game program Active JP5581002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009102131A JP5581002B2 (en) 2009-04-20 2009-04-20 Game machine, game program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009102131A JP5581002B2 (en) 2009-04-20 2009-04-20 Game machine, game program

Publications (2)

Publication Number Publication Date
JP2010246845A true JP2010246845A (en) 2010-11-04
JP5581002B2 JP5581002B2 (en) 2014-08-27

Family

ID=43309890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009102131A Active JP5581002B2 (en) 2009-04-20 2009-04-20 Game machine, game program

Country Status (1)

Country Link
JP (1) JP5581002B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012200288A (en) * 2011-03-23 2012-10-22 Square Enix Co Ltd Device and program for preparing character
JP2016524221A (en) * 2013-05-14 2016-08-12 クアルコム,インコーポレイテッド Augmented reality (AR) capture and play
WO2018168546A1 (en) * 2017-03-14 2018-09-20 株式会社コナミデジタルエンタテインメント Computer program for use in game system
JP2020009220A (en) * 2018-07-10 2020-01-16 株式会社シス Character data management method, system and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085826A (en) * 2000-09-19 2002-03-26 Namco Ltd Game system and information storage medium
JP2003337956A (en) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd Apparatus and method for computer graphics animation
JP2006081796A (en) * 2004-09-17 2006-03-30 Taito Corp Game device allowing player to determine parameter by color
JP2008033521A (en) * 2006-07-27 2008-02-14 Namco Bandai Games Inc Program, information storage medium and image generation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085826A (en) * 2000-09-19 2002-03-26 Namco Ltd Game system and information storage medium
JP2003337956A (en) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd Apparatus and method for computer graphics animation
JP2006081796A (en) * 2004-09-17 2006-03-30 Taito Corp Game device allowing player to determine parameter by color
JP2008033521A (en) * 2006-07-27 2008-02-14 Namco Bandai Games Inc Program, information storage medium and image generation system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNB200900654001; '基本編 似顔絵チャンネル' 家族で遊ぶみんなのWii , 20080201, P.36-37, 株式会社メディアボーイ *
CSNE200800047052; ファミ通ディーエスプラスウィー 第9巻第4号, 20070401, P.142, 株式会社エンターブレイン *
JPN6014000260; '基本編 似顔絵チャンネル' 家族で遊ぶみんなのWii , 20080201, P.36-37, 株式会社メディアボーイ *
JPN6014000263; ファミ通ディーエスプラスウィー 第9巻第4号, 20070401, P.142, 株式会社エンターブレイン *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012200288A (en) * 2011-03-23 2012-10-22 Square Enix Co Ltd Device and program for preparing character
JP2016524221A (en) * 2013-05-14 2016-08-12 クアルコム,インコーポレイテッド Augmented reality (AR) capture and play
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US11112934B2 (en) 2013-05-14 2021-09-07 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US11880541B2 (en) 2013-05-14 2024-01-23 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
WO2018168546A1 (en) * 2017-03-14 2018-09-20 株式会社コナミデジタルエンタテインメント Computer program for use in game system
JP2018149204A (en) * 2017-03-14 2018-09-27 株式会社コナミデジタルエンタテインメント Computer program for use in game system
JP7016135B2 (en) 2017-03-14 2022-02-04 株式会社コナミデジタルエンタテインメント Computer programs used in game systems
JP2020009220A (en) * 2018-07-10 2020-01-16 株式会社シス Character data management method, system and program

Also Published As

Publication number Publication date
JP5581002B2 (en) 2014-08-27

Similar Documents

Publication Publication Date Title
TWI439960B (en) Avatar editing environment
JP5436912B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
US20120107790A1 (en) Apparatus and method for authoring experiential learning content
JP4583472B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
CN107636593A (en) For equipment, method and the graphic user interface for providing virtual drawing Aids He interacting
JP5386070B2 (en) GAME DEVICE, GAME SCREEN DISPLAY PROGRAM, AND DISPLAY CONTROL METHOD
JP2006122241A (en) Game device and game program
JP4922797B2 (en) Information processing apparatus and program thereof
JP5581002B2 (en) Game machine, game program
Walter et al. Learning MIT app inventor: A hands-on guide to building your own android apps
JP6294035B2 (en) Information processing apparatus, system, method, and program
WO2008018465A1 (en) Event processor
US20230123535A1 (en) Online machine learning-based dialogue authoring environment
JP2009026239A (en) Device, and method for editing graphical user interface, and program
Magni Delphi GUI Programming with FireMonkey: Unleash the full potential of the FMX framework to build exciting cross-platform apps with Embarcadero Delphi
Bucanek Learn IOS 8 App Development
Sayara et al. GestureCanvas: A Programming by Demonstration System for Prototyping Compound Freehand Interaction in VR
Vroegop Microsoft HoloLens Developer's Guide
Odom HoloLens Beginner's Guide
JP5555455B2 (en) Game device, game program
Simsarian et al. Shared Spatial Desktop Development
US11660539B2 (en) Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method
Ong et al. Interacting with holograms
JP2011005047A (en) Game device, game system, and program
JP7206704B2 (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140714

R150 Certificate of patent or registration of utility model

Ref document number: 5581002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150