JP3420507B2 - Data processing apparatus and storage medium - Google Patents
Data processing apparatus and storage mediumInfo
- Publication number
- JP3420507B2 JP3420507B2 JP23332798A JP23332798A JP3420507B2 JP 3420507 B2 JP3420507 B2 JP 3420507B2 JP 23332798 A JP23332798 A JP 23332798A JP 23332798 A JP23332798 A JP 23332798A JP 3420507 B2 JP3420507 B2 JP 3420507B2
- Authority
- JP
- Japan
- Prior art keywords
- polygon
- data
- character
- polygons
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Or Creating Images (AREA)
Description
【発明の詳細な説明】 Detailed Description of the Invention
【発明の属する技術分野】 本発明は、野球やサッカー
等の球技を模したビデオゲームやゲーム機において、画
像、映像等のデータに対する処理並びにデータの記憶再
生処理を実行するデータ処理装置及びその処理方法並び
に当該処理をコンピュータにさせるためのプログラムが
記録された媒体に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing device and its processing for executing processing for data such as images and videos and storing and reproducing processing of data in a video game or game machine imitating a ball game such as baseball or soccer. The present invention relates to a method and a medium on which a program for causing a computer to perform the processing is recorded.
【従来の技術】 コンピュータ技術の進歩に伴い、コン
ピュータグラフィックス技術を用いたビデオゲーム機が
広く利用されるようになってきた。中でも、野球、サッ
カー等の球技を真似たビデオゲーム機に対する人気は根
強いものがあり、この種のビデオゲーム機が数多く案出
されている。この種のゲームにおいて、プレーの最中
に、効果音として、本物の試合における実況を摸した音
声を発生することが行われることがある。例えば、特許
第2552425号公報(特願平5−313705号)
には、予めゲームの進行状況及び操作内容に対応させた
実況用語データを記憶し、ゲームの進行状況及び操作内
容に応じて実況用語データを指定し、これを可聴速度で
音声に変換することにより実況中継を行うゲーム機が開
示されている。また、この種のゲームにおいて、人間を
真似たキャラクタを作成し、多種類のキャラクタをゲー
ム上に登場させている。さらに、この種のゲームにおい
て、ゲームの展開に伴ってキャラクタの顔の表情を変化
させている。また、CD−ROMに記録されたゲームの
アプリケーションフソトをビデオゲーム機本体に取り込
むことが行われている。この場合に、それぞれのファイ
ルの先頭セタク番号の情報を何らかの形でビデオゲーム
機本体のメモリー上に持つ必要があった。例えば、CD
−ROM上に音声ファイルが1万個もある場合、そられ
ファイルを1つのファイルに結合するとき、ファイルの
先頭セクタ番号の情報は最低でも1ファイル当り4バイ
トは必要であるので、約40キロバイトものメモリーを
使うことなる。2. Description of the Related Art With the advance of computer technology, video game machines using computer graphics technology have come into wide use. Above all, the popularity of video game machines that imitate ball games such as baseball and soccer is strong, and many video game machines of this type have been devised. In this type of game, during play, a sound simulating a real game in a real game may be generated as a sound effect. For example, Japanese Patent No. 2552425 (Japanese Patent Application No. 5-313705)
Is stored in advance by storing live word data corresponding to the game progress and operation contents, by specifying live word data according to the game progress and operation contents, and converting this to voice at an audible speed. A game machine for live broadcasting is disclosed. In addition, in this type of game, a character imitating a human being is created, and various types of characters are made to appear in the game. Furthermore, in this type of game, the facial expression of the character is changed as the game develops. In addition, the application software of the game recorded on the CD-ROM is loaded into the main body of the video game machine. In this case, it is necessary to have the information of the head settack number of each file in the memory of the video game machine body in some form. For example, CD
-If there are 10,000 audio files on the ROM, when combining the files into one file, the information of the start sector number of the file requires at least 4 bytes per file, so about 40 kilobytes. You will have to use memory.
【発明が解決しようとする課題】従来の技術は、ゲーム
の進行状況及び操作内容のある条件に対応する音声を出
力する方式であったため、条件と出力される音声が1対
1の関係を持っていた。そのため、同じ条件下では毎回
同じ台詞が出力されるので、単調化を避けられず、遊戯
者を飽きさせる可能性があった。さらに、ゲーム中の状
況説明を音声による実況で行っているゲームにおいて、
実況者が同じままであると、やはり単調化は避けられな
かった。このような不都合をさけるために、本発明者ら
は、条件に対応した台詞の集合である箱を用意し、ラン
ダムで台詞を抽出することで決まった状況下においても
複数の言い回しを用意することができるとともに、実況
者を複数選択することができるようにしたものを提案し
たが、台詞の下に条件が付いていたため、ソフトの作成
に時間がかかるという欠点があった。また、従来のキャ
ラクタは人間を真似ているために、複数の関節等があっ
てモデリングに時間がかかるという欠点もあった。さら
に、キャラクタの顔面の表情について、顔面を構成する
鼻、目、まみ毛あるいは口等のパーツが独立していない
ため、一つのパーツを変化させると他のパーツに影響を
与えてしまい、豊かで魅力ある顔面の表情を表現できな
かった。加えて、CD−ROMに記録されたゲームのア
プリケーションフソトをビデオゲーム機本体に取り込む
場合に、例えば、CD−ROM上に音声ファイルが1万
個もある場合、そられファイルを1つのファイルに結合
するとき、ファイルの先頭セクタ番号の情報は最低でも
1ファイル当り4バイトは必要であるので、約40キロ
バイトものメモリーを使うことになり、多大な情報がメ
モリー上に占めてしまう欠点があった。この発明はこの
ような問題点を解決するためになされたもので、音声の
発生内容に変化を持たせるとともに、キャラクタの作成
作業量を減らし、顔面の多彩な表情の表現を可能にして
ゲームの単調化を防ぎ、プレーヤーを飽きさせないよう
にしたデータ処理装置及びその処理方法並びに媒体を提
供することを目的としている。この発明は、CD−RO
Mから多量のデータを読み出す際に、読み出し処理を行
うのに本体のメモリーに占める容量を少なくしたデータ
処理装置及びその処理方法並びに媒体を提供することを
目的とする。Since the conventional technology is a method of outputting a voice corresponding to a certain condition of the game progress and operation contents, the condition and the outputted voice have a one-to-one relationship. Was there. Therefore, under the same condition, the same dialogue is output every time, so monotonization cannot be avoided, and there is a possibility that the player gets bored. In addition, in the game where the explanation of the situation during the game is done by voice,
When the commentator remained the same, monotony was inevitable. In order to avoid such an inconvenience, the present inventors prepare a box that is a set of dialogues corresponding to a condition, and prepare a plurality of expressions even under a situation decided by randomly extracting dialogues. In addition to being able to do, I proposed one that allows multiple live commenters to be selected, but there was a drawback that it took time to create the software because there was a condition under the dialogue. In addition, since the conventional character imitates a human being, it has a plurality of joints and the like, and thus has a drawback that modeling takes time. Furthermore, regarding the facial expression of the character, the parts that make up the face, such as the nose, eyes, bristles, and mouth, are not independent, so changing one part affects other parts, making it richer. I couldn't express an attractive facial expression. In addition, when the application software of the game recorded on the CD-ROM is loaded into the video game console body, for example, when there are 10,000 audio files on the CD-ROM, the files are combined into one file. At this time, since at least 4 bytes per file is required for the information of the head sector number of the file, a memory of about 40 kilobytes is used, and there is a disadvantage that a large amount of information is occupied in the memory. The present invention has been made to solve such a problem. In addition to changing the content of sound generated, the amount of character creation work is reduced, and various facial expressions of the face can be expressed. It is an object of the present invention to provide a data processing device, a processing method therefor, and a medium that prevent monotony and keep players from getting bored. This invention is a CD-RO
An object of the present invention is to provide a data processing device, a processing method therefor, and a medium in which a capacity of a memory of a main body for reading data when reading a large amount of data from M is reduced.
【課題を解決するための手段】前記目的を達成するため
の本発明の第1は、人物キャラクタであって、このキャ
ラクタは基準ポリゴンと部品ポリゴンとを有し、かつ、
両ポリゴンの間に関節部分を備えることなく、これらポ
リゴンが離間して配置されているキャラクタに対するデ
ータ処理部であって、関節部分を備えたキャラクタモデ
ルの動きに対するモーションを実行可能なモーションデ
ータを記憶し、前記関節部分の計算をすることなく、こ
のモーションデータに基づいて前記基準ポリゴンに対し
て部品ポリゴンを配置する位置を計算して直接配置して
なるデータ処理部を有するデータ処理装置であることを
特徴とする。さらに、本発明の第2は、野球選手に対す
るキャラクタであって、このキャラクタは基準ポリゴン
と部品ポリゴンとを有しかつ、両ポリゴンの間に関節部
分を備えることなく、これらポリゴンが離間して配置さ
れているキャラクタに対するデータ処理部であって、関
節部分を備えた野球選手のキャラクタモデルの動きに対
する投球動作を実行可能なモーションデータを記憶し、
前記関節部分の計算をすることなく、このモーションデ
ータに基づいて前記基準ポリゴンに対して部品ポリゴン
を配置する位置を計算して直接配置して投球動作を実行
可能なるデータ処理部を有するデータ処理装置であるこ
とを特徴とする。ここで、前記基準ポリゴンはキャラク
タの胴体に対応し、前記部品ポリゴンは頭部、手首及び
足首の少なくとも一つに対応する。さらに、本発明は、
コンピュータに、請求項に記載のデータ処理部の処理動
作を実行させるプログラムを記録した媒体であることを
特徴とする。媒体には、例えば、フロッピーディスク、
ハードディスク、磁気テープ、光磁気ディスク、CD−
ROM、DVD、ROMカートリッジ、バッテリバック
アップ付きのRAMメモリカートリッジ、フラッシュメ
モリカートリッジ、不揮発性RAMカード等を含む。
また、電話回線等の有線通信媒体、マイクロ波回線等の
無線通信媒体等通信媒体を含む。インターネットもここ
でいう通信媒体に含まれる。 媒体とは、何らかの物理
的手段により情報(主にデジタルデータ、プログラム)
が記録されているものであって、コンピュータ、専用プ
ロセッサ等の処理装置に所定の機能を行わせるものがで
きるものである。要するに、何らかの手段であっても、
コンピュータにプログラムをダウンロードし、所定の機
能を実行させるものであればよい。A first aspect of the present invention for achieving the above object is a human character,
The tractor has a reference polygon and a part polygon, and
Without the joint part between both polygons,
The data for characters with lygons spaced apart is
The data processing unit is a character model equipped with joints.
Motion device that can execute motion for
Data without memorizing the data and calculating the joint area.
Based on the motion data of
Calculate the position to place the component polygon and place it directly
It is a data processing device having the following data processing unit . Further, the second aspect of the present invention is for a baseball player.
Character that is a reference polygon
And a part polygon, and a joint part between both polygons.
These polygons are spaced apart, with no
The data processing unit for the
Corresponding to the movement of the character model of the baseball player with the knots
Stores motion data that can execute pitching motions,
Without calculating the joint part, this motion
Part polygons based on the data
Calculate the position to place the ball and place it directly to execute the pitching motion
It is characterized by being a data processing device having a possible data processing unit . Here, the reference polygon is a character
Corresponding to the body of the
Corresponds to at least one of the ankles . Further, the present invention provides
The processing operation of the data processing unit according to the claim
It is a medium in which a program for executing a work is recorded. The medium includes, for example, a floppy disk,
Hard disk, magnetic tape, magneto-optical disk, CD-
It includes a ROM, a DVD, a ROM cartridge, a RAM memory cartridge with battery backup, a flash memory cartridge, a non-volatile RAM card, and the like.
It also includes wired communication media such as telephone lines and communication media such as wireless communication media such as microwave lines. The Internet is also included in the communication medium here. A medium is information (mainly digital data, program) by some physical means.
Is recorded, and a processing device such as a computer and a dedicated processor can be made to perform a predetermined function. In short, even by some means,
Any program that downloads a program to a computer and executes a predetermined function may be used.
〔本発明の概要〕
本発明の実施形態として、野球チームのオーナーになっ
てチームを育てるゲームにおけるデータ処理装置につい
て説明する。このゲームの進行中において画像データ、
音響データの処理及びCD−ROMから再生される一連
の処理について以下説明する。先ず 先に、画像データ
であるキャラクタの作成処理を実行する装置の構成から
説明する。
[装置の構成]
図1は本発明の第1の実施形態に係るデータ処理装置を
適用したビデオゲーム機の外観図である。この図におい
て、ビデオゲーム機本体1は略箱型をなし、その内部に
はゲーム処理用の基板等が設けられている。また、ビデ
オゲーム機本体1の前面には、2つのコネクタ2aが設
けられており、これらのコネクタ2aにはゲーム操作用
のPAD2bがケーブル2cを介して接続されている。
2人の遊戯者が野球ゲーム等を楽しむ場合には、2つの
PAD2bが使用される。ビデオゲーム機本体1の上部
には、ROMカートリッジ接続用のカートリッジI/F
1a、CD−ROM読み取り用のCD−ROMドライブ
1bが設けられている。ビデオゲーム機本体1の背面に
は、図示されていないが、ビデオ出力端子およびオーデ
ィオ出力端子が設けられている。このビデオ出力端子は
ケーブル4aを介してTV受像機5のビデオ入力端子に
接続されるとともに、オーディオ出力端子はケーブル4
bを介してTV受像機5のオーディオ入力端子に接続さ
れている。このようなビデオゲーム機において、ユーザ
がPAD2bを操作することにより、TV受像機5に映
し出された画面を見ながらゲームを行うことができる。
図2は本実施の形態に係るデータ処理装置をTVゲーム
機に適用した場合のゲーム機の概要を表すブロック図で
ある。この画像処理装置は、装置全体の制御を行うCP
Uブロック10、ゲーム画面の表示制御を行うビデオブ
ロック11、効果音等を生成するサウンドブロック1
2、CD−ROMの読み出しを行うサブシステム13等
により構成されている。CPUブロック10は、SCU
(System Control Unit )100、メインCPU10
1、RAM102、ROM103、カートリッジI/F
1a、サブCPU104、CPUバス105等により構
成されている。メインCPU101は、装置全体の制御
を行うものである。このメインCPU101は、内部に
DSP(Digital Signal Processor)と同様の演算機能
を備え、アプリケーションソフトを高速に実行可能であ
る。RAM102は、メインCPU101のワークエリ
アとして使用されるものである。ROM103には、初
期化処理用のイニシャルプログラム等が書き込まれてい
る。SCU100は、バス105、106、107を制
御することにより、メインCPU101、VDP12
0、130、DSP140、CPU141等の間におけ
るデータ入出力を円滑に行うものである。また、SCU
100は、内部にDMAコントローラを備え、ゲーム中
のスプライトデータをビデオブロック11内のVRAM
に転送することができる。これにより、ゲーム等のアプ
リケーションソフトを高速に実行することが可能であ
る。カートリッジI/F1aは、ROMカートリッジの
形態で供給されるアプリケーションソフトを入力するた
めのものである。サブCPU104は、SMPC(Syst
em Manager & Peripheral Control )と呼ばれるもの
で、メインCPU101からの要求に応じて、PAD2
bからペリフェラルデータをコネクタ2aを介して収集
する機能等を備えている。メインCPU101はサブC
PU104から受け取ったペリフェラルデータに基づ
き、例えばゲーム画面中の野手を移動させる等の処理を
行うものである。コネクタ2aには、PAD、ジョイス
ティック、キーボード等のうちの任意のペリフェラルが
接続可能である。サブCPU104は、コネクタ2a
(本体側端子)に接続されたペリフェラルの種類を自動
的に認識し、ペリフェラルの種類に応じた通信方式に従
いペリフェラルデータ等を収集する機能を備えている。
ビデオブロック11は、ビデオゲームのポリゴンデータ
から成るキャラクタ等の描画を行うVDP(Video Disp
lay Processor )120、背景画面の描画、ポリゴン画
像データおよび背景画像の合成、クリッピング処理等を
行うVDP130とを備えている。VDP120はVR
AM121およびフレームバッファ122、123に接
続されている。ビデオゲーム機のキャラクタを表すポリ
ゴンの描画データはメインCPU101からSCU10
0を介してVDP120に送られ、VRAM121に書
き込まれる。VRAM121に書き込まれた描画データ
は、例えば、16または8ビット/pixel の形式で描画
用のフレームバッファ122または123に描画され
る。描画されたフレームバッファ122または123の
データはVDP130に送られる。描画を制御する情報
は、メインCPU101からSCU100を介してVD
P120に与えられる。そして、VDP120は、この
指示に従い描画処理を実行する。VDP130はVRA
M131に接続され、VDP130から出力された画像
データはメモリ132を介してエンコーダ160に出力
される構成となっている。エンコーダ160は、この画
像データに同期信号等を付加することにより映像信号を
生成し、TV受像機5に出力する。これにより、TV受
像機5に野球ゲームの画面が表示される。サウンドブロ
ック12は、PCM方式あるいはFM方式に従い音声合
成を行うDSP140と、このDSP140の制御等を
行うCPU141とにより構成されている。DSP14
0により生成された音声データは、D/Aコンバータ1
70により2チャンネルの信号に変換された後にスピー
カ5bに出力される。サブシステム13は、CD−RO
Mドライブ1b、CD−I/F180、CPU181、
MPEG−AUDIO182、MPEG−VIDEO1
83等により構成されている。このサブシステム13
は、CD−ROMの形態で供給されるアプリケーション
ソフトの読み込み、動画の再生等を行う機能を備えてい
る。CD−ROMドライブ1bはCD−ROMからデー
タを読み取るものである。CPU181は、CD−RO
Mドライブ1bの制御、読み取られたデータの誤り訂正
等の処理を行うものである。CD−ROMから読み取ら
れたデータは、CD−I/F180、バス106、SC
U100を介してメインCPU101に供給され、アプ
リケーションソフトとして利用される。また、MPEG
AUDIO182、MPEG VIDEO183は、
MPEG規格(Motion Picture Expert Groug )により
圧縮されたデータを復元するデバイスである。これらの
MPEG AUDIO182、MPEG VIDEO1
83を用いてCD−ROMに書き込まれたMPEG圧縮
データの復元を行うことにより、動画の再生を行うこと
が可能となる。
〔キャラクタ作成処理について〕
図3は同第1の実施の形態で使用するキャラクタに関す
るものであり、図3(a)がキャラクタの構成要素を、
図3(b)がTV受像機等に表示されるキャラクタの例
をそれぞれ示したものである。この図に示すキャラクタ
データ200は、画面上で当該キャラクタが占める位置
を決める中心CPと、この中心CPから第1計算処理で
得られる胴体ポリゴン(基準ポリゴン)201と、この
胴体ポリゴン201を中心として第2計算処理をし、こ
の胴体ポリゴン201の上部に頭部ポリゴン202と、
前記胴体ポリゴン201の上側左右の各所定の位置に手
首ポリゴン203R,203Lと、前記胴体ポリゴン2
01の下方左右の各所定の位置に足首ポリゴン204
R,204Lとを得たものである。ここで、胴体ポリゴ
ン以外のポリゴンが部品ポリゴンに相当する。胴体ポリ
ゴンと部品ポリゴンとの間には、関節を形成するための
ポリゴン(上腕、下腕、大腿、下肢等)が存在しない。
これらポリゴン201〜204R,204Lに所定の計
算をして所定の位置に配置し、かつ配置されたポリゴン
201〜204R,204Lに対してそれぞれテクスチ
ャーを貼り付けることにより所定の表示データとし、図
3(b)に示すようなTV受像機5に表示されるキャラ
クタ200′となる。図4は、同第1の実施の形態にお
けるキャラクタを作成するために必要なモーションデー
タテーブルの概要を示す図である。この図に示すモーシ
ョンデータテーブル210において、頭部ポリゴン20
2は胴体ポリゴン201からの距離データ202αとそ
の角度データ202βとからなり、手首ポリゴン203
R,203Lは胴体ポリゴン201からの距離データ2
03Rα,203Lαとその角度ポリゴン203Rβ,
203Lβとからなり、足首ポリゴン204R,204
Lは胴体ポリゴン201からの距離データ204Rα,
204Lαとその角度データ204Rβ,204Lβと
から構成されている。図5は、同第1実施の形態の概要
を説明するための図である。この図では、横軸に時間経
過(ゲームの流れ)をとり、時間の経過に応じたシー
ン、モーションデータテーブル及びキャラクタの作成処
理等について説明するためのものである。図6は、同第
1実施の形態の動作を説明するためのフローチャートで
ある。先ず、ゲームを開始して時間が経過してゆき、あ
るシーンに達したものとし、かつPAD2bからの指令
もサブCPU104を介して入力されてきたものとす
る。すると、メインCPU101は、ゲームの進行に伴
って、時刻t1 において、サブシステム13等から第n
番目のシーンデータ210を取込む(図5のステップ
(S)1,図6のステップ(S)11)。また、メイン
CPU101は、PAD2bからの指令等と当該シーン
データ210とを基に、トリガtg1において、キャラク
タデータ200が画面上で位置する位置データP1とモ
ーションデータ220をVDP120を介してVRAM
121に格納する(図5のS2,図6のS12)。そし
て、VDP120は、VRAM121に格納されたキャ
ラクタデータ200の画面上の位置データP1を基に胴
体ポリゴン201の中心位置CPを決め(図3(a)参
照)、しかる後に、モーションデータ220を基に、図
3(a)に示すように、まず第1の処理 1として胴体ポ
リゴン201の中心位置から胴体ポリゴン201を計算
し、ついで第2の処理 2として、頭部ポリゴン202、
手首ポリゴン203R,203L及び足首ポリゴン20
4R,204Lを計算し、フレームバッファ122ある
いはフレームバッファ123に格納する(図5のS3、
図6のS13)。再び、最初のシーンデータの取込み処
理か否かを判定し(S14)、ここでは、既に、第n番
目のシーンデータ210は取り込んであるので(S1
4;NO)、メインCPU101はサブシステム13か
らのシーンデータの取込みは行わなず、ステップ12の
処理に移行する。次いで、メインCPU101は、PA
D2bからの指令等と第n番目のシーン210とを基
に、トリガtg2において、キャラクタデータ200が画
面上で位置する位置データP2とモーションデータ22
1をVDP120を介してVRAM121に格納する
(図5のS4,図6のS12)。そして、VDP120
は、VRAM121に格納されたキャラクタデータ20
0の画面上の位置データP2を基に胴体ポリゴン201
の中心位置CPを決め(図3(a)参照)、しかる後
に、モーションデータ221を基に、図3(a)に示す
ように、まず第1の処理 1として胴体ポリゴン201の
中心位置CPから胴体ポリゴン201を計算し、ついで
第2の処理 2として、頭部ポリゴン202、手首ポリゴ
ン203R,203L及び足首ポリゴン204R,20
4Lを計算し、フレームバッファ123あるいはフレー
ムバッファ122に格納する(図5のS5、図6のS1
3)。さらに、メインCPU101は、ゲームの進行に
伴って(S14;YES−S15;NO)、時刻t2 に
おいて、サブシステム13等から第n+1番目のシーン
データ211を取込む(図5のS7,図6のS11)。
さらにまた、メインCPU101は、PAD2bからの
指令等と当該シーンデータ211とを基に、トリガtg3
において、キャラクタデータ200が画面上で位置する
位置データP3とモーションデータ222をVDP12
0を介してVRAM121に格納する(図5のS7,図
6のS12)。そして、VDP120は、VRAM12
1に格納されたキャラクタデータ200の画面上の位置
データP3を基に胴体ポリゴン201の中心位置CPを
決め(図3(a)参照)、しかる後に、モーションデー
タ220を基にして、図3(a)に示すように、まず第
1の処理 1として胴体ポリゴン201の中心位置CPか
ら胴体ポリゴン201を計算し、ついで第2の処理 2と
して、頭部ポリゴン202、手首ポリゴン203R,2
03L及び足首ポリゴン204R,204Lを計算し、
フレームバッファ122あるいはフレームバッファ12
3に格納する(図5のS3、図6のS13)。このよう
に時間の経過とともに、トリガtgl,tg2,tg3,…毎
にVDP120で処理されることにより、キャラクタデ
ータ200の各胴体ポリゴン201、頭部ポリゴン20
2、手首ポリゴン203R,203L及び足首ポリゴン
204R,204Lの各ポリゴンが得られることにな
る。そして、VDP120は、前記各ポリゴンに、当該
ポリゴンに応じた各テクスチャーを貼り付けることによ
り、図3(b)に示すように、キャラクタ200′が形
成されることになる。このように時間の経過とともに、
トリガtgl,tg2,tg3,tg4,tg5,…毎にキャラク
タデータ200の各胴体ポリゴン201、頭部ポリゴン
202、手首ポリゴン203R,203L及び足首ポリ
ゴン204R,204Lの各ポリゴンが計算され、しか
も各ポリゴンにテクスチャーが貼り付けられて完成した
キャラクタはフレームバッファ122、123に格納さ
れた後に、VDP130を介してVRAM131に格納
される。図7は、同第1の実施の形態の動作によりキャ
ラクタの変化の一例を示す説明図であり、図7(a)〜
図7(e)は各トリガにおけるキャラクタデータ200
a〜200eを示したものである。この図において、前
記図トリガtgl,tg2,tg3,tg4,tg5,…毎に得ら
れたキャラクタデータ200a,200b,200c,
200d,200e,…は、図7(a),同図(b)
て,同図(c),同図(d),同図(e),…に示すよ
うなモーションとなる。すなわち、図7(a)では、キ
ャラクタ200aは正面を向き、両手首ポリゴン203
Ra,203Laを胴体ポリゴン201aの前側で組ま
せ、右足首ポリゴン204Raを正面に向け、左足首ポ
リゴン204Laを右側に開いた状態となっている。図
7(b)では、キャラクタデータ200bは正面を向
き、両手首ポリゴン203Rb,203Lbを胴体ポリ
ゴン201bの右上側に配置し、右足首ポリゴン204
Rbを胴体ポリゴン201bの右側上に持ち上げ、左足
首ポリゴン204Lbを右側に開いた状態となってい
る。図7(c)では、キャラクタデータ200cは正面
を向きつつ、胴体ポリゴン201cを下方にずらし、右
足首ポリゴン204Rbを胴体ポリゴン201bの中央
部の下方にずらし、左足首ポリゴン204Lbを右側に
開いた状態となっている。図7(d)では、キャラクタ
データ200dは左面を向きつつ、胴体ポリゴン201
dを左側に回転させて状態にし、頭部ポリゴン202も
左側に向かせ、しかも右手首ポリゴン203Rdを頭部
ポリゴン202dの後側面に配置し、右足首ポリゴン2
04Rdを胴体ポリゴン201dの前部の下方にずら
し、左足首ポリゴン204Ldを少し持ち上げた状態と
なっている。図7(e)では、キャラクタデータ200
eは左面に完全に向き、胴体ポリゴン201cを回転を
完了させた状態にし、頭部ポリゴン202eも左側に向
かせ、右手首ポリゴン203Reを胴体ポリゴン201
eの前方に配置し、右足首ポリゴン204Rbを胴体ポ
リゴン201eの前部の下方に左側に向けて位置させ
て、左足首ポリゴン204Lbを胴体ポリゴン201e
の後方で少し持ち上がった状態となっている。上述した
図7(a)から図7(e)におけるキャラクタデータ2
00a〜200eの形体が変化するフォームは野球ゲー
ムにおける投手の投球フォームを真似たたものであり、
これらキャラクタデータ200a,200b,200
c,200d,200e,…が所定の表示タイミングで
連続してTV受像機5に与えられると、TV受像機5の
表示面において投手が投球しているモーションとして見
えることになる。図8は、同第1の実施の形態における
処理と、この実施の形態を適用しない(従来の)キャラ
クタとの処理とを比較した説明図である。図8(a)は
従来のキャラクタにおけるポリゴンの計算例を説明する
ための図であり、図8(b)は従来のキャラクタのポリ
ゴンにテクスチャーを貼り付けた状態の図である。図8
(c)は同第1の実施の形態における計算例を説明する
ための図である。図8(a)に示すように、この実施の
形態を適用しないキャラクタ300は、腰ポリゴン30
1を中心に配置し、腰ポリゴン301の上側に向かっ
て、まず胸ポリゴン302を配置し、この胸ポリゴン3
02の上側に頭部ポリゴン303を配置するとともに、
上腕ポリゴン304R,304L、下腕ポリゴン305
R,305L、手首ポリゴン306R,306Lと配置
し、さらに、腰ポリゴン301の下側に向かって、まず
臀部ボリゴン307を配置し、さらにこの臀部ポリゴン
307に下側にももポリゴン308R,308L、すね
ポリゴン309R,309L、足首ポリゴン310R,
310Lが配置されている。これらポリゴン301〜ポ
リゴン310R,310Lにテクスチャーを貼り付けた
構成したものが、図8(b)に示すキャラクタ300′
となる。そして、ゲームの進行に伴って、メインCPU
101から受け取ったデータを用いてVDP120は、
画面上の所定の位置に所定のキャラクタ300の腰ポリ
ゴン301の中心を配置し、この中心から腰ポリゴン3
01の計算をし(処理 1)、その結果を基に胸ポリゴン
302の計算をし(処理 2)、この胸ポリゴン302の
計算結果を基に頭部ポリゴン303及び上腕ポリゴン3
04R,304Lを計算し(処理 3)、さらに上腕ポリ
ゴン304R,304Lの計算結果を基に下腕ポリゴン
305R,305Lを計算し(処理 4)、最後に、下腕
ポリゴン305R,305Lの計算結果を基に手首ポリ
ゴン306R,306Lを計算する必要がある(処理
5)。同様に、VDP120は、腰ポリゴン301の計
算が終了したところで(処理1)、まずその計算結果を
基に臀部ボリゴン307を計算し(処理 2)、さらに臀
部ボリゴン307の計算結果を基に大腿部ポリゴン30
8R,308Lを計算し(処理 3)、その計算結果を基
にすねポリゴン309R,309Lを計算し(処理
4)、最後にすねポリゴン309R,309Lの計算結
果を基に足首ポリゴン310R,310Lを計算する必
要がある(処理 5)。これに対して、同第1の実施の形
態では、VDP120は、胴体ポリゴン201の中心を
ゲームの進行に伴って決定した後に、図8(c)に示す
ように、胴体ポリゴン201を計算し(処理 1)、次い
で、モーションデータを基に胴体ポリゴン201からの
所定の位置に配置した頭部ポリゴン202、手首ポリゴ
ン203R,203L及び足首ポリゴンを204R,2
04Lを計算している(処理 2)。なお、モーションデ
ータには、各ポリゴンの胴体ポリゴン201からの距離
データだけでなく、各ポリゴンの角度があるため、その
角度に応じて各ポリゴンを配置している。したがって、
従来の画像処理では、各ポリゴンを計算するために、処
理 1〜処理 5まで必要であったものが、同第1の実施の
形態では、処理 1、処理 2のみで済むことになり、大幅
に計算処理ステップを減少させることができる。また、
キャラクタを表示するために必要なポリゴン数を節約す
ることが可能となる。また、同第1の実施の形態では、
胴体ボリゴン201から、頭部ポリゴン202、手首ポ
リゴン203R,203L、足首ポリゴン204R,2
04Lが離れて配置されており、胴体ポリゴン201
と、頭部ポリゴン202、手首ポリゴン203R,20
3L、足首ポリゴン204R,204Lとの間に関節が
存在しないために、胴体ポリゴン201から、頭部ポリ
ゴン202、手首ポリゴン203R,203L、足首ポ
リゴン204R,204Lを自由に延ばしたり、縮める
ことができる。おける装置は、図1及び図2に示す第1
の実施の形態で[Outline of the Present Invention] As an embodiment of the present invention, a data processing device in a game of becoming a baseball team owner and nurturing a team will be described. Image data during the course of this game,
The processing of acoustic data and the series of processing reproduced from the CD-ROM will be described below. First, the configuration of an apparatus that executes a process of creating a character that is image data will be described. [Device Configuration] FIG. 1 is an external view of a video game machine to which a data processing device according to a first embodiment of the present invention is applied. In this figure, the main body 1 of the video game machine has a substantially box shape, and a board for game processing and the like are provided therein. Further, two connectors 2a are provided on the front surface of the video game machine body 1, and a PAD 2b for game operation is connected to these connectors 2a via a cable 2c.
When two players enjoy a baseball game or the like, two PADs 2b are used. A cartridge I / F for connecting a ROM cartridge is provided on the upper portion of the video game console body 1.
1a, a CD-ROM drive 1b for reading a CD-ROM is provided. Although not shown, a video output terminal and an audio output terminal are provided on the back surface of the video game machine body 1. This video output terminal is connected to the video input terminal of the TV receiver 5 via the cable 4a, and the audio output terminal is connected to the cable 4
It is connected to the audio input terminal of the TV receiver 5 via b. In such a video game machine, the user can operate the PAD 2b to play the game while watching the screen displayed on the TV receiver 5.
FIG. 2 is a block diagram showing an outline of a game machine when the data processing device according to the present embodiment is applied to a TV game machine. This image processing device is a CP that controls the entire device.
U block 10, video block 11 for controlling display of game screen, sound block 1 for generating sound effects, etc.
2. The subsystem 13 for reading the CD-ROM and the like. CPU block 10 is SCU
(System Control Unit) 100, main CPU 10
1, RAM 102, ROM 103, cartridge I / F
1a, the sub CPU 104, the CPU bus 105 and the like. The main CPU 101 controls the entire apparatus. The main CPU 101 has an arithmetic function similar to that of a DSP (Digital Signal Processor), and can execute application software at high speed. The RAM 102 is used as a work area for the main CPU 101. An initial program for initialization processing and the like are written in the ROM 103. The SCU 100 controls the buses 105, 106, and 107 so that the main CPU 101 and the VDP 12
0, 130, the DSP 140, the CPU 141, etc. perform data input / output smoothly. Also, SCU
100 has a DMA controller inside, and stores sprite data during a game in a VRAM in a video block 11.
Can be transferred to. As a result, application software such as a game can be executed at high speed. The cartridge I / F 1a is for inputting application software supplied in the form of a ROM cartridge. The sub CPU 104 uses the SMPC (Syst
It is called em Manager & Peripheral Control) and responds to the request from the main CPU 101 by the PAD2.
It has a function of collecting peripheral data from b via the connector 2a. Main CPU 101 is sub C
Based on the peripheral data received from the PU 104, processing such as moving a fielder in the game screen is performed. Any peripherals such as PAD, joystick, keyboard, etc. can be connected to the connector 2a. The sub CPU 104 is the connector 2a
It has a function of automatically recognizing the type of peripheral connected to the (main unit side terminal) and collecting peripheral data and the like according to a communication method according to the type of peripheral.
The video block 11 is a VDP (Video Disp) that draws a character or the like composed of polygon data of a video game.
lay processor) 120, a VDP 130 that performs background image drawing, polygon image data and background image composition, clipping processing, and the like. VDP120 is VR
It is connected to the AM 121 and the frame buffers 122 and 123. The drawing data of the polygon representing the character of the video game machine is sent from the main CPU 101 to the SCU 10
It is sent to the VDP 120 via 0 and written in the VRAM 121. The drawing data written in the VRAM 121 is drawn in the drawing frame buffer 122 or 123 in a format of 16 or 8 bits / pixel, for example. The drawn data in the frame buffer 122 or 123 is sent to the VDP 130. Information for controlling drawing is VD from the main CPU 101 via the SCU 100.
Given to P120. Then, the VDP 120 executes the drawing process according to this instruction. VDP130 is VRA
The image data output from the VDP 130 is connected to the M131 and is output to the encoder 160 via the memory 132. The encoder 160 generates a video signal by adding a synchronization signal or the like to this image data and outputs it to the TV receiver 5. As a result, the screen of the baseball game is displayed on the TV receiver 5. The sound block 12 includes a DSP 140 that synthesizes voice according to the PCM system or the FM system, and a CPU 141 that controls the DSP 140 and the like. DSP14
The audio data generated by 0 is the D / A converter 1
After being converted into a 2-channel signal by 70, the signal is output to the speaker 5b. Subsystem 13 is a CD-RO
M drive 1b, CD-I / F 180, CPU 181,
MPEG-AUDIO 182, MPEG-VIDEO1
It is composed of 83 and the like. This subsystem 13
Has a function of reading application software supplied in the form of a CD-ROM and reproducing a moving image. The CD-ROM drive 1b reads data from a CD-ROM. The CPU 181 is a CD-RO
It controls the M drive 1b and performs processing such as error correction of the read data. The data read from the CD-ROM is the CD-I / F 180, the bus 106, the SC.
It is supplied to the main CPU 101 via U100 and used as application software. Also, MPEG
AUDIO182 and MPEG VIDEO183 are
It is a device that restores data compressed by the MPEG standard (Motion Picture Expert Groug). These MPEG AUDIO 182, MPEG VIDEO1
By using 83 to restore the MPEG compressed data written in the CD-ROM, it becomes possible to reproduce the moving image. [Regarding Character Creation Process] FIG. 3 relates to a character used in the first embodiment, and FIG.
FIG. 3B shows an example of each character displayed on the TV receiver or the like. The character data 200 shown in this figure has a center CP that determines the position occupied by the character on the screen, a body polygon (reference polygon) 201 obtained from the center CP in the first calculation process, and the body polygon 201 as the center. A second calculation process is performed, and a head polygon 202 is provided above the body polygon 201.
Wrist polygons 203R and 203L are provided at predetermined positions on the upper left and right sides of the body polygon 201, and the body polygon 2
Ankle polygons 204 at predetermined positions on the lower left and right of 01
R, 204L. Here, polygons other than the body polygon correspond to component polygons. There is no polygon (upper arm, lower arm, thigh, lower limb, etc.) for forming a joint between the body polygon and the component polygon.
Predetermined calculation is performed on the polygons 201 to 204R and 204L, the polygons 201 to 204R and 204L are arranged at predetermined positions, and textures are pasted to the arranged polygons 201 to 204R and 204L to obtain predetermined display data. The character 200 'is displayed on the TV receiver 5 as shown in b). FIG. 4 is a diagram showing an outline of a motion data table necessary for creating a character according to the first embodiment. In the motion data table 210 shown in this figure, the head polygon 20
2 includes distance data 202α from the body polygon 201 and angle data 202β thereof, and a wrist polygon 203
R and 203L are distance data 2 from the body polygon 201
03Rα, 203Lα and its angle polygon 203Rβ,
203Lβ and ankle polygons 204R, 204
L is distance data 204Rα from the body polygon 201,
204Lα and its angle data 204Rβ and 204Lβ. FIG. 5 is a diagram for explaining the outline of the first embodiment. In this figure, the horizontal axis indicates the passage of time (flow of the game), and the processing for creating a scene, motion data table, and character according to the passage of time is described. FIG. 6 is a flowchart for explaining the operation of the first embodiment. First, it is assumed that a game has started and time has passed, and a certain scene has been reached, and an instruction from the PAD 2b has also been input via the sub CPU 104. Then, as the game progresses, the main CPU 101 causes the subsystem 13 etc.
The second scene data 210 is fetched (step (S) 1 in FIG. 5 and step (S) 11 in FIG. 6). Further, the main CPU 101, based on the command and the like from the PAD 2b and the scene data 210 concerned, at the trigger tg1, the position data P1 where the character data 200 is located on the screen and the motion data 220 are VRAM via the VDP 120.
It stores in 121 (S2 of FIG. 5, S12 of FIG. 6). Then, the VDP 120 determines the center position CP of the body polygon 201 based on the position data P1 on the screen of the character data 200 stored in the VRAM 121 (see FIG. 3A), and then based on the motion data 220. As shown in FIG. 3A, first, as a first processing 1, the body polygon 201 is calculated from the center position of the body polygon 201, and then as a second processing 2, a head polygon 202,
Wrist polygons 203R, 203L and ankle polygon 20
4R and 204L are calculated and stored in the frame buffer 122 or the frame buffer 123 (S3 in FIG. 5,
S13 of FIG. 6). Again, it is judged whether or not it is the process of capturing the first scene data (S14). Since the nth scene data 210 has already been captured here (S1).
4; NO), the main CPU 101 does not take in the scene data from the subsystem 13, and proceeds to the process of step 12. Next, the main CPU 101
Based on the command from D2b and the nth scene 210, at the trigger tg2, the position data P2 and the motion data 22 where the character data 200 is located on the screen are displayed.
1 is stored in the VRAM 121 via the VDP 120 (S4 in FIG. 5, S12 in FIG. 6). And VDP120
Is the character data 20 stored in the VRAM 121.
The body polygon 201 based on the position data P2 on the screen of 0
3A is determined (see FIG. 3 (a)), and then, based on the motion data 221, as shown in FIG. 3 (a), first, as the first process 1, the center position CP of the body polygon 201 is calculated. A torso polygon 201 is calculated, and then, as a second processing 2, a head polygon 202, wrist polygons 203R and 203L, and ankle polygons 204R and 20R.
4L is calculated and stored in the frame buffer 123 or the frame buffer 122 (S5 in FIG. 5, S1 in FIG. 6).
3). Further, as the game progresses (S14; YES-S15; NO), the main CPU 101 fetches the (n + 1) th scene data 211 from the subsystem 13 or the like at time t2 (S7 of FIG. 5, FIG. 6). S11).
Furthermore, the main CPU 101 triggers the trigger tg3 based on the command and the like from the PAD 2b and the scene data 211.
, The position data P3 where the character data 200 is located on the screen and the motion data 222 are set to the VDP12.
It is stored in the VRAM 121 via 0 (S7 in FIG. 5, S12 in FIG. 6). Then, the VDP 120 is the VRAM 12
The center position CP of the body polygon 201 is determined based on the position data P3 on the screen of the character data 200 stored in No. 1 (see FIG. 3A), and thereafter, based on the motion data 220, the center position CP of FIG. As shown in a), the body polygon 201 is first calculated from the center position CP of the body polygon 201 as the first processing 1, and then the head polygon 202 and the wrist polygons 203R, 2R are prepared as the second processing 2.
03L and ankle polygons 204R and 204L are calculated,
Frame buffer 122 or frame buffer 12
3 (S3 in FIG. 5, S13 in FIG. 6). In this way, with the passage of time, the triggers tgl, tg2, tg3, ... Are processed by the VDP 120, so that each body polygon 201 and head polygon 20 of the character data 200 is processed.
2. Wrist polygons 203R and 203L and ankle polygons 204R and 204L are obtained. Then, the VDP 120 attaches each texture corresponding to the polygon to each of the polygons to form a character 200 'as shown in FIG. 3B. Thus, over time,
For each of the triggers tgl, tg2, tg3, tg4, tg5, ..., each body polygon 201, head polygon 202, wrist polygons 203R, 203L and ankle polygons 204R, 204L of the character data 200 are calculated, and each polygon is calculated. The character to which the texture is pasted and completed is stored in the frame buffers 122 and 123 and then stored in the VRAM 131 via the VDP 130. FIG. 7 is an explanatory diagram showing an example of a character change by the operation of the first embodiment, and FIG.
FIG. 7E shows the character data 200 in each trigger.
a to 200e are shown. In this figure, character data 200a, 200b, 200c, obtained for each of the figure triggers tgl, tg2, tg3, tg4, tg5, ...
200d, 200e, ... are shown in FIGS. 7 (a) and 7 (b).
As a result, the motions shown in (c), (d), (e), ... That is, in FIG. 7A, the character 200 a faces the front, and both wrist polygons 203
Ra and 203La are assembled on the front side of the body polygon 201a, the right ankle polygon 204Ra faces the front, and the left ankle polygon 204La is opened to the right. In FIG. 7B, the character data 200b faces the front, the both wrist polygons 203Rb and 203Lb are arranged on the upper right side of the body polygon 201b, and the right ankle polygon 204 is arranged.
Rb is lifted to the right of the body polygon 201b, and the left ankle polygon 204Lb is opened to the right. In FIG. 7C, while the character data 200c is facing the front, the body polygon 201c is displaced downward, the right ankle polygon 204Rb is displaced downward in the center of the body polygon 201b, and the left ankle polygon 204Lb is opened to the right. Has become. In FIG. 7D, the character data 200d is directed to the left side and the body polygon 201
By rotating d to the left, the head polygon 202 is also directed to the left, and the right wrist polygon 203Rd is arranged on the rear side of the head polygon 202d.
04Rd is shifted below the front of the body polygon 201d, and the left ankle polygon 204Ld is slightly lifted. In FIG. 7E, the character data 200
e is completely oriented to the left side, the torso polygon 201c is in a state where the rotation is completed, the head polygon 202e is also directed to the left side, and the right wrist polygon 203Re is set to the torso polygon 201.
The right ankle polygon 204Rb is located below the front of the torso polygon 201e toward the left, and the left ankle polygon 204Lb is located in front of the e.
It is in a state of being slightly lifted behind. Character data 2 in FIGS. 7A to 7E described above
The form in which the shapes of 00a to 200e change is an imitation of the pitching form of a pitcher in a baseball game.
These character data 200a, 200b, 200
When c, 200d, 200e, ... Are continuously given to the TV receiver 5 at a predetermined display timing, they appear as a motion of a pitcher throwing on the display surface of the TV receiver 5. FIG. 8 is an explanatory diagram comparing the processing in the first embodiment with the processing of a (conventional) character to which this embodiment is not applied. FIG. 8A is a diagram for explaining an example of polygon calculation in a conventional character, and FIG. 8B is a diagram showing a state in which a texture is pasted on the polygon of a conventional character. Figure 8
(C) is a figure for explaining a calculation example in the first embodiment. As shown in FIG. 8A, the character 300 to which this embodiment is not applied is the waist polygon 30.
1 is arranged at the center, and the chest polygon 302 is arranged toward the upper side of the waist polygon 301.
The head polygon 303 is arranged above 02, and
Upper arm polygons 304R and 304L, lower arm polygon 305
R, 305L, wrist polygons 306R, 306L are arranged, and further, the hip bolus 307 is arranged toward the lower side of the waist polygon 301. Further, the hip polygon 307 is also arranged on the lower side with polygons 308R, 308L, shins. Polygons 309R and 309L, ankle polygons 310R,
310L is arranged. A structure in which a texture is pasted on these polygons 301 to 310R and 310L is a character 300 'shown in FIG. 8B.
Becomes Then, as the game progresses, the main CPU
VDP 120 using the data received from 101
The center of the waist polygon 301 of the predetermined character 300 is placed at a predetermined position on the screen, and the waist polygon 3 is placed from this center.
01 (processing 1), the chest polygon 302 is calculated based on the result (processing 2), and the head polygon 303 and the upper arm polygon 3 are calculated based on the calculation result of the chest polygon 302.
04R and 304L are calculated (process 3), and lower arm polygons 305R and 305L are calculated based on the calculation results of the upper arm polygons 304R and 304L (process 4). Finally, the calculation results of the lower arm polygons 305R and 305L are calculated. It is necessary to calculate the wrist polygons 306R and 306L based on the
Five). Similarly, when the calculation of the waist polygon 301 is completed (processing 1), the VDP 120 first calculates the buttock bolgon 307 based on the calculation result (processing 2), and further based on the buttock bolgon 307 calculation result, the thigh. Part polygon 30
8R and 308L are calculated (processing 3), and the shin polygons 309R and 309L are calculated based on the calculation result (processing 3).
4) Finally, it is necessary to calculate the ankle polygons 310R and 310L based on the calculation results of the shin polygons 309R and 309L (process 5). On the other hand, in the first embodiment, the VDP 120 determines the center of the body polygon 201 as the game progresses, and then calculates the body polygon 201 as shown in FIG. 8C. Process 1), and then, based on the motion data, the head polygon 202, the wrist polygons 203R and 203L, and the ankle polygons 204R and 2 arranged at predetermined positions from the body polygon 201.
04L is being calculated (Process 2). Since the motion data includes not only the distance data of each polygon from the body polygon 201 but also the angle of each polygon, the polygons are arranged according to the angle. Therefore,
In the conventional image processing, processing 1 to processing 5 is required to calculate each polygon, but in the first embodiment, only processing 1 and processing 2 is required, and The number of calculation processing steps can be reduced. Also,
It is possible to save the number of polygons required to display the character. Further, in the first embodiment,
From the body Borgon 201, head polygon 202, wrist polygons 203R, 203L, ankle polygons 204R, 2
04L is arranged apart from the body polygon 201
And head polygons 202 and wrist polygons 203R, 20
Since there is no joint between 3L and the ankle polygons 204R and 204L, the head polygon 202, the wrist polygons 203R and 203L, and the ankle polygons 204R and 204L can be freely extended or contracted from the body polygon 201. The device in FIG.
In the embodiment of
【発明の効果】以上のように、本発明によれば、キャラ
クタを構成するポリゴンを配置する上での計算処理数が
少なくて済むことになり、計算処理ステップを減少させ
ることができる。さらに、手首、足首等の部品ポリゴン
と胴体ポリゴン等の基準ポリゴンとの間には、関節に相
当する部分が存在しないために、部品ポリゴンを自由に
延ばしたり、縮めることができる。As described above, according to the present invention, it is possible to reduce the number of calculation processes for arranging the polygons forming the character, and it is possible to reduce the calculation process steps. Further, since there is no part corresponding to a joint between a part polygon such as a wrist or ankle and a reference polygon such as a body polygon, the part polygon can be freely extended or contracted.
【図1】この発明の実施の形態1に係るビデオゲーム機
の外観図である。FIG. 1 is an external view of a video game machine according to a first embodiment of the present invention.
【図2】この発明の実施の形態1に係るビデオゲーム機
の概略構成図である。FIG. 2 is a schematic configuration diagram of the video game machine according to the first embodiment of the present invention.
【図3】この発明の第1の実施の形態におけるキャラク
タの基本的な構成を示す概念図である。FIG. 3 is a conceptual diagram showing a basic configuration of a character according to the first embodiment of the present invention.
【図4】この発明の第1の実施の形態におけるモーショ
ンデータの構成を示す概念図である。FIG. 4 is a conceptual diagram showing a structure of motion data according to the first embodiment of the present invention.
【図5】この発明の第1の実施の形態の基本的処理概念
を示す概念図である。FIG. 5 is a conceptual diagram showing a basic processing concept of the first embodiment of the present invention.
【図6】この発明の第1の実施の形態処理のフローチャ
ートである。FIG. 6 is a flowchart of processing according to the first embodiment of this invention.
【図7】この発明の第1の実施形態の動作によりキャラ
クタの変化の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of a character change according to the operation of the first embodiment of the present invention.
【図8】この発明の第1の実施の形態における処理と、
この実施の形態を適用しないキャラクタとの処理との比
較を説明するための図である。FIG. 8 is a flowchart showing the processing according to the first embodiment of the present invention;
It is a figure for explaining comparison with processing with a character to which this embodiment is not applied.
1 ビデオゲーム機本体 1a カートリッジI/F 1b CD−ROMドライブ 2a コネクタ 2b ゲーム操作用のパッド 2c ケーブル 4a、4b ケーブル 5 TV受像機 10 CPUブロック 11 ビデオブロック 12 サウンドブロック 13 サブシステム 100 SCU(System Control Unit ) 101 メインCPU 102 RAM 103 ROM 104 サブCPU 105 CPUバス 106、107 バス 120、130 VDP 121 VRAM 122、123 フレームバッファ 131 VRAM 132 メモリ 140 DSP 141 CPU 160 エンコーダ 180 CD−I/F 181 CPU 182 MPEG−AUDIO 183 MPEG−VIDEO 1 Video game console body 1a Cartridge I / F 1b CD-ROM drive 2a connector 2b Pad for game operation 2c cable 4a, 4b cable 5 TV receiver 10 CPU blocks 11 video blocks 12 sound blocks 13 subsystems 100 SCU (System Control Unit) 101 Main CPU 102 RAM 103 ROM 104 sub CPU 105 CPU bus 106, 107 bus 120, 130 VDP 121 VRAM 122, 123 frame buffer 131 VRAM 132 memory 140 DSP 141 CPU 160 encoder 180 CD-I / F 181 CPU 182 MPEG-AUDIO 183 MPEG-VIDEO
フロントページの続き (72)発明者 地 宏之 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (72)発明者 大谷 嘉宏 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (56)参考文献 1.サターンファン、1997年No.16 (1997−8−29)株式会社徳間書店/イ ンターメディア・カンパニー「SEGA DYNAMIC PREVIEW」P 32−33 2.Andrew S.Glassn er、「最新3次元コンピュータグラフ ィックス」初版(1991−4−1)株式会 社アスキー、P181−182,267−268 3.週刊ファミ通、第12巻第35号 (1997−8−29)株式会社アスキー「ニ ンテンドウ64夏の新作スクープ乱れ撃ち ファミスタ64」P24−26 4.月刊ゲームウォーカー、第4巻第 9号通巻35号(1997−9−1)株式会社 角川書店「新作ソフトカタログプレイス テーション 実行パワフルプロ野球」 97 開幕版」P104Continued front page (72) Inventor Hiroyuki Chi 1-12 Haneda, Ota-ku, Tokyo Stocks Company SEGA Enterprises (72) Inventor Yoshihiro Otani 1-12 Haneda, Ota-ku, Tokyo Stocks Company SEGA Enterprises (56) References 1. Saturn fan, 1997 No. 16 (1997-8-29) Tokuma Shoten Co., Ltd./a Intermedia Company "SEGA DYNAMIC PREVIEW "P 32-33 2. Andrew S. Glassn er, "Latest 3D computer graph Six "First Edition (1991-4-1) Stock Association Company ASCII, P181-182,267-268 3. Weekly Famitsu, Vol. 12, No. 35 (1997-8-29) ASCII Co., Ltd. Nintendo 64 Summer's new scoop disorder shooting Famista 64 "P24-26 4. Monthly Game Walker, Volume 4 No. 9 Volume 35 (1997-9-1) Co., Ltd. Kadokawa Shoten "New Software Catalog Place Tation run powerful professional baseball " 97 Opening Edition "P104
Claims (4)
タは基準ポリゴンと部品ポリゴンとを有し、かつ、両ポ
リゴンの間に関節部分を備えることなく、これらポリゴ
ンが離間して配置されているキャラクタに対するデータ
処理部であって、関節部分を備えたキャラクタモデルの
動きに対するモーションを実行可能なモーションデータ
を記憶し、前記関節部分の計算をすることなく、このモ
ーションデータに基づいて前記基準ポリゴンに対して部
品ポリゴンを配置する位置を計算して直接配置してなる
データ処理部を有するデータ処理装置。1. A character, which is a human character, has a reference polygon and a component polygon, and has no joint portion between the polygons, and these polygons are spaced apart from each other. A data processing unit, which stores motion data capable of executing a motion with respect to the movement of a character model having a joint portion, and calculates the joint portion based on the motion data with respect to the reference polygon without calculating the joint portion. A data processing apparatus having a data processing unit configured to calculate a position where a component polygon is arranged and directly arrange the component polygon.
このキャラクタは基準ポリゴンと部品ポリゴンとを有し
かつ、両ポリゴンの間に関節部分を備えることなく、こ
れらポリゴンが離間して配置されているキャラクタに対
するデータ処理部であって、関節部分を備えた野球選手
のキャラクタモデルの動きに対する投球動作を実行可能
なモーションデータを記憶し、前記関節部分の計算をす
ることなく、このモーションデータに基づいて前記基準
ポリゴンに対して部品ポリゴンを配置する位置を計算し
て直接配置して投球動作を実行可能なるデータ処理部を
有するデータ処理装置。2. A character for a baseball player,
This character has a reference polygon and a component polygon, and is a data processing unit for a character in which these polygons are arranged apart from each other without providing a joint portion between both polygons, and has a joint portion. The motion data capable of executing a pitching motion corresponding to the motion of the character model of the baseball player is stored, and the position where the component polygon is arranged with respect to the reference polygon is calculated based on this motion data without calculating the joint portion. And a data processing unit having a data processing unit which can be directly arranged to execute a pitching operation.
対応し、前記部品ポリゴンが頭部、手首及び足首の少な
くとも一つに対応する請求項1又は2記載のデータ処理
装置。Wherein said reference polygon brat correspond to the fuselage of Yarakuta, the part polygon head, the data processing apparatus according to claim 1 or 2, wherein corresponding to at least one of the wrists and ankles.
一項に記載のデータ処理部の処理動作を実行させるプロ
グラムを記憶した記憶媒体。4. A computer according to any one of claims 1 to 3 .
A storage medium storing a program for executing the processing operation of the data processing unit according to one item .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23332798A JP3420507B2 (en) | 1997-09-04 | 1998-08-19 | Data processing apparatus and storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9-240029 | 1997-09-04 | ||
JP24002997 | 1997-09-04 | ||
JP23332798A JP3420507B2 (en) | 1997-09-04 | 1998-08-19 | Data processing apparatus and storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03271098A Division JP4126745B2 (en) | 1997-09-04 | 1998-02-16 | Data processing apparatus, processing method therefor, and medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11144088A JPH11144088A (en) | 1999-05-28 |
JP3420507B2 true JP3420507B2 (en) | 2003-06-23 |
Family
ID=26530987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23332798A Expired - Fee Related JP3420507B2 (en) | 1997-09-04 | 1998-08-19 | Data processing apparatus and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3420507B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3265296B2 (en) | 2000-02-04 | 2002-03-11 | コナミ株式会社 | GAME SYSTEM AND COMPUTER-READABLE STORAGE MEDIUM USED FOR THE SAME |
US7660482B2 (en) | 2004-06-23 | 2010-02-09 | Seiko Epson Corporation | Method and apparatus for converting a photo to a caricature image |
CN111832421B (en) * | 2020-06-18 | 2023-09-01 | 西北大学 | Lower limb joint point extraction method based on physiological feature error correction |
-
1998
- 1998-08-19 JP JP23332798A patent/JP3420507B2/en not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
1.サターンファン、1997年No.16(1997−8−29)株式会社徳間書店/インターメディア・カンパニー「SEGA DYNAMIC PREVIEW」P32−33 |
2.Andrew S.Glassner、「最新3次元コンピュータグラフィックス」初版(1991−4−1)株式会社アスキー、P181−182,267−268 |
3.週刊ファミ通、第12巻第35号(1997−8−29)株式会社アスキー「ニンテンドウ64夏の新作スクープ乱れ撃ちファミスタ64」P24−26 |
4.月刊ゲームウォーカー、第4巻第9号通巻35号(1997−9−1)株式会社角川書店「新作ソフトカタログプレイステーション 実行パワフルプロ野球」 97 開幕版」P104 |
Also Published As
Publication number | Publication date |
---|---|
JPH11144088A (en) | 1999-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3133299B2 (en) | Game device, moving image display method, and recording medium | |
US6558257B1 (en) | Imaging processing apparatus and image processing method | |
EP0842682B9 (en) | Image processor for games | |
EP0840256B1 (en) | Apparatus and method for generating skeleton-based dynamic picture images as well as medium storing therein program for generation of such picture images | |
KR100463906B1 (en) | Image processing apparatus, game machine and image processing method and medium using the processing apparatus | |
JP4704622B2 (en) | Image generation system, program, and information storage medium | |
JP4187182B2 (en) | Image generation system, program, and information storage medium | |
JPH09218961A (en) | Device and method for generating image | |
JP2000207582A (en) | Image processing method and image processor using the same | |
JPH10211360A (en) | Game device, and screen display method for game device | |
JP3420507B2 (en) | Data processing apparatus and storage medium | |
JPH10198821A (en) | Image processor, image processing method, and recording medium | |
US7161600B2 (en) | Methods and apparatus for transforming three-dimensional objects in video games | |
JP4126745B2 (en) | Data processing apparatus, processing method therefor, and medium | |
JP5220350B2 (en) | Program, information storage medium, and image generation system | |
JP4544555B2 (en) | GAME SYSTEM AND INFORMATION STORAGE MEDIUM | |
JP3872032B2 (en) | Image generation program, image generation apparatus, image generation method, and video game apparatus | |
JP4233065B2 (en) | GAME DEVICE AND INFORMATION STORAGE MEDIUM | |
JPH11195135A (en) | Picture processing method, device therefor and storage medium | |
JP4212015B2 (en) | Image generating apparatus and information storage medium | |
JP3561480B2 (en) | Training game progress control program, training game progress control method, and training game device | |
JP2000331184A (en) | Image forming device and information storing medium | |
JP4785163B2 (en) | Image generation system, program, and information storage medium | |
JP6310516B2 (en) | Game program and game system | |
JP3629453B2 (en) | Game progress control program, game progress control method, and video game apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20000404 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080418 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080418 Year of fee payment: 5 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080418 Year of fee payment: 5 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080418 Year of fee payment: 5 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080418 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090418 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090418 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090418 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090418 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090418 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100418 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100418 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110418 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110418 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120418 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120418 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140418 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |