JP4536095B2 - Image processing program, image processing apparatus, and image processing control method - Google Patents

Image processing program, image processing apparatus, and image processing control method Download PDF

Info

Publication number
JP4536095B2
JP4536095B2 JP2007228854A JP2007228854A JP4536095B2 JP 4536095 B2 JP4536095 B2 JP 4536095B2 JP 2007228854 A JP2007228854 A JP 2007228854A JP 2007228854 A JP2007228854 A JP 2007228854A JP 4536095 B2 JP4536095 B2 JP 4536095B2
Authority
JP
Japan
Prior art keywords
data
determination data
posture determination
difference
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007228854A
Other languages
Japanese (ja)
Other versions
JP2009064069A (en
Inventor
秀明 風岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2007228854A priority Critical patent/JP4536095B2/en
Publication of JP2009064069A publication Critical patent/JP2009064069A/en
Application granted granted Critical
Publication of JP4536095B2 publication Critical patent/JP4536095B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、画像処理プログラム、特に、オブジェクトを画像表示部に表示するためのデータを処理可能なコンピュータにより実行される画像処理プログラムに関する。また、この画像処理プログラムを実行可能な画像処理装置、およびこの画像処理プログラムに基づいてコンピュータにより制御される画像処理制御方法に関する。   The present invention relates to an image processing program, and more particularly to an image processing program executed by a computer capable of processing data for displaying an object on an image display unit. The present invention also relates to an image processing apparatus that can execute the image processing program, and an image processing control method that is controlled by a computer based on the image processing program.

従来から様々なビデオゲームが提案されている。これらビデオゲームは、ゲーム装置において実行されるようになっている。たとえば、一般的なゲーム装置は、モニタと、モニタとは別体のゲーム機本体と、ゲーム機本体とは別体の入力装置たとえばコントローラとを有している。コントローラには、複数の入力釦が配置されている。   Conventionally, various video games have been proposed. These video games are executed in a game device. For example, a general game device has a monitor, a game machine main body separate from the monitor, and an input device such as a controller separate from the game machine main body. The controller has a plurality of input buttons.

このようなゲーム装置において実現されるビデオゲームの1つとして、たとえば、野球ゲームが知られている(非特許文献1を参照)。この野球ゲームでは、選手キャラクタが動作する状態が、モニタに表示されるようになっている。   As one of video games realized in such a game device, for example, a baseball game is known (see Non-Patent Document 1). In this baseball game, the state in which the player character operates is displayed on the monitor.

ここでは、選手キャラクタの動作をモニタに表示するために、選手キャラクタのモーションデータが用いられる。この選手キャラクタのモーションデータは、予め用意されているデータであり、ゲームプログラムのロード時に記憶部に格納されている。記憶部に格納されるモーションデータは、一般的には、モーションキャプチャにより事前に生成されている。
ここに示したモーションキャプチャとは、役者に動作を実際に行ってもらうことにより、役者の動作をデジタルデータとして取得する技術のことである。具体的には、役者の関節部や関節部近傍には、マーカと呼ばれる目印たとえば小さな白い球が装着されている。この状態において、役者を取り囲むように配置された複数のカメラ(一般的には3〜6台程度のカメラ)により、役者の演技が撮影される。ここで撮影された複数の動画を用いることによりマーカの位置が追跡され、それぞれの動画に映されたマーカの位置関係によりマーカの3次元位置座標データが求められる。そして、マーカの3次元位置座標データ、役者の体型、取り付けたマーカの位置関係から各関節の回転角度が算出される。このようなモーションキャプチャ技術を用いることにより、役者の動作をデジタルデータとして取得することができる。
たとえば、野球ゲームにおける選手キャラクタの動作と同じ動作を、関節部にマーカを付けた役者に行ってもらった場合、選手キャラクタの動作に対応するデジタルデータを取得することができる。そして、このデジタルデータを修正することにより、ゲームで利用可能なモーションデータを生成することができる。
プロ野球スピリッツ4、コナミデジタルエンタテインメント、PS3版、2007年4月1日
Here, the motion data of the player character is used to display the motion of the player character on the monitor. The player character motion data is data prepared in advance and is stored in the storage unit when the game program is loaded. The motion data stored in the storage unit is generally generated in advance by motion capture.
The motion capture shown here is a technique for acquiring the action of the actor as digital data by having the actor actually perform the action. Specifically, a marker called a marker, for example, a small white sphere is attached to the actor's joint or the vicinity of the joint. In this state, the actor's performance is photographed by a plurality of cameras (generally about three to six cameras) arranged so as to surround the actor. The position of the marker is tracked by using a plurality of moving images taken here, and the three-dimensional position coordinate data of the marker is obtained from the positional relationship of the markers displayed in each moving image. Then, the rotation angle of each joint is calculated from the three-dimensional position coordinate data of the marker, the body shape of the actor, and the positional relationship of the attached marker. By using such a motion capture technique, it is possible to acquire the actions of the actor as digital data.
For example, when an actor with a marker on the joint performs the same action as the action of the player character in the baseball game, digital data corresponding to the action of the player character can be acquired. Then, by correcting the digital data, motion data that can be used in the game can be generated.
Professional baseball spirits 4, Konami Digital Entertainment, PS3 version, April 1, 2007

野球ゲームでは、選手キャラクタの動作をモニタに表示するために、選手キャラクタのモーションデータを用意する必要がある。   In a baseball game, it is necessary to prepare motion data of a player character in order to display the motion of the player character on a monitor.

モーションデータは、モーションキャプチャにより取得されたデジタルデータをフレームごとに手動で修正することにより生成される。ここで生成されたモーションデータ(全フレームの姿勢データ)の容量は膨大であるため、このモーションデータをゲームにおいて直接利用しようとすると、ゲーム装置が有するメモリ容量を圧迫してしまうという問題があった。このため、全フレームの姿勢データから特徴的な姿勢を持つ姿勢データだけを手動で選別し、手動で選別された複数の姿勢データをモーションデータとして利用することにより、モーションデータの容量の削減が行われている。しかしながら、全フレームの姿勢データから特徴的な姿勢を持つ姿勢データだけを手動で選別する作業は、非常に大きな労力と非常に多くの時間が必要になるという問題があった。   The motion data is generated by manually correcting the digital data acquired by the motion capture for each frame. Since the volume of motion data generated here (attitude data for all frames) is enormous, there is a problem that if this motion data is used directly in a game, the memory capacity of the game device is compressed. . For this reason, it is possible to reduce the capacity of motion data by manually selecting only posture data having a characteristic posture from posture data of all frames, and using a plurality of manually selected posture data as motion data. It has been broken. However, the operation of manually selecting only the posture data having a characteristic posture from the posture data of all frames has a problem that it requires a very large amount of labor and a great deal of time.

このような問題を解決するために、本発明では、モーションデータを自動的に選別することができるようにし、動画の再生に必要となるデータの容量が小さくなるようにすることにある。   In order to solve such a problem, in the present invention, motion data can be automatically selected, and the amount of data necessary for reproducing a moving image is reduced.

請求項1に係る画像処理プログラムは、オブジェクトを画像表示部に表示するためのデータを処理可能なコンピュータに、以下の機能を実現させるためのプログラムである。
(1)記憶部に格納された、オブジェクトの複数の姿勢それぞれを決定し、複数の要素と複数の要素それぞれを互いに連結するための連結部とからなるオブジェクトにおいて連結部まわりに回転する要素の位置を規定するためのものであり、連結部に定義される姿勢決定用データを、制御部に認識させる姿勢決定用データ認識機能。
(2)複数の姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとして制御部に認識させる第1基準姿勢決定用データ認識機能。
(3)基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第1基準姿勢決定用データ格納機能。
(4)基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを算出する処理を、制御部に実行させる対応データ算出機能。
(5)姿勢決定用データと対応データとの差異を許容する許容範囲を規定するためのものであり、オブジェクトの基部に配置される連結部と、少なくとも1つの要素を介してオブジェクトの基部に配置された連結部に連なる末端部との距離が大きくなるにつれて、オブジェクトの基部側における姿勢決定用データと対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データを設定し、制御部に認識させる許容差異データ認識機能。
(6)姿勢決定用データと姿勢決定用データに対応する対応データとを比較する処理を制御部に実行させることにより、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるか否かを、制御部に判別させるデータ差異判別機能。
(7)姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する姿勢決定用データを、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識させる第2基準姿勢決定用データ認識機能。
(8)上記の基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第2基準姿勢決定用データ格納機能。
(9)姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての基準姿勢決定用データを制御部に認識させる第3基準姿勢決定用データ認識機能。
An image processing program according to claim 1 is a program for causing a computer capable of processing data for displaying an object on an image display unit to realize the following functions.
(1) The position of an element that rotates around a connecting portion in an object that includes a connecting portion for determining each of a plurality of postures of the object and connecting the plurality of elements and the plurality of elements to each other , stored in the storage portion Is a posture recognition data recognition function for causing the control portion to recognize posture determination data defined in the connecting portion .
(2) A first reference attitude determination data recognition function that causes the control unit to recognize any two attitude determination data of the plurality of attitude determination data as reference attitude determination data.
(3) A first reference posture determination data storage function that causes the control unit to execute processing for storing reference posture determination data in the storage unit.
(4) A correspondence data calculation function for causing the control unit to execute processing for calculating correspondence data corresponding to each of a plurality of posture determination data using the reference posture determination data.
(5) It is for prescribing an allowable range in which a difference between the attitude determination data and the corresponding data is allowed , and is arranged at the base of the object via at least one element and a connecting part arranged at the base of the object. The tolerance difference data is set so that the criterion for judging the difference between the posture determination data on the base side of the object and the corresponding data becomes stricter as the distance from the end portion connected to the connected portion increases. , Tolerance difference data recognition function that allows the control unit to recognize.
(6) By allowing the control unit to execute processing for comparing the attitude determination data and the corresponding data corresponding to the attitude determination data, an allowable range in which the difference between the attitude determination data and the corresponding data corresponds to the allowable difference data A data difference discrimination function that makes the control unit discriminate whether or not it is within.
(7) When the controller determines that the difference between the attitude determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is used as the reference attitude described above. A second reference posture determination data recognition function that causes the control unit to recognize the reference posture determination data different from the determination data.
(8) A second reference posture determination data storage function that causes the control unit to execute processing for storing reference posture determination data different from the reference posture determination data in the storage unit.
(9) When the control unit determines that the difference between the posture determination data and the corresponding data is within the allowable range corresponding to the allowable difference data, all the reference posture determination data stored in the storage unit is controlled. Data recognition function for determining the third reference posture to be recognized by the unit.

この画像処理プログラムでは、姿勢決定用データ認識機能において、記憶部に格納された、オブジェクトの複数の姿勢それぞれを決定するための姿勢決定用データが、制御部に認識される。この姿勢決定用データは、複数の要素と複数の要素それぞれを互いに連結するための連結部とからなるオブジェクトにおいて連結部まわりに回転する要素の位置を規定するためのものであり、連結部に定義される。第1基準姿勢決定用データ認識機能においては、複数の姿勢決定用データのうちのいずれか2つの姿勢決定用データが、基準姿勢決定用データとして制御部に認識される。第1基準姿勢決定用データ格納機能においては、基準姿勢決定用データを記憶部に格納する処理が、制御部により実行される。 In this image processing program, in the posture determination data recognition function, the posture determination data stored in the storage unit for determining each of the plurality of postures of the object is recognized by the control unit. This attitude determination data is for defining the position of an element that rotates around a connecting part in an object composed of a plurality of elements and a connecting part for connecting each of the plurality of elements, and is defined in the connecting part. Is done. In the first reference attitude determination data recognition function, any two of the plurality of attitude determination data are recognized by the control unit as reference attitude determination data. In the first reference posture determination data storage function, a process of storing the reference posture determination data in the storage unit is executed by the control unit.

対応データ算出機能においては、基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを算出する処理が、制御部により実行される。許容差異データ認識機能においては、姿勢決定用データと対応データとの差異を許容する許容範囲を規定するための許容差異データが、制御部に認識される。この許容差異データは、オブジェクトの基部に配置される連結部と、少なくとも1つの要素を介してオブジェクトの基部に配置された連結部に連なる末端部との距離が大きくなるにつれて、オブジェクトの基部側における姿勢決定用データと対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データが設定される。データ差異判別機能においては、姿勢決定用データと姿勢決定用データに対応する対応データとを比較する処理を制御部に実行させることにより、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるか否かが、制御部により判別される。 In the correspondence data calculation function, a process of calculating correspondence data corresponding to each of the plurality of posture determination data using the reference posture determination data is executed by the control unit. In the permissible difference data recognition function, permissible difference data for defining a permissible range for allowing a difference between the posture determination data and the corresponding data is recognized by the control unit. As the distance between the connecting portion arranged at the base portion of the object and the terminal portion connected to the connecting portion arranged at the base portion of the object via at least one element increases, Allowable difference data is set such that the criterion for judging the difference between the posture determination data and the corresponding data becomes strict. In the data difference determination function, the difference between the posture determination data and the corresponding data is converted into the allowable difference data by causing the control unit to execute a process of comparing the posture determination data and the corresponding data corresponding to the posture determination data. It is determined by the control unit whether or not it is within the corresponding allowable range.

第2基準姿勢決定用データ認識機能においては、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する姿勢決定用データが、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識される。第2基準姿勢決定用データ格納機能においては、上記の基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理が、制御部により実行される。第3基準姿勢決定用データ認識機能においては、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての基準姿勢決定用データが、制御部に認識される。   In the second reference posture determination data recognition function, the posture having the largest difference when the difference between the posture determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data. The determination data is recognized by the control unit as reference posture determination data different from the reference posture determination data. In the second reference posture determination data storage function, a process of storing reference posture determination data different from the reference posture determination data in the storage unit is executed by the control unit. In the third reference posture determination data recognition function, when the control unit determines that the difference between the posture determination data and the corresponding data is within the allowable range corresponding to the allowable difference data, the data is stored in the storage unit. All reference posture determination data is recognized by the control unit.

たとえば、本画像処理プログラムを用いることにより、ゲームにおけるキャラクタ用のモーションデータが処理される場合を考える。モーションキャプチャにより生成されたキャラクタ用のモーションデータ(生データ)は、各瞬間のキャラクタの姿勢を示す姿勢データ(姿勢用の画像データ)から構成されている。たとえば、姿勢用の画像データが示す姿勢は姿勢決定用データを用いて設定され、姿勢用の画像データは姿勢決定用データに基づいて生成される。   For example, consider a case in which motion data for a character in a game is processed by using this image processing program. The motion data (raw data) for the character generated by the motion capture is composed of posture data (image data for posture) indicating the posture of the character at each moment. For example, the posture indicated by the image data for posture is set using posture determination data, and the image data for posture is generated based on the posture determination data.

まず、記憶部に格納された複数の姿勢決定用データが、制御部に認識される。そして、複数の姿勢決定用データのうちのいずれか2つの姿勢決定用データが、基準姿勢決定用データとして制御部に認識される。そして、これら基準姿勢決定用データが、記憶部に格納される。   First, a plurality of posture determination data stored in the storage unit are recognized by the control unit. Then, any two of the plurality of posture determination data are recognized by the control unit as reference posture determination data. These reference posture determination data are stored in the storage unit.

そして、記憶部に格納された基準姿勢決定用データを用いて、複数の姿勢決定用データそれぞれに対応する対応データが制御部により算出される。そして、姿勢決定用データと対応データとの差異を許容する許容範囲を規定するための許容差異データが、制御部に認識される。そして、姿勢決定用データと姿勢決定用データに対応する対応データとを比較することにより、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるか否かが、制御部により判別される。   Then, using the reference posture determination data stored in the storage unit, the corresponding data corresponding to each of the plurality of posture determination data is calculated by the control unit. Then, allowable difference data for defining an allowable range in which a difference between the posture determination data and the corresponding data is allowed is recognized by the control unit. Then, by comparing the attitude determination data and the corresponding data corresponding to the attitude determination data, whether or not the difference between the attitude determination data and the corresponding data is within an allowable range corresponding to the allowable difference data, Determined by the control unit.

そして、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する姿勢決定用データが、更なる基準姿勢決定用データとして制御部に認識される。そして、更なる基準姿勢決定用データが、記憶部に格納される。一方で、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての基準姿勢決定用データが、制御部に認識される。   Then, when the control unit determines that the difference between the attitude determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is further determined as the reference attitude determination. It is recognized as control data by the control unit. Then, further reference posture determination data is stored in the storage unit. On the other hand, when the controller determines that the difference between the posture determination data and the corresponding data is within the allowable range corresponding to the allowable difference data, all the reference posture determination data stored in the storage unit are Recognized by the control unit.

この場合、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内になるまで、最大の差異を有する姿勢決定用データ(基準姿勢決定用データ)が記憶部に連続的に格納される。このため、姿勢決定用データと対応データとの差異が許容範囲内になったときには、特徴的な姿勢を決定するための姿勢決定用データ(基準姿勢決定用データ)が、選択的に記憶部に格納されていることになる。   In this case, until the difference between the attitude determination data and the corresponding data falls within the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference (reference attitude determination data) is continuously stored in the storage unit. Stored. For this reason, when the difference between the posture determination data and the corresponding data falls within the allowable range, posture determination data (reference posture determination data) for determining a characteristic posture is selectively stored in the storage unit. Will be stored.

このように、請求項1に係る発明では、姿勢決定用データを、許容差異データに基づいて自動的かつ選択的に記憶部に格納することにより、動画の再生に必要となるデータの容量を小さくすることができる。   Thus, according to the first aspect of the present invention, the data for posture reproduction is reduced by automatically storing the posture determination data in the storage unit based on the allowable difference data. can do.

また、この場合、記憶部に格納された、複数の骨要素と複数の骨要素それぞれを互いに連結するための関節部(連結部)とからなるキャラクタにおいて関節部まわりに回転する骨要素の位置を規定するための姿勢決定用データが、制御部に認識される。ここでは、複数の骨要素と複数の骨要素それぞれを互いに連結するための関節部(連結部)とからなるキャラクタに対応する画像データが、関節部まわりに回転する骨要素の位置を規定するための姿勢決定用データに基づいて生成される。このため、関節部まわりに回転する骨要素の位置を規定するための姿勢決定用データを用いて、キャラクタに対応する画像データを生成することにより、キャラクタの複数の姿勢からなる動画を、違和感なく画像表示部に表示することができる。Further, in this case, the position of the bone element that rotates around the joint portion in the character that includes the plurality of bone elements and the joint portions (connecting portions) for connecting each of the plurality of bone elements stored in the storage unit is determined. Attitude control data for defining is recognized by the control unit. Here, image data corresponding to a character including a plurality of bone elements and a joint portion (connecting portion) for connecting the bone elements to each other defines the position of the bone element rotating around the joint portion. Is generated based on the posture determination data. For this reason, by generating the image data corresponding to the character using the posture determination data for defining the position of the bone element rotating around the joint portion, it is possible to display a moving image having a plurality of postures of the character without a sense of incongruity. It can be displayed on the image display unit.

また、この場合、関節部に定義される姿勢決定用データが、制御部に認識される。そして、キャラクタの腰部(基部)に配置される関節部(基準関節部)と、少なくとも1つの骨要素を介してキャラクタの腰部に配置された関節部に連なる関節部との距離(関節間距離)に応じた許容差異データが、制御部に認識される。たとえば、キャラクタの基準関節部を基準として関節間距離が大きくなるにつれて許容差異データによる判別基準が異なるように設定された許容差異データが、制御部に認識される。具体的には、キャラクタの基準関節部を基準として関節間距離が大きくなるにつれて許容差異データによる判別基準が緩くなるような許容差異データが、制御部に認識される。  In this case, posture determination data defined in the joint is recognized by the control unit. And the distance (inter-joint distance) between the joint part (reference joint part) arranged at the waist part (base part) of the character and the joint part connected to the joint part arranged at the waist part of the character via at least one bone element The permissible difference data according to is recognized by the control unit. For example, the control unit recognizes allowable difference data set so that the determination criterion based on the allowable difference data is different as the inter-joint distance increases with the reference joint portion of the character as a reference. More specifically, the control unit recognizes permissible difference data such that the criterion based on the permissible difference data becomes weaker as the inter-joint distance increases with the reference joint portion of the character as a reference.

ここでは、キャラクタの基準関節部を基準として関節間距離が大きくなるにつれて許容差異データによる判別基準が緩くなるような許容差異データが、制御部に認識される。言い換えると、基準関節部に連結された骨要素の長さが長ければ長いほど、腰部側の関節部における許容差異データによる判別基準が厳しくなるように設定された許容差異データが、制御部に認識される。すなわち、基準関節部に連結された骨要素の長さが長ければ長いほど、腰部側の関節部における差異判別が厳しく行われる。このように、この発明では、キャラクタの主要部近傍の精度(腰部近傍の精度)を確保することができる。  Here, permissible difference data is recognized by the control unit such that the criterion based on the permissible difference data becomes loose as the inter-joint distance increases with the reference joint portion of the character as a reference. In other words, the longer the length of the bone element connected to the reference joint, the more the tolerance difference data set so that the discrimination criterion based on the tolerance difference data in the joint on the lumbar side becomes stricter is recognized by the control unit. Is done. That is, as the length of the bone element connected to the reference joint portion is longer, the difference determination at the lumbar joint portion is performed more strictly. As described above, according to the present invention, accuracy in the vicinity of the main part of the character (accuracy in the vicinity of the waist) can be ensured.

なお、一般的には、キャラクタの主要部から離れれば離れるほど、主要部から離れた位置の連結部は、キャラクタの主要部における誤差の影響を強く受けることになる。しかしながら、この発明では、キャラクタの主要部近傍の精度が確保されているので、キャラクタの主要部における誤差が、主要部から離れた位置の連結部の誤差として反映されるという問題を解消することができる。  In general, the further away from the main part of the character, the stronger the connection part located away from the main part is affected by the error in the main part of the character. However, according to the present invention, since the accuracy in the vicinity of the main part of the character is ensured, it is possible to solve the problem that the error in the main part of the character is reflected as the error of the connecting part located away from the main part. it can.

さらに、この場合、基準関節部に連結された骨要素の長さが長ければ長いほど、腰部側の関節部における差異判別が厳しく行われる。このように、この発明では、キャラクタの主要部近傍の精度(腰部近傍の精度)を確保することができる。また、一般的には、キャラクタの主要部から離れれば離れるほど、主要部から離れた位置の連結部は、キャラクタの主要部における誤差の影響を強く受けることになる。しかしながら、この発明では、キャラクタの主要部近傍の精度が確保されているので、キャラクタの主要部における誤差が、主要部から離れた位置の連結部の誤差として反映されるという問題を解消することができる。  Furthermore, in this case, the longer the length of the bone element connected to the reference joint portion, the more severely the difference determination at the waist side joint portion is performed. As described above, according to the present invention, accuracy in the vicinity of the main part of the character (accuracy in the vicinity of the waist) can be ensured. In general, the further away from the main part of the character, the stronger the connection part at a position away from the main part is affected by the error in the main part of the character. However, according to the present invention, since the accuracy in the vicinity of the main part of the character is ensured, it is possible to solve the problem that the error in the main part of the character is reflected as the error of the connecting part located away from the main part. it can.

請求項2に係る画像処理プログラムでは、請求項に記載の画像処理プログラムにおいて、上記の距離が大きくなるにつれてオブジェクトの基部側における判別基準が厳しくなるように許容差異データを調節するための調節データを、設定する処理、および許容差異データに調節データを乗じる処理を、制御部に実行させることにより、許容差異データが設定される。この機能は、許容差異データ認識機能において実現される。 The image processing program according to claim 2, adjustment data for the image processing program according, to adjust the allowable difference data as discrimination criterion becomes severe at the base side of the object as the distance the increases in claim 1 Is set, and the control unit is caused to execute a process of setting the tolerance difference data and a process of multiplying the tolerance difference data by the adjustment data, so that the tolerance difference data is set. This function is realized in the allowable difference data recognition function.

この場合、調整データを用いることによって、基準関節部に連結された骨要素の長さが長ければ長いほど、腰部側の関節部における差異判別が厳しく行われる。このように、この発明では、キャラクタの主要部近傍の精度(腰部近傍の精度)を確保することができる。また、一般的には、キャラクタの主要部から離れれば離れるほど、主要部から離れた位置の連結部は、キャラクタの主要部における誤差の影響を強く受けることになる。しかしながら、この発明では、キャラクタの主要部近傍の精度が確保されているので、キャラクタの主要部における誤差が、主要部から離れた位置の連結部の誤差として反映されるという問題を解消することができる。  In this case, by using the adjustment data, the longer the length of the bone element connected to the reference joint portion is, the more severely the difference is determined at the waist side joint portion. As described above, according to the present invention, accuracy in the vicinity of the main part of the character (accuracy in the vicinity of the waist) can be ensured. In general, the further away from the main part of the character, the stronger the connection part at a position away from the main part is affected by the error in the main part of the character. However, according to the present invention, since the accuracy in the vicinity of the main part of the character is ensured, it is possible to solve the problem that the error in the main part of the character is reflected as the error of the connecting part located away from the main part. it can.

請求項3に係る画像処理プログラムは、請求項1又は2に記載の画像処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。   An image processing program according to claim 3 is a program for causing a computer to further realize the following functions in the image processing program according to claim 1 or 2.

対応データ算出機能においては、基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを補間により算出する処理が、制御部により実行される。データ差異判別機能においては、姿勢決定用データと姿勢決定用データに対応する対応データとの差を計算する処理を制御部に実行させることにより、姿勢決定用データと対応データとの差が許容差異データに対応する許容値未満であるか否かが、制御部により判別される。第2基準姿勢決定用データ認識機能においては、姿勢決定用データと対応データとの差が許容差異データに対応する許容値以上であると制御部に判別された場合に、差が最大である姿勢決定用データが、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識される。第3基準姿勢決定用データ認識機能においては、姿勢決定用データと対応データとの差が許容差異データに対応する許容値未満であると制御部に判別された場合に、全ての基準姿勢決定用データが制御部に認識される。   In the correspondence data calculation function, a process of calculating correspondence data corresponding to each of the plurality of posture determination data by using the reference posture determination data is executed by the control unit. In the data difference determination function, the difference between the posture determination data and the corresponding data is determined as an allowable difference by causing the control unit to execute a process of calculating the difference between the posture determination data and the corresponding data corresponding to the posture determination data. The control unit determines whether the value is less than the allowable value corresponding to the data. In the second reference posture determination data recognition function, the posture having the maximum difference when the controller determines that the difference between the posture determination data and the corresponding data is greater than or equal to the allowable value corresponding to the allowable difference data. The determination data is recognized by the control unit as reference posture determination data different from the reference posture determination data. In the third reference posture determination data recognition function, when the control unit determines that the difference between the posture determination data and the corresponding data is less than the allowable value corresponding to the allowable difference data, all the reference posture determination data Data is recognized by the control unit.

たとえば、本画像処理プログラムを用いることにより、ゲームにおけるキャラクタ用のモーションデータが処理される場合、基準姿勢決定用データに基づいた補間処理を制御部に実行させることにより、複数の姿勢決定用データそれぞれに対応する対応データが算出される。そして、姿勢決定用データと姿勢決定用データに対応する対応データとの差を計算することにより、姿勢決定用データと対応データとの差が許容差異データに対応する許容値未満であるか否かが、制御部により判別される。そして、姿勢決定用データと対応データとの差が許容差異データに対応する許容値以上であると制御部に判別された場合に、差が最大である姿勢決定用データが、更なる基準姿勢決定用データとして制御部に認識される。一方で、姿勢決定用データと対応データとの差が許容差異データに対応する許容値未満であると制御部に判別された場合に、全ての基準姿勢決定用データが制御部に認識される。   For example, when motion data for a character in a game is processed by using this image processing program, each of a plurality of posture determination data can be obtained by causing the control unit to perform interpolation processing based on the reference posture determination data. Correspondence data corresponding to is calculated. Then, by calculating the difference between the attitude determination data and the corresponding data corresponding to the attitude determination data, whether or not the difference between the attitude determination data and the corresponding data is less than the allowable value corresponding to the allowable difference data. Is determined by the control unit. Then, when the control unit determines that the difference between the attitude determination data and the corresponding data is equal to or larger than the allowable value corresponding to the allowable difference data, the attitude determination data with the maximum difference is further determined as the reference attitude determination. It is recognized as control data by the control unit. On the other hand, when the control unit determines that the difference between the posture determination data and the corresponding data is less than the allowable value corresponding to the allowable difference data, all the reference posture determination data is recognized by the control unit.

この場合、複数の姿勢決定用データそれぞれに対応する対応データが、基準姿勢決定用データに基づいた補間処理により算出される。具体的には、キャプチャ時の基準姿勢決定用データに基づいて、複数の姿勢決定用データそれぞれに対応する予想データ(対応データ)が、補間処理により算出される。すると、姿勢決定用データと予想データとの差が許容差異データに対応する許容値未満になるまで、差が最大である姿勢決定用データ(基準姿勢決定用データ)が記憶部に連続的に格納される。このため、姿勢決定用データと予想データとの差が許容値未満になったときには、特徴的な複数の姿勢を決定するための姿勢決定用データ(基準姿勢決定用データ)が、選択的に記憶部に格納されることになる。   In this case, correspondence data corresponding to each of the plurality of posture determination data is calculated by interpolation processing based on the reference posture determination data. Specifically, prediction data (corresponding data) corresponding to each of a plurality of posture determination data is calculated by interpolation processing based on the reference posture determination data at the time of capture. Then, until the difference between the attitude determination data and the predicted data becomes less than the allowable value corresponding to the allowable difference data, the attitude determination data (reference attitude determination data) having the maximum difference is continuously stored in the storage unit. Is done. Therefore, when the difference between the posture determination data and the predicted data is less than the allowable value, posture determination data (reference posture determination data) for determining a plurality of characteristic postures is selectively stored. Will be stored in the department.

このように、請求項に係る発明では、姿勢決定用データを、許容差異データに基づいて自動的かつ選択的に記憶部に格納することにより、動画の再生に必要となるデータの容量を小さくすることができる。 Thus, in the invention according to claim 3 , by storing the posture determination data in the storage unit automatically and selectively based on the allowable difference data, the amount of data required for reproducing the moving image is reduced. can do.

請求項4に係る画像処理プログラムは、請求項1から3のいずれかに記載の画像処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。   An image processing program according to claim 4 is a program for causing a computer to further realize the following functions in the image processing program according to any one of claims 1 to 3.

姿勢決定用データ認識機能においては、記憶部に格納された、連続的に変化するオブジェクトの複数の姿勢それぞれを決定するための姿勢決定用データが、制御部に認識される。第1基準姿勢決定用データ認識機能においては、複数の姿勢決定用データのうちの最初の姿勢決定用データおよび最後の姿勢決定用データが、基準姿勢決定用データとして制御部に認識される。対応データ算出機能においては、基準姿勢決定用データを用いて、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する対応データを算出する処理が、制御部により実行される。   In the posture determination data recognition function, posture control data for determining each of a plurality of postures of continuously changing objects stored in the storage unit is recognized by the control unit. In the first reference posture determination data recognition function, the first posture determination data and the last posture determination data among the plurality of posture determination data are recognized by the control unit as reference posture determination data. In the correspondence data calculation function, a process of calculating correspondence data corresponding to each of a plurality of posture determination data between the first posture determination data and the last posture determination data using the reference posture determination data. And executed by the control unit.

たとえば、本画像処理プログラムを用いることにより、ゲームにおけるキャラクタ用のモーションデータが処理される場合、記憶部に格納された、連続的に変化するキャラクタの複数の姿勢それぞれを決定するための姿勢決定用データが、制御部に認識される。そして、複数の姿勢決定用データのうちの最初の姿勢決定用データおよび最後の姿勢決定用データが、基準姿勢決定用データとして制御部に認識される。そして、制御部に認識された基準姿勢決定用データを用いて、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する対応データが、制御部により算出される。   For example, when motion data for a character in a game is processed by using this image processing program, it is used for posture determination for determining each of a plurality of continuously changing character postures stored in a storage unit. Data is recognized by the control unit. Then, the first posture determination data and the last posture determination data among the plurality of posture determination data are recognized by the control unit as reference posture determination data. Then, using the reference posture determination data recognized by the control unit, correspondence data corresponding to each of a plurality of posture determination data between the first posture determination data and the last posture determination data is Is calculated by

この場合、複数の姿勢決定用データのうちの最初の姿勢決定用データおよび最後の姿勢決定用データを用いて、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する対応データが、制御部により算出される。具体的には、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する対応データが、最初の姿勢決定用データおよび最後の姿勢決定用データに基づいた内挿により算出される。   In this case, using the first posture determination data and the last posture determination data among the plurality of posture determination data, a plurality of posture determinations between the first posture determination data and the last posture determination data Corresponding data corresponding to each of the business data is calculated by the control unit. Specifically, the correspondence data corresponding to each of the plurality of posture determination data between the first posture determination data and the last posture determination data is included in the first posture determination data and the last posture determination data. Calculated by based interpolation.

このように、請求項に係る発明では、最初の姿勢決定用データおよび最後の姿勢決定用データに基づいた内挿により対応データが算出されるようになっているので、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する初期の対応データを、精度良く算出することができる。 Thus, in the invention according to claim 4 , since the correspondence data is calculated by interpolation based on the first posture determination data and the last posture determination data, the first posture determination data The initial correspondence data corresponding to each of the plurality of posture determination data between the first posture determination data and the last posture determination data can be calculated with high accuracy.

請求項5に係る画像処理プログラムは、請求項1から4に記載の画像処理プログラムにおいて、コンピュータに以下の機能をさらに実現させるためのプログラムである。
(10)全ての基準姿勢決定用データに基づいて、オブジェクトの姿勢用の画像データを生成する処理を、制御部に実行させる画像データ生成機能。
(11)オブジェクトの姿勢用の画像データに基づいて、オブジェクトの複数の姿勢からなる動画を画像表示部に表示する動画表示機能。
An image processing program according to claim 5 is a program for causing a computer to further realize the following functions in the image processing program according to claims 1 to 4.
(10) An image data generation function for causing the control unit to execute processing for generating image data for object posture based on all reference posture determination data.
(11) A moving image display function for displaying a moving image including a plurality of postures of the object on the image display unit based on the image data for the posture of the object.

この画像処理プログラムでは、画像データ生成機能において、全ての基準姿勢決定用データに基づいてオブジェクトの姿勢用の画像データを生成する処理が、制御部により実行される。動画表示機能においては、オブジェクトの姿勢用の画像データに基づいて、オブジェクトの複数の姿勢からなる動画が、画像表示部に表示される。   In this image processing program, in the image data generation function, a process for generating image data for object orientation based on all reference orientation determination data is executed by the control unit. In the moving image display function, a moving image including a plurality of postures of the object is displayed on the image display unit based on the image data for the posture of the object.

たとえば、本画像処理プログラムを用いることにより、ゲームにおけるキャラクタ用のモーションデータが処理される場合、全ての基準姿勢決定用データに基づいてキャラクタの姿勢用の画像データを生成する処理が、制御部により実行される。そして、キャラクタの姿勢用の画像データに基づいて、キャラクタの複数の姿勢からなる動画が、画像表示部に表示される。   For example, when motion data for a character in a game is processed by using this image processing program, processing for generating image data for the character's posture based on all reference posture determination data is performed by the control unit. Executed. Then, based on the image data for the character posture, a moving image including a plurality of character postures is displayed on the image display unit.

このように、請求項に係る発明では、選択的に抽出された姿勢決定用データ(基準姿勢決定用データ)に基づいて姿勢用の画像データを生成することができ、この姿勢用の画像データに基づいてキャラクタの複数の姿勢からなる動画を画像表示部に表示することができる。 As described above, in the invention according to claim 5 , posture image data can be generated based on selectively extracted posture determination data (reference posture determination data). Based on the above, it is possible to display a moving image composed of a plurality of postures of the character on the image display unit.

請求項6に係る画像処理装置は、オブジェクトを画像表示部に表示するためのデータを処理可能な装置である。この装置は、記憶部に格納された、オブジェクトの複数の姿勢それぞれを決定し、複数の要素と複数の要素それぞれを互いに連結するための連結部とからなるオブジェクトにおいて連結部まわりに回転する要素の位置を規定するためのものであり、連結部に定義される姿勢決定用データを、制御部に認識させる姿勢決定用データ認識手段と、複数の姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとして制御部に認識させる第1基準姿勢決定用データ認識手段と、基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第1基準姿勢決定用データ格納手段と、基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを算出する処理を、制御部に実行させる対応データ算出手段と、姿勢決定用データと対応データとの差異を許容する許容範囲を規定するためのものであり、オブジェクトの基部に配置される連結部と、少なくとも1つの要素を介してオブジェクトの基部に配置された連結部に連なる末端部との距離が大きくなるにつれて、オブジェクトの基部側における姿勢決定用データと対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データを設定し、制御部に認識させる許容差異データ認識手段と、姿勢決定用データと姿勢決定用データに対応する対応データとを比較する処理を制御部に実行させることにより、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるか否かを、制御部に判別させるデータ差異判別手段と、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する姿勢決定用データを、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識させる第2基準姿勢決定用データ認識手段と、上記の基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第2基準姿勢決定用データ格納手段と、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての基準姿勢決定用データを制御部に認識させる第3基準姿勢決定用データ認識手段と、を備えている。 An image processing apparatus according to a sixth aspect is an apparatus capable of processing data for displaying an object on an image display unit. This device determines each of a plurality of postures of an object stored in a storage unit, and includes an element composed of a plurality of elements and a coupling unit for coupling each of the plurality of elements to each other. For determining the position, the attitude determination data recognizing means for causing the control section to recognize the attitude determination data defined in the connecting section, and any two attitude determinations among the plurality of attitude determination data First reference posture determination data recognition means for causing the control unit to recognize the data for use as reference posture determination data, and for the first reference posture determination to cause the control unit to execute processing for storing the reference posture determination data in the storage unit Correspondence to cause the control unit to execute processing for calculating correspondence data corresponding to each of a plurality of posture determination data using the data storage means and the reference posture determination data And over data calculating means is for defining the allowable range that allows the difference between the attitude determination data with corresponding data, and a connecting portion disposed at the base of the object, the object through at least one element As the distance from the terminal portion connected to the connecting portion arranged at the base portion increases, the discriminating criteria for judging the difference between the posture determination data on the base portion side of the object and the corresponding data becomes stricter. To allow the control unit to recognize the allowable difference data recognition means, and to cause the control unit to execute a process of comparing the posture determination data and the corresponding data corresponding to the posture determination data. A data difference determining means for causing the control unit to determine whether the difference from the data is within an allowable range corresponding to the allowable difference data; If the control unit determines that the difference between the data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the posture determination data having the maximum difference is different from the reference posture determination data. Second control posture determination data recognition means for causing the control unit to recognize as reference posture determination data, and causing the control unit to execute processing for storing reference posture determination data different from the reference posture determination data in the storage unit When the control unit determines that the difference between the second reference attitude determination data storage means and the attitude determination data and the corresponding data is within the allowable range corresponding to the allowable difference data, all the data stored in the storage unit Third reference posture determination data recognition means for causing the control unit to recognize the reference posture determination data.

請求項7に係る画像処理制御方法は、オブジェクトを画像表示部に表示するためのデータの処理をコンピュータにより制御する制御方法である。この制御方法は、記憶部に格納された、オブジェクトの複数の姿勢それぞれを決定し、複数の要素と複数の要素それぞれを互いに連結するための連結部とからなるオブジェクトにおいて連結部まわりに回転する要素の位置を規定するためのものであり、連結部に定義される姿勢決定用データを、制御部に認識させる姿勢決定用データ認識ステップと、複数の姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとして制御部に認識させる第1基準姿勢決定用データ認識ステップと、基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第1基準姿勢決定用データ格納ステップと、基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを算出する処理を、制御部に実行させる対応データ算出ステップと、姿勢決定用データと対応データとの差異を許容する許容範囲を規定するためのものであり、オブジェクトの基部に配置される連結部と、少なくとも1つの要素を介してオブジェクトの基部に配置された連結部に連なる末端部との距離が大きくなるにつれて、オブジェクトの基部側における姿勢決定用データと対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データを設定し、制御部に認識させる許容差異データ認識ステップと、姿勢決定用データと姿勢決定用データに対応する対応データとを比較する処理を制御部に実行させることにより、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるか否かを、制御部に判別させるデータ差異判別ステップと、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する姿勢決定用データを、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識させる第2基準姿勢決定用データ認識ステップと、上記の基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第2基準姿勢決定用データ格納ステップと、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての基準姿勢決定用データを制御部に認識させる第3基準姿勢決定用データ認識ステップと、を備えている。 An image processing control method according to a seventh aspect is a control method in which processing of data for displaying an object on an image display unit is controlled by a computer. In this control method, an element that is stored in a storage unit, determines each of a plurality of postures of an object, and rotates around a connecting unit in an object including a plurality of elements and a connecting unit for connecting each of the plurality of elements to each other. The posture determination data recognition step for causing the control unit to recognize the posture determination data defined in the connecting unit and any two postures of the plurality of posture determination data A first reference posture determination data recognition step for causing the control unit to recognize the determination data as reference posture determination data, and a first reference posture determination for causing the control unit to execute processing for storing the reference posture determination data in the storage unit A control unit that calculates the corresponding data corresponding to each of the plurality of posture determination data using the data storage step and the reference posture determination data Via a corresponding data calculating step to be executed is for defining the allowable range that allows the difference between the attitude determination data with corresponding data, and a connecting portion disposed at the base of the object, at least one element As the distance from the end part connected to the connecting part arranged at the base of the object becomes larger, the discriminant criterion for judging the difference between the attitude determination data on the base side of the object and the corresponding data becomes stricter. By setting the difference data and allowing the control unit to recognize the allowable difference data recognition step, and causing the control unit to execute processing for comparing the posture determination data and the corresponding data corresponding to the posture determination data, the posture determination data Data difference that allows the control unit to determine whether or not the difference between the corresponding data and the corresponding data is within the allowable range corresponding to the allowable difference data When the control unit determines that the difference between the different step and the attitude determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is determined as A second reference posture determination data recognition step for causing the control unit to recognize as reference posture determination data different from the posture determination data, and reference posture determination data different from the reference posture determination data are stored in the storage unit. When the control unit determines that the difference between the second reference posture determination data storage step for causing the control unit to execute the process and the difference between the posture determination data and the corresponding data is within an allowable range corresponding to the allowable difference data, A third reference posture determination data recognition step for causing the control unit to recognize all the reference posture determination data stored in the storage unit.

本発明では、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内になるまで、最大の差異を有する姿勢決定用データが記憶部に連続的に格納される。このため、姿勢決定用データと対応データとの差異が許容範囲内になったときには、特徴的な複数の姿勢を決定するための姿勢決定用データが、選択的に記憶部に格納されることになる。このように、本発明では、姿勢決定用データを、許容差異データに基づいて自動的かつ選択的に記憶部に格納することができる。また、選択的に抽出された姿勢決定用データに基づいて姿勢用の画像データを生成することができ、この姿勢用の画像データに基づいてキャラクタの複数の姿勢からなる動画を画像表示部に表示することができる。このように、姿勢決定用データを選択的に抽出することにより、動画の再生に必要となるデータの容量を小さくすることができ、キャラクタの動画をスムーズに再生することができる。   In the present invention, until the difference between the attitude determination data and the corresponding data falls within the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is continuously stored in the storage unit. For this reason, when the difference between the posture determination data and the corresponding data falls within the allowable range, posture determination data for determining a plurality of characteristic postures is selectively stored in the storage unit. Become. As described above, in the present invention, the posture determination data can be automatically and selectively stored in the storage unit based on the allowable difference data. In addition, posture image data can be generated based on the selectively extracted posture determination data, and a video including a plurality of character postures is displayed on the image display unit based on the posture image data. can do. As described above, by selectively extracting the posture determination data, it is possible to reduce the amount of data necessary for reproducing the moving image, and to smoothly reproduce the character moving image.

〔データ処理装置の構成と動作〕
図1は、データを処理するためのデータ処理装置の基本構成を示している。以下には、データ処理装置の一例として、家庭用コンピュータの構成が示されている。家庭用コンピュータは、家庭用コンピュータ本体およびモニタを備える。家庭用コンピュータ本体には、記録媒体10が装填可能となっており、記録媒体10からデータ処理用のプログラムが適宜読み出されて、データ処理用のプログラムが実行される。このようにデータ処理用のプログラムが実行されると、データ処理に関する内容を示す画像が、モニタに表示される。
[Configuration and operation of data processing apparatus]
FIG. 1 shows a basic configuration of a data processing apparatus for processing data. In the following, a configuration of a home computer is shown as an example of a data processing device. The home computer includes a home computer main body and a monitor. The home computer main body can be loaded with a recording medium 10, and a data processing program is appropriately read from the recording medium 10 and the data processing program is executed. When the data processing program is executed in this way, an image showing the contents related to the data processing is displayed on the monitor.

家庭用コンピュータは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5、通信部23とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用コンピュータ本体に含まれており、画像表示部3はモニタに含まれている。   The home computer includes a control unit 1, a storage unit 2, an image display unit 3, an audio output unit 4, an operation input unit 5, and a communication unit 23, which are connected via a bus 6. The The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the audio output unit 4, and the operation input unit 5 are included in the home computer main body, and the image display unit 3 is included in the monitor.

制御部1は、主に、データ処理用のプログラムに基づいてデータ処理の進行を制御する。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、データ処理用のプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、3次元空間上又は擬似3次元空間上で実行された計算結果に基づいた画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12bに書き込む処理を行っている。また、CPU7は、信号処理プロセッサ8に対して、各種データを処理するように命令する。信号処理プロセッサ8は、主に、3次元空間上における各種データに対応する計算と、3次元空間上から擬似3次元空間上への位置変換計算とを行っている。   The control unit 1 mainly controls the progress of data processing based on a data processing program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the data processing program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and in the three-dimensional space or the pseudo three-dimensional space. Image and sound data generation / processing based on the result of the calculation performed is performed. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12b based on the calculation result and the processing result of the signal processor 8. Further, the CPU 7 instructs the signal processor 8 to process various data. The signal processor 8 mainly performs calculations corresponding to various data in the three-dimensional space and position conversion calculation from the three-dimensional space to the pseudo three-dimensional space.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納する。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、ハードディスク12aと、RAM(Random Access Memory)12bとから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とハードディスク12aおよびRAM12bとはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやプログラムで利用するデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれている。ハードディスク12aは、記録媒体10から読み出された各種データを格納したり、制御部1からの処理結果を記録したりする。RAM12bは、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12bには、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 mainly stores program data, various data used for the program data, and the like. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, a hard disk 12a, and a RAM (Random Access Memory) 12b. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 is connected to the hard disk 12a and the RAM 12b via the bus 6. The recording medium 10 is for recording program data of the operation system, image data, audio data, and data composed of various program data. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, data used in the program, and the like. The recording medium 10 includes a card type memory. The hard disk 12a stores various data read from the recording medium 10, and records the processing results from the control unit 1. The RAM 12b is used to temporarily store various data read from the recording medium 10 and temporarily record the processing results from the control unit 1. The RAM 12b stores various data and address data indicating the storage position of the various data, and can read and write by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってハードディスク12aやRAM12bに書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、モニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。モニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the hard disk 12a or RAM 12b by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. Then, an analog image signal is output to the monitor 20 as an image.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon. In this way, an object in which a texture is pasted on each polygon, that is, various characters can be expressed.

音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカ13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカ13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカ13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカ13から出力することができる。PCMデータの場合、RAM12bにおいてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカ13から出力することができる。   The audio output unit 4 is provided mainly for outputting audio data read from the recording medium 10 as audio. The audio output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the audio data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog audio signal. This analog audio signal is amplified by the amplifier circuit 14 and output from the speaker 13 as audio. The audio data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, sound can be output from the speaker 13 by the same processing method as described above by converting the PCM data into ADPCM data in the RAM 12b.

操作入力部5は、主に、キーボード17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。キーボード17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。キーボード17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。キーボード17には、アルファベット、数字、および記号等が記された複数のキーが設けられている。   The operation input unit 5 mainly includes a keyboard 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the keyboard 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19. The keyboard 17 is an operation device used by the player to input various operation commands, and sends an operation signal corresponding to the operation of the player to the CPU 7. The keyboard 17 is provided with a plurality of keys on which alphabets, numbers, symbols, and the like are written.

通信部23は、通信制御回路24および通信インターフェース25を有している。通信制御回路24および通信インターフェース25は、家庭用コンピュータをサーバや他のコンピュータ等に接続するために用いられる。通信制御回路20および通信インターフェース21は、バス16を介してCPU7に接続されている。通信制御回路20および通信インターフェース21は、CPU7からの命令に応じて、家庭用コンピュータをインターネットに接続するための接続信号を制御し発信する。また、通信制御回路20および通信インターフェース21は、インターネットを介して家庭用コンピュータをサーバや他のコンピュータに接続するための接続信号を制御し発信する。   The communication unit 23 includes a communication control circuit 24 and a communication interface 25. The communication control circuit 24 and the communication interface 25 are used for connecting a home computer to a server or another computer. The communication control circuit 20 and the communication interface 21 are connected to the CPU 7 via the bus 16. The communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting the home computer to the Internet according to a command from the CPU 7. The communication control circuit 20 and the communication interface 21 control and transmit a connection signal for connecting a home computer to a server or another computer via the Internet.

以上のような構成からなる家庭用コンピュータの概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされ電源が投入されると、CPU7が、ハードディスク12a又は記録媒体10に記憶されているオペレーティングシステムに基づいて、ハードディスク12a又は記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、ハードディスク12aやRAM12bに格納される。そして、CPU7が、ハードディスク12aやRAM12bに格納されたプログラムデータに基づいて、画像データや音声データを画像や音声としてモニタ20やスピーカ13に出力するためのコマンドを発行する。   The general operation of the home computer having the above configuration will be described below. When a power switch (not shown) is turned on and the power is turned on, the CPU 7 reads image data, audio data, and the like from the hard disk 12a or the recording medium 10 based on the operating system stored in the hard disk 12a or the recording medium 10. And read the program data. Some or all of the read image data, audio data, and program data are stored in the hard disk 12a or RAM 12b. Then, based on the program data stored in the hard disk 12a or the RAM 12b, the CPU 7 issues a command for outputting the image data and sound data to the monitor 20 and the speaker 13 as images and sounds.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12bへの書き込み処理などを行う。そして、RAM12bに書き込まれた画像データが、インターフェース回路21を介してD/Aコンバータ22に供給される。ここで、画像データがD/Aコンバータ22でアナログ映像信号に変換される。そして、画像データはモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12b based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 b is supplied to the D / A converter 22 via the interface circuit 21. Here, the image data is converted into an analog video signal by the D / A converter 22. The image data is supplied to the monitor 20 and displayed as an image.

音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカ13から音声として出力される。   In the case of audio data, first, the signal processor 8 generates and processes audio data based on a command from the CPU 7. Here, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the audio data, for example. Next, the audio data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the audio data is converted into an analog audio signal. The audio data is output as audio from the speaker 13 via the amplifier circuit 14.

〔データ処理装置における各種処理概要〕
本データ処理装置において実行されるプログラムは、たとえば、画像処理プログラムである。この画像処理プログラムを起動することにより、画像処理が実行される。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。なお、ここでは、データの記憶部をRAM12bとした場合の例を示すが、この例はデータの記憶部をRAM12bに限定するものではない。たとえば、データの記憶部をハードディスク12aにしたり、データの記憶部をRAM12bおよびハードディスク12aにしたりしても良い。
[Outline of various processes in the data processor]
A program executed in the data processing apparatus is, for example, an image processing program. Image processing is executed by starting this image processing program. FIG. 2 is a functional block diagram for explaining functions that play a major role in the present invention. Although an example in which the data storage unit is the RAM 12b is shown here, this example does not limit the data storage unit to the RAM 12b. For example, the data storage unit may be the hard disk 12a, or the data storage unit may be the RAM 12b and the hard disk 12a.

姿勢決定用データ認識手段50は、RAM12bに格納された、オブジェクトの複数の姿勢それぞれを決定するための姿勢決定用データを、CPU7に認識させる機能を備えている。   The posture determination data recognition means 50 has a function of causing the CPU 7 to recognize posture determination data stored in the RAM 12b for determining each of the plurality of postures of the object.

詳細には、姿勢決定用データ認識手段50は、RAM12bに格納された、連続的に変化するオブジェクトの複数の姿勢それぞれを決定するための姿勢決定用データを、CPU7に認識させる機能を備えている。   More specifically, the posture determination data recognition unit 50 has a function of causing the CPU 7 to recognize posture determination data stored in the RAM 12b for determining each of a plurality of postures of a continuously changing object. .

また、詳細には、姿勢決定用データ認識手段50は、RAM12bに格納された、複数の要素と複数の要素それぞれを互いに連結するための連結部とからなるオブジェクトにおいて連結部まわりに回転する要素の位置を規定するための姿勢決定用データを、CPU7に認識させる機能を備えている。この姿勢決定用データ認識手段50は、連結部に定義される姿勢決定用データをCPU7に認識させる機能を備えている。   In more detail, the posture determination data recognition means 50 stores the elements that rotate around the connecting portion in the object that is stored in the RAM 12b and includes a plurality of elements and a connecting portion for connecting the plurality of elements to each other. It has a function of causing the CPU 7 to recognize attitude determination data for defining the position. This posture determination data recognition means 50 has a function of causing the CPU 7 to recognize posture determination data defined in the connecting portion.

この手段では、たとえば、キャラクタが、複数の骨要素と複数の骨要素それぞれを互いに連結するための関節部とから構成されている。このキャラクタの関節部まわりに回転する骨要素の位置を規定するための姿勢決定用データが、CPU7に認識される。ここでは、姿勢決定用データが、関節部の位置に定義されている。具体的には、骨要素は、関節部を原点として、互いに直交する3軸まわりに回転可能になっている。この骨要素が関節部を原点として回転したときの各軸まわりの回転角度および関節部の位置を示すデータが、姿勢決定用データには含まれている。   In this means, for example, the character is composed of a plurality of bone elements and joint portions for connecting the plurality of bone elements to each other. The CPU 7 recognizes posture determination data for defining the position of the bone element rotating around the joint portion of the character. Here, posture determination data is defined at the position of the joint. Specifically, the bone element is rotatable around three axes orthogonal to each other with the joint portion as the origin. The posture determination data includes data indicating the rotation angle around each axis and the position of the joint when the bone element rotates with the joint as the origin.

第1基準姿勢決定用データ認識手段51は、複数の姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとしてCPU7に認識させる機能を備えている。詳細には、第1基準姿勢決定用データ認識手段51は、複数の姿勢決定用データのうちの最初の姿勢決定用データおよび最後の姿勢決定用データを、基準姿勢決定用データとしてCPU7に認識させる機能を備えている。   The first reference posture determination data recognition means 51 has a function of causing the CPU 7 to recognize any two posture determination data among the plurality of posture determination data as reference posture determination data. Specifically, the first reference posture determination data recognition means 51 causes the CPU 7 to recognize the first posture determination data and the last posture determination data among the plurality of posture determination data as reference posture determination data. It has a function.

この手段では、たとえば、キャラクタの関節部における、複数の姿勢決定用データのうちの最初の姿勢決定用データおよび最後の姿勢決定用データが、基準姿勢決定用データとしてCPU7に認識される。具体的には、キャラクタの動作を時系列に沿ってみたときの、キャラクタの関節部における、複数の姿勢決定用データのうちの最初の姿勢決定用データおよび最後の姿勢決定用データが、基準姿勢決定用データとしてCPU7に認識される。より具体的には、キャラクタが動作を開始する時の関節部の姿勢決定用データ(最初の姿勢決定用データ)が、基準姿勢決定用データとしてCPU7に認識される。また、キャラクタが動作を終了する時の関節部の姿勢決定用データ(最後の姿勢決定用データ)が、基準姿勢決定用データとしてCPU7に認識される。   In this means, for example, the first posture determination data and the last posture determination data among the plurality of posture determination data in the joint portion of the character are recognized by the CPU 7 as the reference posture determination data. Specifically, the first posture determination data and the last posture determination data among the plurality of posture determination data at the character's joint when the character's motion is viewed in time series are the reference posture Recognized by the CPU 7 as decision data. More specifically, the joint portion posture determination data (initial posture determination data) when the character starts to move is recognized by the CPU 7 as reference posture determination data. Further, the posture determination data of the joint when the character finishes the motion (last posture determination data) is recognized by the CPU 7 as the reference posture determination data.

第1基準姿勢決定用データ格納手段52は、基準姿勢決定用データをRAM12bに格納する処理をCPU7に実行させる機能を備えている。   The first reference attitude determination data storage means 52 has a function of causing the CPU 7 to execute a process of storing the reference attitude determination data in the RAM 12b.

この手段では、たとえば、キャラクタの各関節部における基準姿勢決定用データをRAM12bに格納する処理が、CPU7により実行される。具体的には、キャラクタが動作を開始する時の各関節部の姿勢決定用データ、およびキャラクタが動作を終了する時の各関節部の姿勢決定用データ(2つの基準姿勢決定用データ)をRAM12bに格納する処理が、CPU7により実行される。   In this means, for example, the CPU 7 executes processing for storing the reference posture determination data for each joint portion of the character in the RAM 12b. Specifically, data for determining the posture of each joint when the character starts moving and data for determining the posture of each joint when the character finishes moving (two reference posture determining data) are stored in the RAM 12b. The CPU 7 executes a process for storing the data.

対応データ算出手段53は、基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを算出する処理を、CPU7に実行させる機能を備えている。詳細には、対応データ算出手段53は、基準姿勢決定用データを用いて複数の姿勢決定用データそれぞれに対応する対応データを補間により算出する処理を、CPU7に実行させる機能を備えている。より詳細には、対応データ算出手段53は、基準姿勢決定用データを用いて、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する対応データを補間により算出する処理を、CPU7に実行させる機能を備えている。   The correspondence data calculation means 53 has a function of causing the CPU 7 to execute processing for calculating correspondence data corresponding to each of a plurality of posture determination data using the reference posture determination data. Specifically, the correspondence data calculation unit 53 has a function of causing the CPU 7 to execute processing for calculating correspondence data corresponding to each of a plurality of posture determination data using the reference posture determination data. More specifically, the correspondence data calculation means 53 uses the reference posture determination data to correspond to the plurality of posture determination data between the first posture determination data and the last posture determination data. Is provided with a function for causing the CPU 7 to execute a process of calculating by interpolation.

この手段では、たとえば、最初の姿勢決定用データと最後の姿勢決定用データとの間の複数の姿勢決定用データそれぞれに対応する予想データ(対応データ)が、一次式を用いた補間(線形補間)や多項式を用いた補間等により、CPU7により算出される。ここでは、補間に用いられる初期条件としてのデータは、最初の姿勢決定用データおよび最後の姿勢決定用データ(2つの基準姿勢決定用データ)となっている。   In this means, for example, prediction data (corresponding data) corresponding to each of a plurality of posture determination data between the first posture determination data and the last posture determination data is interpolated using a linear expression (linear interpolation). ) Or an interpolation using a polynomial or the like. Here, the data as the initial condition used for the interpolation is the first posture determination data and the last posture determination data (two reference posture determination data).

許容差異データ認識手段54は、姿勢決定用データと対応データとの差異を許容する許容範囲を規定するための許容差異データを、CPU7に認識させる機能を備えている。また、許容差異データ認識手段54は、オブジェクトの基部に配置される連結部と、少なくとも1つの要素を介してオブジェクトの基部に配置された連結部に連なる連結部との距離に応じた許容差異データを、CPU7に認識させる機能を備えている。   The permissible difference data recognizing means 54 has a function of causing the CPU 7 to recognize permissible difference data for defining a permissible range in which a difference between the posture determination data and the corresponding data is permitted. The permissible difference data recognizing means 54 accepts the permissible difference data according to the distance between the connecting portion arranged at the base of the object and the connecting portion connected to the connecting portion arranged at the base of the object via at least one element. Is provided with a function for causing the CPU 7 to recognize.

この手段では、たとえば、姿勢決定用データと予想データ(対応データ)との間において許容する誤差を示す許容誤差データ(許容差異データ)が、CPU7に認識される。具体的には、許容誤差データは、各関節部に定義されている。ここでは、許容誤差データが、キャラクタの主要部に配置された関節部と、骨要素を介してキャラクタの主要部に配置された関節部に連なる他の関節部との距離(関節間距離)に応じて変化するようになっている。ここでは、キャラクタの腰部を主要部に設定している。このように関節間距離に応じて変化する許容誤差データが、CPU7に認識される。   In this means, for example, the CPU 7 recognizes allowable error data (allowable difference data) indicating an error allowed between the posture determination data and the predicted data (corresponding data). Specifically, the allowable error data is defined for each joint part. Here, the allowable error data is the distance (inter-joint distance) between the joint part arranged in the main part of the character and another joint part connected to the joint part arranged in the main part of the character via the bone element. It is designed to change accordingly. Here, the waist of the character is set as the main part. In this way, the CPU 7 recognizes the allowable error data that changes in accordance with the distance between joints.

データ差異判別手段55は、姿勢決定用データと姿勢決定用データに対応する対応データとを比較する処理をCPU7に実行させることにより、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるか否かを、CPU7に判別させる機能を備えている。   The data difference determination means 55 causes the CPU 7 to execute a process of comparing the attitude determination data and the corresponding data corresponding to the attitude determination data, so that the difference between the attitude determination data and the corresponding data corresponds to the allowable difference data. The CPU 7 is provided with a function for determining whether or not it is within an allowable range.

詳細には、データ差異判別手段55は、姿勢決定用データと姿勢決定用データに対応する対応データとの差を計算する処理をCPU7に実行させることにより、姿勢決定用データと対応データとの差が許容差異データに対応する許容値未満であるか否かを、CPU7に判別させる機能を備えている。   Specifically, the data difference determination means 55 causes the CPU 7 to execute a process for calculating the difference between the posture determination data and the corresponding data corresponding to the posture determination data, thereby making the difference between the posture determination data and the corresponding data. Has a function of causing the CPU 7 to determine whether or not is less than an allowable value corresponding to the allowable difference data.

この手段では、たとえば、姿勢決定用データと姿勢決定用データに対応する予想データとの差が、CPU7により計算される。そして、姿勢決定用データと対応データとの差が許容誤差データが示す許容値未満であるか否かが、CPU7により判別される。具体的には、姿勢決定用データと対応データとの差の絶対値が許容誤差データが示す許容値未満であるか否かが、CPU7により判別される。   In this means, for example, the CPU 7 calculates the difference between the attitude determination data and the predicted data corresponding to the attitude determination data. Then, the CPU 7 determines whether or not the difference between the posture determination data and the corresponding data is less than the allowable value indicated by the allowable error data. Specifically, the CPU 7 determines whether or not the absolute value of the difference between the posture determination data and the corresponding data is less than the allowable value indicated by the allowable error data.

第2基準姿勢決定用データ認識手段56は、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲外であるとCPU7に判別された場合に、最大の差異を有する姿勢決定用データを、基準姿勢決定用データとは異なる基準姿勢決定用データとしてCPU7に認識させる機能を備えている。   The second reference posture determination data recognition means 56 determines the posture determination having the maximum difference when the CPU 7 determines that the difference between the posture determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data. The CPU 7 is provided with a function of causing the CPU 7 to recognize the reference data as reference posture determination data different from the reference posture determination data.

詳細には、第2基準姿勢決定用データ認識手段56は、姿勢決定用データと対応データとの差が許容差異データに対応する許容値以上であるとCPU7に判別された場合に、差が最大である姿勢決定用データを、基準姿勢決定用データとは異なる基準姿勢決定用データとしてCPU7に認識させる機能を備えている。   Specifically, the second reference posture determination data recognition unit 56 determines that the difference is maximum when the CPU 7 determines that the difference between the posture determination data and the corresponding data is equal to or larger than the allowable value corresponding to the allowable difference data. Is provided with a function for causing the CPU 7 to recognize the posture determination data as the reference posture determination data different from the reference posture determination data.

この手段では、たとえば、姿勢決定用データと予想データとの差が許容誤差データに対応する許容値以上であるとCPU7に判別された場合に、予想データとの差が最大になる姿勢決定用データが、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとしてCPU7に認識される。具体的には、姿勢決定用データと予想データとの差の絶対値が許容誤差データに対応する許容値以上であるとCPU7に判別された場合に、予想データとの差の絶対値が最大になる姿勢決定用データが、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとしてCPU7に認識される。   In this means, for example, when the CPU 7 determines that the difference between the posture determination data and the predicted data is equal to or larger than the allowable value corresponding to the allowable error data, the posture determination data that maximizes the difference from the predicted data. However, the CPU 7 recognizes the reference posture determination data different from the reference posture determination data. Specifically, when the CPU 7 determines that the absolute value of the difference between the posture determination data and the predicted data is equal to or larger than the allowable value corresponding to the allowable error data, the absolute value of the difference from the predicted data is maximized. The posture determination data is recognized by the CPU 7 as reference posture determination data different from the reference posture determination data.

第2基準姿勢決定用データ格納手段57は、基準姿勢決定用データとは異なる基準姿勢決定用データをRAM12bに格納する処理をCPU7に実行させる機能を備えている。   The second reference posture determination data storage means 57 has a function of causing the CPU 7 to execute a process of storing reference posture determination data different from the reference posture determination data in the RAM 12b.

この手段では、たとえば、第2基準姿勢決定用データ認識手段56においてCPU7に認識された基準姿勢決定用データをRAM12bに格納する処理が、CPU7により実行される。具体的には、予想データと差の絶対値が最大となる姿勢決定用データ(基準姿勢決定用データ)をRAM12bに格納する処理が、CPU7により実行される。   In this means, for example, the CPU 7 executes processing for storing the reference posture determination data recognized by the CPU 7 in the second reference posture determination data recognition means 56 in the RAM 12b. Specifically, the CPU 7 executes a process of storing attitude determination data (reference attitude determination data) that maximizes the absolute value of the difference from the predicted data in the RAM 12b.

第3基準姿勢決定用データ認識手段58は、姿勢決定用データと対応データとの差異が許容差異データに対応する許容範囲内であるとCPU7に判別された場合に、RAM12bに格納された全ての基準姿勢決定用データをCPU7に認識させる機能を備えている。   When the CPU 7 determines that the difference between the attitude determination data and the corresponding data is within the allowable range corresponding to the allowable difference data, the third reference attitude determination data recognition unit 58 stores all the data stored in the RAM 12b. A function for causing the CPU 7 to recognize the reference posture determination data is provided.

詳細には、第3基準姿勢決定用データ認識手段58は、姿勢決定用データと対応データとの差が許容差異データに対応する許容値未満であるとCPU7に判別された場合に、RAM12bに格納された全ての基準姿勢決定用データをCPU7に認識させる機能を備えている。   Specifically, the third reference posture determination data recognition unit 58 stores the difference in the posture determination data and the corresponding data in the RAM 12b when the CPU 7 determines that the difference is less than the allowable value corresponding to the allowable difference data. The CPU 7 has a function of recognizing all the reference posture determination data.

この手段では、たとえば、姿勢決定用データと予想データとの差が許容誤差データに対応する許容値未満であるとCPU7に判別された場合に、RAM12bに格納された全ての基準姿勢決定用データが、CPU7に認識される。   In this means, for example, when the CPU 7 determines that the difference between the posture determination data and the predicted data is less than the allowable value corresponding to the allowable error data, all the reference posture determination data stored in the RAM 12b are stored. , Is recognized by the CPU 7.

画像データ生成手段59は、全ての基準姿勢決定用データに基づいてオブジェクトの姿勢用の画像データを生成する処理を、CPU7に実行させる機能を備えている。   The image data generation means 59 has a function of causing the CPU 7 to execute processing for generating image data for object postures based on all reference posture determination data.

この手段では、たとえば、キャラクタの姿勢用の画像データを生成する処理が、CPU7により実行される。ここでは、キャラクタの姿勢用の画像データは、第3基準姿勢決定用データ認識手段59においてCPU7に認識された基準姿勢決定用データに基づいて生成される。   In this means, for example, the CPU 7 executes processing for generating image data for the posture of the character. Here, the image data for the character posture is generated based on the reference posture determination data recognized by the CPU 7 in the third reference posture determination data recognition means 59.

たとえば、基準姿勢決定用データは、骨要素が関節部を原点として回転したときの各軸まわりの回転角度および関節部の位置を示すデータから構成されている。この基準姿勢決定用データに基づいて、各関節に接続される骨要素の位置を定めることにより、キャラクタの姿勢用の画像データが生成される。このキャラクタの姿勢用の画像データは、RAM12bに格納される。   For example, the reference posture determination data includes data indicating the rotation angle around each axis and the position of the joint when the bone element rotates with the joint as the origin. Image data for the character's posture is generated by determining the position of the bone element connected to each joint based on the reference posture determination data. The character posture image data is stored in the RAM 12b.

また、同様に、基準姿勢決定用データを除く姿勢決定用データは、骨要素が関節部を原点として回転したときの各軸まわりの回転角度および関節部の位置を示すデータから構成されている。この姿勢決定用データに基づいて、各関節に接続される骨要素の位置を定めることにより、キャラクタの姿勢用の画像データが生成される。このキャラクタの姿勢用の画像データは、RAM12bに格納される。   Similarly, the posture determination data excluding the reference posture determination data is composed of data indicating the rotation angle around each axis and the position of the joint when the bone element rotates with the joint as the origin. Image data for the character's posture is generated by determining the position of the bone element connected to each joint based on the posture determination data. The character posture image data is stored in the RAM 12b.

なお、基準姿勢決定用データを除いた姿勢決定用データは、基準姿勢決定用データに基づいてCPU7により算出される。たとえば、基準姿勢決定用データ以外の姿勢決定用データは、基準姿勢決定用データに基づいた補間をCPU7に実行させることにより生成される。   The posture determination data excluding the reference posture determination data is calculated by the CPU 7 based on the reference posture determination data. For example, posture determination data other than the reference posture determination data is generated by causing the CPU 7 to perform interpolation based on the reference posture determination data.

動画表示手段60は、オブジェクトの姿勢用の画像データに基づいて、オブジェクトの複数の姿勢からなる動画をモニタ20に表示する機能を備えている。   The moving image display means 60 has a function of displaying a moving image composed of a plurality of postures of the object on the monitor 20 based on the image data for the posture of the object.

この手段では、たとえば、キャラクタの姿勢用の画像データに基づいて、キャラクタの複数の姿勢からなる動画が、モニタ20に表示される。具体的には、画像データ生成手段59において生成された、複数のキャラクタの姿勢用の画像データを、連続的にモニタ20へと供給する命令がCPU7から発行されると、キャラクタの動作を示す動画が、モニタ20に表示される。   In this means, for example, a moving image composed of a plurality of character postures is displayed on the monitor 20 based on the image data for the character posture. Specifically, when an instruction for continuously supplying image data for postures of a plurality of characters to the monitor 20 generated by the image data generating means 59 is issued from the CPU 7, a moving image showing the action of the character Is displayed on the monitor 20.

〔画像処理システムの説明と処理フロー〕
次に、画像処理システムについて説明する。また、図7に示すフローについても同時に説明する。
[Description and processing flow of image processing system]
Next, the image processing system will be described. The flow shown in FIG. 7 will also be described at the same time.

まず、家庭用コンピュータの電源が投入され家庭用コンピュータが起動されると、画像処理プログラムが、記録媒体10からRAM12bにロードされ格納される。また、画像処理を実行する上で必要となる各種の基本データが、記録媒体10からRAM12bにロードされ格納される(S1)。   First, when the home computer is turned on and the home computer is activated, the image processing program is loaded from the recording medium 10 into the RAM 12b and stored. Various basic data necessary for executing image processing are loaded from the recording medium 10 into the RAM 12b and stored (S1).

たとえば、基本データには、モーションキャプチャにより生成されたキャラクタ用のモーションデータが、含まれている。キャラクタ用のモーションデータは、実際に動作する人間の各瞬間の姿勢をデジタル的に記録することにより得られる生データである。このキャラクタ用のモーションデータは、実際に動作する人間の姿勢の変化を示す複数の画像データ(姿勢画像データ)から構成される。姿勢画像データは、図3に示すように、複数の骨要素(斜線で表示)と、複数の骨要素(斜線で表示)それぞれを互いに連結するための関節部(空白)とから構成されている。以下では、モーションキャプチャにより生成されたキャラクタ用のモーションデータを構成する姿勢画像データがnフレームである場合を例として、説明を行う。ここで、nは自然数である。   For example, the basic data includes motion data for a character generated by motion capture. The motion data for the character is raw data obtained by digitally recording the posture of each moment of the actually moving human. This character motion data is composed of a plurality of pieces of image data (posture image data) indicating changes in the posture of the actually operating human. As shown in FIG. 3, the posture image data is composed of a plurality of bone elements (displayed with diagonal lines) and joint portions (blanks) for connecting the plurality of bone elements (displayed with diagonal lines) to each other. . In the following, description will be given by taking as an example a case where the posture image data constituting the motion data for a character generated by motion capture is n frames. Here, n is a natural number.

なお、画像制作者は、キーボード17を操作することにより、nフレーム分の姿勢画像データを時系列に沿って再生する処理をCPU7に実行させると、キャラクタが動作する状態をモニタ20に表示し確認することができる。具体的には、1フレーム目の姿勢画像データからnフレーム目の姿勢画像データまでを連続的に再生する命令をCPU7に発行させることにより、キャラクタが動作する状態をモニタ20に表示することができる。このため、画像制作者は、モーションキャプチャにより生成されたモーションデータを用いたときの動画を、モニタ20において確認することができる。   When the image creator operates the keyboard 17 to cause the CPU 7 to execute processing for reproducing the posture image data for n frames in time series, the state of the character operating is displayed on the monitor 20 and confirmed. can do. Specifically, by causing the CPU 7 to issue a command to continuously reproduce the posture image data of the first frame to the posture image data of the nth frame, the state in which the character moves can be displayed on the monitor 20. . For this reason, the image producer can check the moving image when the motion data generated by the motion capture is used on the monitor 20.

また、たとえば、基本データには、キャラクタの姿勢画像データが示す姿勢を決定するための姿勢決定用データが、含まれている。ここでは、図3に示すように、キャラクタの姿勢画像データが、複数の骨要素と複数の骨要素それぞれを互いに連結するための関節部とから構成されている。このキャラクタの関節部まわりに回転する骨要素の位置を規定するために、姿勢決定用データが用いられる。姿勢決定用データは、関節部に定義されている。具体的には、骨要素は、関節部を原点として、互いに直交する3つの軸まわりに回転可能になっている。この骨要素が関節部を原点として回転したときの各軸まわりの回転角度と関節部の位置座標とを示すデータが、姿勢決定用データである。姿勢決定用データは、キャラクタに定義された複数の関節部それぞれに対して定義されている。   In addition, for example, the basic data includes posture determination data for determining the posture indicated by the character posture image data. Here, as shown in FIG. 3, the posture image data of the character is composed of a plurality of bone elements and joint portions for connecting the plurality of bone elements to each other. Posture determination data is used to define the position of the bone element rotating around the joint of the character. Posture determination data is defined in the joint. Specifically, the bone element is rotatable around three axes orthogonal to each other with the joint portion as the origin. Data indicating the rotation angle around each axis and the position coordinates of the joint when the bone element is rotated with the joint as the origin is posture determination data. The posture determination data is defined for each of a plurality of joint portions defined for the character.

なお、図3に示すように、各関節部の位置座標は、キャラクタの主要部(腰部)の関節部の中心位置Oを原点とした座標系において定義されている。また、関節部の回転角度は、関節部の中心位置Omを原点とした座標系において定義されている。ここでは、中心位置Omを原点とした座標系が、中心位置Oを原点とした座標系の中の相対座標系になっている。   As shown in FIG. 3, the position coordinates of each joint part are defined in a coordinate system having the origin at the center position O of the joint part of the main part (waist) of the character. The rotation angle of the joint is defined in a coordinate system with the center position Om of the joint as the origin. Here, the coordinate system with the center position Om as the origin is a relative coordinate system in the coordinate system with the center position O as the origin.

続いて、RAM12に格納された基本データが、CPU7に認識される(S2)。たとえば、nフレーム分の姿勢画像データが、CPU7に認識される。そして、nフレーム分の姿勢画像データそれぞれに対応する姿勢決定用データが、CPU7に認識される。以下では、図3に示すように、キャラクタがm個の関節部を有する場合を例として、説明を行う。ここで、mは、関節部の数に対応している。また、mは、1から14までの自然数である。   Subsequently, the basic data stored in the RAM 12 is recognized by the CPU 7 (S2). For example, the CPU 7 recognizes posture image data for n frames. Then, the CPU 7 recognizes posture determination data corresponding to the posture image data for n frames. In the following description, as shown in FIG. 3, the case where the character has m joints is taken as an example. Here, m corresponds to the number of joints. M is a natural number from 1 to 14.

また、たとえば、nフレーム分の姿勢決定用データのうちの1フレーム目の複数の姿勢決定用データS(1,m,l)およびnフレーム目の複数の姿勢決定用データS(n,m,l)が、基準姿勢決定用データK(1,m,l),K(n,m,l)としてCPU7に認識される。すると、基準姿勢決定用データK(1,m,l),K(n,m,l)をRAM12bに格納する処理が、CPU7により実行される(S3)。   Further, for example, among the posture determination data for n frames, a plurality of posture determination data S (1, m, l) for the first frame and a plurality of posture determination data S (n, m, l) for the nth frame. l) is recognized by the CPU 7 as reference posture determination data K (1, m, l), K (n, m, l). Then, a process for storing the reference posture determination data K (1, m, l), K (n, m, l) in the RAM 12b is executed by the CPU 7 (S3).

ここで、lは、データの種類を区別するために設けられた変数である。また、lは、1から6までの自然数である。たとえば、姿勢決定用データS(n,m,1)の値はx座標値を示し、姿勢決定用データS(n,m,2)の値はy座標値を示し、姿勢決定用データS(n,m,3)の値はz座標値を示す。また、姿勢決定用データS(n,m,4)の値はx軸まわりの角度αxを示し、姿勢決定用データS(n,m,5)の値はy軸まわりの角度αyを示し、姿勢決定用データS(n,m,6)の値はz軸まわりの角度αzを示す。   Here, l is a variable provided to distinguish the type of data. L is a natural number from 1 to 6. For example, the value of posture determination data S (n, m, 1) indicates an x coordinate value, the value of posture determination data S (n, m, 2) indicates a y coordinate value, and posture determination data S ( The values of n, m, 3) indicate z coordinate values. Further, the value of posture determination data S (n, m, 4) indicates the angle αx around the x axis, the value of posture determination data S (n, m, 5) indicates the angle αy around the y axis, The value of the posture determination data S (n, m, 6) indicates the angle αz around the z axis.

これにより、たとえば、nフレーム目のキャラクタのm番目の関節部の位置座標Xnm(x_nm,y_nm,z_nm)は、(S(n,m,1),S(n,m,2),S(n,m,3))と表すことができる。また、たとえば、nフレーム目のキャラクタのm番目の関節部の回転角度Anm(αx_nm,αy_nm,αz_nm)は、(S(n,m,4),S(n,m,6),S(n,m,7))と表すことができる。   Thus, for example, the position coordinates Xnm (x_nm, y_nm, z_nm) of the mth joint of the character in the nth frame are (S (n, m, 1), S (n, m, 2), S ( n, m, 3)). Also, for example, the rotation angle Anm (αx_nm, αy_nm, αz_nm) of the mth joint of the character in the nth frame is (S (n, m, 4), S (n, m, 6), S (n , M, 7)).

なお、関節部の位置座標Xnm(x_nm,y_nm,z_nm)は、(S(n,m,1),S(n,m,2),S(n,m,3))は、原点Oに対する座標である。また、関節部の位置座標Xnmが示す位置に、相対座標系の原点Omが定義されている。   Note that the position coordinates Xnm (x_nm, y_nm, z_nm) of the joint portion are (S (n, m, 1), S (n, m, 2), S (n, m, 3)) with respect to the origin O. Coordinates. The origin Om of the relative coordinate system is defined at the position indicated by the position coordinate Xnm of the joint.

続いて、許容誤差データG(m,l)が、CPU7に認識される(S4)。この許容誤差データG(m,l)は、姿勢決定用データS(p,m,l)と後述する予想データY(p,m,l)との間において許容する誤差を示すデータである。   Subsequently, the permissible error data G (m, l) is recognized by the CPU 7 (S4). The permissible error data G (m, l) is data indicating an allowable error between the attitude determination data S (p, m, l) and the expected data Y (p, m, l) described later.

具体的には、許容誤差データG(m,l)は、キャラクタの腰部に定義された関節部と、骨要素を介してキャラクタの腰部に定義された関節部に連なる他の関節部との距離D(m)(関節間距離)に基づいて設定される。   Specifically, the allowable error data G (m, l) is the distance between the joint defined in the character's waist and the other joint connected to the joint defined in the character's waist via the bone element. It is set based on D (m) (inter-joint distance).

ここで、許容誤差データG(m,l)の設定についての説明を行っておく。まず、初期条件としての許容誤差データG(m,l)がCPU7に認識される。初期条件としての許容誤差データG(m,l)は、画像処理プログラムにおいて予め規定されており、RAM12bに格納されている。   Here, the setting of the allowable error data G (m, l) will be described. First, the allowable error data G (m, l) as an initial condition is recognized by the CPU 7. The allowable error data G (m, l) as the initial condition is defined in advance in the image processing program and stored in the RAM 12b.

次に、関節間距離D(m)を算出する処理が、CPU7により実行される。たとえば、キャラクタの腰部に定義された関節部(m=1)の位置座標(S(n,1,1),S(n,1,2),S(n,1,3))と、骨要素を介してキャラクタの腰部に定義された関節部に連なる他の関節部(m>1)の位置座標(S(n,m,1),S(n,m,2),S(n,m,3))とに基づいて、腰部の関節部から腰部の関節部に連なる他の関節部までの距離、すなわち腰部から各関節部までの関節間距離D(m)が、CPU7により算出される。   Next, a process for calculating the inter-joint distance D (m) is executed by the CPU 7. For example, the position coordinates (S (n, 1,1), S (n, 1,2), S (n, 1,3)) of the joint (m = 1) defined on the character's waist and bone Position coordinates (S (n, m, 1), S (n, m, 2), S (n, 2), other joints (m> 1) connected to the joints defined on the character's waist through the elements m, 3)), the distance from the joint part of the lumbar part to the other joint part connected to the joint part of the lumbar part, that is, the inter-joint distance D (m) from the lumbar part to each joint part is calculated by the CPU 7. The

ここでは、たとえば、図4に示すように、腰部の関節部O1(O11)から首関節部O2までの関節間距離D(2)が、関節部の位置座標に基づいてCPU7により算出される。また、腰部の関節部O1(O12)から左肩の関節部O3までの関節間距離D(3)が、関節部の位置座標に基づいてCPU7により算出される。また、腰部の関節部O1(O12)から左肘の関節部O4までの関節間距離D(4)が、関節部の位置座標に基づいてCPU7により算出される。さらに、腰部の関節部O1(O12)から左手首の関節部O5までの関節間距離D(4)が、関節部の位置座標に基づいてCPU7により算出される。同様にして、関節間距離D(6)〜D(14)が、関節部の位置座標に基づいてCPU7により算出される。   Here, for example, as shown in FIG. 4, the inter-joint distance D (2) from the waist joint O1 (O11) to the neck joint O2 is calculated by the CPU 7 based on the position coordinates of the joint. The inter-joint distance D (3) from the waist joint O1 (O12) to the left shoulder joint O3 is calculated by the CPU 7 based on the position coordinates of the joint. Further, the CPU 7 calculates an inter-joint distance D (4) from the lumbar joint portion O1 (O12) to the left elbow joint portion O4 based on the position coordinates of the joint portion. Further, an inter-joint distance D (4) from the waist joint O1 (O12) to the left wrist joint O5 is calculated by the CPU 7 based on the position coordinates of the joint. Similarly, the inter-joint distances D (6) to D (14) are calculated by the CPU 7 based on the position coordinates of the joints.

なお、ここでは、腰部の関節部における姿勢決定用データを定義するための変数mには、数値「1」がCPU7により割り当てられている。また、腰部を除く関節部における姿勢決定用データを定義するための変数mには、所定の値(2以上の自然数)がCPU7により割り当てられている。腰部を除く関節部における姿勢決定用データを定義するための変数mに割り当てられる値(腰部を除く各関節部に対応する数値:2以上の自然数)は、画像処理プログラムにおいて予め規定されている(図4を参照)。   Here, a numerical value “1” is assigned by the CPU 7 to the variable m for defining posture determining data in the joint portion of the waist. In addition, a predetermined value (a natural number of 2 or more) is assigned by the CPU 7 to the variable m for defining posture determining data in the joint portion excluding the waist. A value (numerical value corresponding to each joint part excluding the waist part: a natural number of 2 or more) assigned to the variable m for defining posture determining data in the joint part excluding the waist part is defined in advance in the image processing program ( (See FIG. 4).

図4(b)は、各関節間距離D(m)を算出するときの基点を説明するための図である。ここでは、腰部の関節部O11,O12,O13,O14,O15が、各関節間距離D(m)を算出するときの基点となっている。図4(b)では、図を理解しやすいように、腰部の関節部O11,O12,O13,O14,O15が異なる位置に表示されている。しかしながら、実際に計算に用いられる、腰部の関節部O1(O11,O12,O13,O14,O15)の定義点は、図4(b)における点Obである。   FIG. 4B is a diagram for explaining a base point when each inter-joint distance D (m) is calculated. Here, the joint portions O11, O12, O13, O14, and O15 of the lumbar region serve as base points for calculating the inter-joint distances D (m). In FIG. 4B, the hip joints O11, O12, O13, O14, and O15 are displayed at different positions so that the figure can be easily understood. However, the definition point of the waist joint O1 (O11, O12, O13, O14, O15) that is actually used for the calculation is the point Ob in FIG. 4B.

そして、関節間距離D(m)がCPU7により算出されると、関節間距離D(m)に応じて許容誤差データG(m,l)を調節するための調節データC(m,l)が、CPU7に認識される。ここでは、キャラクタの腰部(主要部)に定義された関節部O11,O12,O13,O14,O15から末端部O2,O5,O8,O11,O14までの関節間距離D(2),D(5),D(8),D(11),D(14)に応じて、キャラクタの腰部から末端部までの各関節部O1(O11,O12,O13,O14,O15)〜O14における許容誤差データG(m,l)を調節するための調節データC(m,l)が、CPU7に認識される。関節間距離D(m)と調節データC(m,l)との対応関係は、プログラムにおいて規定されている。すなわち、図5に示すように、関節間距離D(m)に対応する調節データC(m,l)が、対応テーブルに基づいてCPU7に認識される。   When the inter-joint distance D (m) is calculated by the CPU 7, adjustment data C (m, l) for adjusting the allowable error data G (m, l) according to the inter-joint distance D (m) is obtained. , Is recognized by the CPU 7. Here, the joint distances D (2) and D (5) from the joint portions O11, O12, O13, O14, and O15 defined at the character's waist (main portion) to the end portions O2, O5, O8, O11, and O14. ), D (8), D (11), and D (14), the allowable error data G at the joint portions O1 (O11, O12, O13, O14, O15) to O14 from the waist to the end of the character. Adjustment data C (m, l) for adjusting (m, l) is recognized by the CPU 7. The correspondence between the joint distance D (m) and the adjustment data C (m, l) is defined in the program. That is, as shown in FIG. 5, the adjustment data C (m, l) corresponding to the inter-joint distance D (m) is recognized by the CPU 7 based on the correspondence table.

なお、ここでは、関節間距離D(m)が大きくなると、調節データC(m,l)が大きくなるようになっている。言い換えると、腰部に連結された骨要素の合計長さが長ければ長いほど、腰部側の関節部における調節データC(m,l)が小さくなるようになっている。これにより、腰部に連結された骨要素の合計長さが長くなったときに、腰部における誤差が、腰部から離れた位置の関節部の誤差として反映されるという問題を解消することができる。   Here, as the inter-joint distance D (m) increases, the adjustment data C (m, l) increases. In other words, the longer the total length of the bone elements connected to the waist, the smaller the adjustment data C (m, l) at the joint on the waist side. Thereby, when the total length of the bone elements connected to the waist is increased, the problem that the error in the waist is reflected as the error of the joint at a position away from the waist can be solved.

そして、調節データC(m,l)がCPU7に認識されると、調節データC(m,l)に基づいて許容誤差データG(m,l)を修正する処理が、CPU7により実行される。たとえば、初期条件としての許容誤差データG(m,l)に調節データC(m,l)を乗算する処理(G(m,l)×C(m,l))が、CPU7により実行される。そして、この乗算結果が、各関節部における、姿勢決定用データS(p,m,l)と予想データY(p,m,l)との間において許容する誤差に対応する許容誤差データG(m,l)として、CPU7に認識される(S4)。   When the adjustment data C (m, l) is recognized by the CPU 7, the CPU 7 executes a process for correcting the allowable error data G (m, l) based on the adjustment data C (m, l). For example, the CPU 7 executes a process (G (m, l) × C (m, l)) for multiplying the allowable error data G (m, l) as the initial condition by the adjustment data C (m, l). . Then, the multiplication result is an allowable error data G () corresponding to an error allowable between the posture determination data S (p, m, l) and the predicted data Y (p, m, l) at each joint. m, l) is recognized by the CPU 7 (S4).

続いて、1フレーム目の姿勢決定用データS(1,m,l)とnフレーム目の姿勢決定用データS(n,m,l)との間の少なくとも1つの姿勢決定用データS(p,m,l)(1<p<n:pは自然数)それぞれに対応する予想データY(p,m,l)が、CPU7により算出される(S5)。ここでは、図6(a)に示すように、予想データY(p,m,l)の算出には線形補間が用いられ、初期条件は1フレーム目の姿勢決定用データS(1,m,l)およびn_maxフレーム目の姿勢決定用データS(n_max,m,l)である。具体的には、「Y(p,m,l)=S(1,m,l)+(p−1)×(S(n_max,m,l)−S(1,m,l))/(n_max−1)」式に基づいて、予想データY(p,m,l)がCPU7により算出される。   Subsequently, at least one posture determination data S (p) between the posture determination data S (1, m, l) of the first frame and the posture determination data S (n, m, l) of the nth frame. , M, l) (1 <p <n: p is a natural number), predicted data Y (p, m, l) corresponding to each is calculated by the CPU 7 (S5). Here, as shown in FIG. 6A, linear interpolation is used to calculate the predicted data Y (p, m, l), and the initial condition is the posture determination data S (1, m, 1) for the first frame. l) and posture determination data S (n_max, m, l) in the n_max frame. Specifically, “Y (p, m, l) = S (1, m, l) + (p−1) × (S (n_max, m, l) −S (1, m, l)) / Based on the expression (n_max−1) ”, the predicted data Y (p, m, l) is calculated by the CPU 7.

なお、図6(a)では、初期条件としての1フレーム目の姿勢決定用データS(1,m,l)およびnフレーム目(n_maxフレーム目)の姿勢決定用データS(n,m,l)が、二重丸印で示されている。また、予想データY(p,m,l)が、X印で示されている。ここでは、予想データY(p,m,l)の算出に線形補間が用いられる場合の例を示しているが、予想データY(p,m,l)の算出に多項式を用いた補間を用いても良い。   In FIG. 6A, posture determination data S (1, m, l) for the first frame and posture determination data S (n, m, l) for the nth frame (n_max frame) as initial conditions are shown. ) Is indicated by a double circle. The predicted data Y (p, m, l) is indicated by an X mark. Here, an example is shown in which linear interpolation is used to calculate the predicted data Y (p, m, l), but interpolation using a polynomial is used to calculate the predicted data Y (p, m, l). May be.

続いて、姿勢決定用データS(p,m,l)と予想データY(p,m,l)との差の絶対値Z(p,m,l)(=|Y(p,m,l)―S(p,m,l)|)が、CPU7により算出される(S6)。ここでは、2フレームから(n−1)フレームまで間において、絶対値Z(p,m,l)が、CPU7により算出される。   Subsequently, the absolute value Z (p, m, l) (= | Y (p, m, l) of the difference between the attitude determination data S (p, m, l) and the predicted data Y (p, m, l) ) -S (p, m, l) |) is calculated by the CPU 7 (S6). Here, the absolute value Z (p, m, l) is calculated by the CPU 7 between the 2nd frame and the (n−1) th frame.

すると、この差の絶対値Z(p,m,l)の値が、許容誤差データG(m,l)が示す値未満であるか否かが、CPU7により判別される(S7)。具体的には、各関節部における、2フレームから(n−1)フレームまでの絶対値Z(p,m,l)(1<p<n)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値未満であるか否かが、CPU7により判別される。   Then, the CPU 7 determines whether or not the absolute value Z (p, m, l) of the difference is less than the value indicated by the allowable error data G (m, l) (S7). Specifically, at least one value of absolute values Z (p, m, l) (1 <p <n) from 2 frames to (n−1) frames in each joint portion is allowable error data. The CPU 7 determines whether or not the value is less than the value indicated by G (m, l).

そして、各関節部における、2フレームから(n−1)フレームまでの絶対値Z(p,m,l)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値以上であるとCPU7により判別された場合(S7でNo)、絶対値Z(p,m,l)が最大となる姿勢決定用データS(p_mx1,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l)とは異なる基準姿勢決定用データK(p_mx1,m,l)としてCPU7に認識される。すると、基準姿勢決定用データK(p_mx1,m,l)をRAM12bに格納する処理が、CPU7により実行される(S8)。   At least one of the absolute values Z (p, m, l) from 2 frames to (n-1) frames in each joint is equal to or greater than the value indicated by the allowable error data G (m, l). Is determined by the CPU 7 (No in S7), the attitude determination data S (p_mx1, m, l) that maximizes the absolute value Z (p, m, l) is the reference attitude determination data described above. The CPU 7 recognizes the reference posture determination data K (p_mx1, m, l) different from K (1, m, l) and K (n, m, l). Then, a process of storing the reference posture determination data K (p_mx1, m, l) in the RAM 12b is executed by the CPU 7 (S8).

具体的には、各関節部における、2フレームから(n−1)フレームまでの絶対値Z(p,m,l)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値以上であるとCPU7により判別された場合、1フレームからnフレームまでの間において絶対値Z(p,m,l)が最大となる姿勢決定用データS(p_mx1,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l)とは異なる基準姿勢決定用データK(p_mx1,m,l)としてCPU7に認識される。すると、基準姿勢決定用データK(p_mx1,m,l)をRAM12bに格納する処理が、CPU7により実行される。   Specifically, at least one of absolute values Z (p, m, l) from 2 frames to (n−1) frames in each joint is the allowable error data G (m, l). When the CPU 7 determines that the value is equal to or greater than the indicated value, the posture determination data S (p_mx1, m, l) having the maximum absolute value Z (p, m, l) between the first frame and the nth frame is The CPU 7 recognizes the reference posture determination data K (p_mx1, m, l) different from the reference posture determination data K (1, m, l) and K (n, m, l). Then, the CPU 7 executes a process of storing the reference posture determination data K (p_mx1, m, l) in the RAM 12b.

たとえば、図6(a)では、絶対値が最大となる姿勢決定用データは、7フレーム目の姿勢決定用データS(7,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l)とは異なる基準姿勢決定用データK(7,m,l)としてCPU7に認識される(図6(a)の四角印を参照)。すると、この基準姿勢決定用データK(7,m,l)をRAM12bに格納する処理が、CPU7により実行される。   For example, in FIG. 6A, the posture determination data having the maximum absolute value is the posture determination data S (7, m, l) of the seventh frame, which is the reference posture determination data K (1, It is recognized by the CPU 7 as reference posture determination data K (7, m, l) different from m, l), K (n, m, l) (see square marks in FIG. 6A). Then, the process for storing the reference posture determination data K (7, m, l) in the RAM 12b is executed by the CPU 7.

続いて、ステップ5と同様の処理をCPU7に実行させることにより、1フレーム目の姿勢決定用データS(1,m,l)と、(p_mx1)フレーム目の姿勢決定用データS(p_mx1,m,l)との間の少なくとも1つの姿勢決定用データS(p,m,l)(1<p<p_mx1:pは自然数)それぞれに対応する予想データY(p,m,l)が、CPU7により算出される。   Subsequently, by causing the CPU 7 to execute the same processing as in step 5, the posture determination data S (1, m, l) for the first frame and the posture determination data S (p_mx1, m) for the (p_mx1) frame are used. , L) at least one attitude determination data S (p, m, l) (1 <p <p_mx1: p is a natural number), the predicted data Y (p, m, l) respectively corresponding to the CPU 7 Is calculated by

また、同様に、ステップ5と同様の処理をCPU7に実行させることにより、(p_mx1)フレーム目の姿勢決定用データS(p_mx1,m,l)と、nフレーム目の姿勢決定用データS(n,m,l)との間の少なくとも1つの姿勢決定用データS(p,m,l)(p_mx1<p<n:pは自然数)それぞれに対応する予想データY(p,m,l)が、CPU7により算出される。   Similarly, by causing the CPU 7 to execute the same processing as in step 5, the posture determination data S (p_mx1, m, l) of the (p_mx1) frame and the posture determination data S (n of the nth frame) , M, l) is at least one attitude determination data S (p, m, l) (p_mx1 <p <n: p is a natural number). , Calculated by the CPU 7.

なお、図6(b)では、初期条件としての姿勢決定用データS(1,m,l),S(n,m,l),S(p_mx1(=7),m,l)が、二重丸印で示されている。また、図6(b)では、予想データY(p,m,l)が、X印で示されている。   In FIG. 6B, posture determination data S (1, m, l), S (n, m, l), S (p_mx1 (= 7), m, l) as initial conditions are two. It is shown with a heavy circle. Further, in FIG. 6B, the predicted data Y (p, m, l) is indicated by an X mark.

続いて、ステップ6と同様の処理をCPU7に実行させることにより、姿勢決定用データS(p,m,l)と予想データY(p,m,l)との差の絶対値Z(p,m,l)(=|Y(p,m,l)―S(p,m,l)|)が、CPU7により算出される。ここでは、(p_mx1)フレームを除く、2フレームから(n−1)フレームまで間のフレームにおいて、絶対値Z(p,m,l)が、CPU7により算出される。   Subsequently, by causing the CPU 7 to execute the same process as in step 6, the absolute value Z (p, m) of the difference between the attitude determination data S (p, m, l) and the predicted data Y (p, m, l) m, l) (= | Y (p, m, l) −S (p, m, l) |) is calculated by the CPU 7. Here, the CPU 7 calculates the absolute value Z (p, m, l) in frames from 2 frames to (n−1) frames excluding the (p_mx1) frame.

すると、ステップ7と同様の処理をCPU7に実行させることにより、この差の絶対値Z(p,m,l)の値が、許容誤差データG(m,l)が示す値未満であるか否かが、CPU7により判別される。具体的には、各関節部における、(p_mx1)フレームを除く2フレームから(n−1)フレームまでの絶対値Z(p,m,l)(1<p<n、p≠p_mx1)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値未満であるか否かが、CPU7により判別される。   Then, by causing the CPU 7 to execute the same process as in step 7, whether or not the absolute value Z (p, m, l) of the difference is less than the value indicated by the allowable error data G (m, l). Is determined by the CPU 7. Specifically, in each joint portion, at least an absolute value Z (p, m, l) (1 <p <n, p ≠ p_mx1) from 2 frames excluding the (p_mx1) frame to the (n−1) frame. The CPU 7 determines whether any one value is less than the value indicated by the allowable error data G (m, l).

そして、各関節部における、(p_mx1)フレームを除く2フレームから(n−1)フレームまでの絶対値Z(p,m,l)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値以上であるとCPU7に判別された場合に、ステップ8と同様の処理がCPU7により実行される。ここでは、たとえば、許容誤差以上の絶対値が含まれるフレーム範囲において絶対値Z(p,m,l)が最大となる姿勢決定用データS(p_mx2 or p_mx3,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l),K(p_mx1,m,l)とは異なる基準姿勢決定用データK(p_mx2 or p_mx3,m,l)としてCPU7に認識される。すると、基準姿勢決定用データK(p_mx2 or p_mx3,m,l)をRAM12bに格納する処理が、CPU7により実行される。ここで、p_mx2およびp_mx3は、p_mx1を除く2から(n−1)までのいずれか1つの自然数である。   At least one value of absolute values Z (p, m, l) from 2 frames to (n−1) frames excluding the (p_mx1) frame in each joint portion is the allowable error data G (m, When the CPU 7 determines that the value is equal to or greater than the value indicated by l), the CPU 7 executes the same processing as in step 8. Here, for example, the posture determination data S (p_mx2 or p_mx3, m, l) having the maximum absolute value Z (p, m, l) in the frame range including the absolute value greater than the allowable error is the above-described reference. CPU 7 as reference attitude determination data K (p_mx2 or p_mx3, m, l) different from attitude determination data K (1, m, l), K (n, m, l), K (p_mx1, m, l) Recognized. Then, the CPU 7 executes a process of storing the reference posture determination data K (p_mx2 or p_mx3, m, l) in the RAM 12b. Here, p_mx2 and p_mx3 are any one natural number from 2 to (n-1) excluding p_mx1.

具体的には、各関節部における、(p_mx1)フレームを除く2フレームから(n−1)フレームまでの絶対値Z(p,m,l)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値以上であるとCPU7に判別され、許容誤差データG(m,l)が示す値以上の絶対値が1フレームからp_mx1フレームまでの間に含まれる場合、1フレームからp_mx1フレームまでの間において絶対値Z(p,m,l)が最大となる姿勢決定用データS(p_mx2,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l),K(p_mx1,m,l)とは異なる基準姿勢決定用データK(p_mx2,m,l)としてCPU7に認識される。   Specifically, at least one of the absolute values Z (p, m, l) from 2 frames excluding the (p_mx1) frame to the (n−1) frame in each joint portion is the allowable error data G. When it is determined by the CPU 7 that the value is greater than or equal to the value indicated by (m, l) and an absolute value greater than or equal to the value indicated by the allowable error data G (m, l) is included between one frame and p_mx1 frame, Posture determination data S (p_mx2, m, l) having the maximum absolute value Z (p, m, l) until the p_mx1 frame is referred to as the reference posture determination data K (1, m, l), The CPU 7 recognizes the reference posture determination data K (p_mx2, m, l) different from K (n, m, l) and K (p_mx1, m, l).

また、各関節部における、(p_mx1)フレームを除く2フレームから(n−1)フレームまでの絶対値Z(p,m,l)の少なくともいずれか1つの値が、許容誤差データG(m,l)が示す値以上であるとCPU7に判別され、許容誤差データG(m,l)が示す値以上の絶対値がp_mx1フレームからnフレームまでの間に含まれる場合、p_mx1フレームからnフレームまでの間において絶対値Z(p,m,l)が最大となる姿勢決定用データS(p_mx3,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l),K(p_mx1,m,l)とは異なる基準姿勢決定用データK(p_mx3,m,l)としてCPU7に認識される。   In addition, at least one value of absolute values Z (p, m, l) from 2 frames to (n−1) frames excluding the (p_mx1) frame in each joint portion is the allowable error data G (m, When it is determined by the CPU 7 that the value is equal to or greater than the value indicated by l) and an absolute value greater than or equal to the value indicated by the allowable error data G (m, l) is included between the p_mx1 frame and the n frame, the p_mx1 frame to the n frame The posture determination data S (p_mx3, m, l) having the maximum absolute value Z (p, m, l) between the reference posture determination data K (1, m, l) and K (n , M, l), K (p_mx1, m, l) is recognized by the CPU 7 as reference posture determination data K (p_mx3, m, l).

すると、基準姿勢決定用データK(p_mx2,m,l),K(p_mx3,m,l)をRAM12bに格納する処理が、CPU7により実行される。ここで、p_mx2およびp_mx3は、p_mx1を除く2から(n−1)までのいずれか1つの自然数である。   Then, the CPU 7 executes a process of storing the reference posture determination data K (p_mx2, m, l) and K (p_mx3, m, l) in the RAM 12b. Here, p_mx2 and p_mx3 are any one natural number from 2 to (n-1) excluding p_mx1.

たとえば、図6(b)では、絶対値が最大となる姿勢決定用データが、4フレーム目の姿勢決定用データS(4,m,l)および(n_max−6)フレーム目の姿勢決定用データS(n_max−6,m,l)である場合の例を示している。この場合、4フレーム目の姿勢決定用データS(4,m,l)および(n_max−6)フレーム目の姿勢決定用データS(n_max−6,m,l)が、上記の基準姿勢決定用データK(1,m,l),K(n,m,l),K(7,m,l)とは異なる基準姿勢決定用データK(4,m,l),K(n_max−6,m,l)としてCPU7に認識される(図6(b)の四角印を参照)。すると、この基準姿勢決定用データK(4,m,l),K(n_max−6,m,l)をRAM12bに格納する処理が、CPU7により実行される。ここでは、p_mx2フレームが4フレームに対応しており、p_mx3フレームが(n_max−6)フレームに対応している。   For example, in FIG. 6B, the posture determination data having the maximum absolute value is the posture determination data S (4, m, l) of the fourth frame and the posture determination data of the (n_max-6) frame. The example in the case of S (n_max-6, m, l) is shown. In this case, the posture determination data S (4, m, l) of the fourth frame and the posture determination data S (n_max-6, m, l) of the (n_max-6) frame are used for determining the reference posture described above. Reference posture determination data K (4, m, l), K (n_max-6, different from data K (1, m, l), K (n, m, l), K (7, m, l) m, l) is recognized by the CPU 7 (see square marks in FIG. 6B). Then, a process of storing the reference posture determination data K (4, m, l), K (n_max-6, m, l) in the RAM 12b is executed by the CPU 7. Here, the p_mx2 frame corresponds to 4 frames, and the p_mx3 frame corresponds to (n_max-6) frames.

なお、ここでは、許容誤差以上の絶対値が、1フレームからp_mx1フレームまでの間とp_mx1フレームからnフレームまでの間とに含まれる場合の例を示している。しかしながら、許容誤差以上の絶対値が、1フレームからp_mx1フレームまでの間にのみ含まれる場合や、p_mx1フレームからnフレームまでの間にのみ含まれる場合もある。この場合は、許容誤差以上の絶対値が含まれるフレーム範囲において、絶対値Z(p,m,l)が最大となる姿勢決定用データが、上記の基準姿勢決定用データとは異なる基準姿勢決定用データとしてCPU7に認識される。   Here, an example is shown in which an absolute value equal to or greater than the allowable error is included between 1 frame and p_mx1 frame and between p_mx1 frame and n frame. However, an absolute value greater than the allowable error may be included only between the 1 frame and the p_mx1 frame, or may be included only between the p_mx1 frame and the n frame. In this case, in the frame range in which the absolute value equal to or larger than the allowable error is included, the posture determination data that maximizes the absolute value Z (p, m, l) is different from the reference posture determination data described above. It is recognized by the CPU 7 as data for use.

このようなステップ5からステップ8までの処理は、姿勢決定用データS(p,m,l)と予想データY(p,m,l)との差の絶対値Z(p,m,l)が、許容誤差データG(m,l)が示す値未満になるまで、CPU7により繰り返し実行される。   Such processing from step 5 to step 8 is performed by the absolute value Z (p, m, l) of the difference between the attitude determination data S (p, m, l) and the predicted data Y (p, m, l). Is repeatedly executed by the CPU 7 until the value becomes less than the value indicated by the allowable error data G (m, l).

そして、姿勢決定用データS(p,m,l)と予想データY(p,m,l)との差の絶対値Z(p,m,l)が、許容誤差データG(m,l)が示す値未満であるとCPU7に判別された場合(S7でYes)、RAM12bに格納された全ての基準姿勢決定用データK(1,m,l),K(p_mxi,m,l),K(n,m,l)が、CPU7に認識される(S9)。   The absolute value Z (p, m, l) of the difference between the posture determination data S (p, m, l) and the predicted data Y (p, m, l) is the allowable error data G (m, l). Is determined to be less than the value indicated by the CPU 7 (Yes in S7), all the reference attitude determination data K (1, m, l), K (p_mxi, m, l), K stored in the RAM 12b. (N, m, l) is recognized by the CPU 7 (S9).

ここで用いたp_mxiは、上述した、p_mx1、p_mx2、およびp_mx3を、一般的に表現した記号である。図6(c)は、ステップ7における判別処理の回数iが「i_fin」回である場合の例を示している。この場合は、基準姿勢決定用データK(p_mx1,m,l),K(p_mx2,m,l),・・・,K(p_mxi_fin,m,l)が、CPU7に認識される(図6(c)の二重丸印を参照)。   The p_mxi used here is a symbol that generally represents the above-described p_mx1, p_mx2, and p_mx3. FIG. 6C illustrates an example in which the number of times i of determination processing in step 7 is “i_fin”. In this case, the reference posture determination data K (p_mx1, m, l), K (p_mx2, m, l),..., K (p_mxi_fin, m, l) are recognized by the CPU 7 (FIG. 6 ( (See double circle in c)).

続いて、キャラクタの姿勢画像データを生成する処理が、CPU7により実行される(S10)。ここでは、キャラクタの姿勢画像データは、CPU7に認識された全ての基準姿勢決定用データK(1,m,l),K(p_mxi,m,l),K(n,m,l)それぞれに基づいて生成される。   Subsequently, a process of generating character posture image data is executed by the CPU 7 (S10). Here, the character posture image data is stored in all the reference posture determination data K (1, m, l), K (p_mxi, m, l), and K (n, m, l) recognized by the CPU 7. Based on.

まず、基準姿勢決定用データK(1,m,l),K(p_mxi,m,l),K(n,m,l)に対応するフレーム(基準フレーム:1フレーム、p_mxiフレーム、およびnフレーム)を除いたフレームの姿勢決定用データが、基準姿勢決定用データK(1,m,l),K(p_mxi,m,l),K(n,m,l)を用いて、CPU7により算出される。たとえば、図6(c)に示すように、基準フレームを除いたフレームの姿勢決定用データは、基準姿勢決定用データK(1,m,l),K(p_mxi,m,l),K(n,m,l)を用いることにより算出される近似データである。この近似データ(基準フレームを除いたフレームの姿勢決定用データ)は、隣接する基準姿勢決定用データを初期データとした線形補間を行うことにより算出される。図6(c)では、二重丸印に対応するデータが、基準姿勢決定用データK(1,m,l),K(p_mxi,m,l),K(n,m,l)を示している。   First, frames corresponding to reference posture determination data K (1, m, l), K (p_mxi, m, l), K (n, m, l) (reference frame: 1 frame, p_mxi frame, and n frame) The frame posture determination data excluding () is calculated by the CPU 7 using the reference posture determination data K (1, m, l), K (p_mxi, m, l), K (n, m, l). Is done. For example, as shown in FIG. 6C, the posture determination data of the frames excluding the reference frame is the reference posture determination data K (1, m, l), K (p_mxi, m, l), K ( n, m, l) is approximate data calculated by using. This approximate data (frame posture determination data excluding the reference frame) is calculated by performing linear interpolation using adjacent reference posture determination data as initial data. In FIG. 6C, the data corresponding to the double circles indicate the reference attitude determination data K (1, m, l), K (p_mxi, m, l), K (n, m, l). ing.

具体的には、1フレームとp_mxiフレームとの間のフレームp1の姿勢決定用データ(近似データ)は、「S(p1,m,l)=S(1,m,l)+(p1−1)×(S(p_mxi,m,l)−S(1,m,l))/(p_mxi−1)」式に基づいて算出される。また、あるp_mxiフレーム(p_mx1フレーム)と他のp_mxiフレーム(p_mx2フレーム)との間のフレームp2の姿勢決定用データ(近似データ)は、「S(p2,m,l)=S(p_mx1,m,l)+(p2−1)×(S(p_mx2,m,l)−S(p_mx1,m,l))/(p_mx2−p_mx1)」式に基づいて算出される。さらに、p_mxiフレームとnフレームとの間のフレームp3の姿勢決定用データ(近似データ)は、「S(p3,m,l)=S(p_mxi,m,l)+(p3−1)×(S(n,m,l)−S(p_mxi,m,l))/(n−p_mx)」式に基づいて算出される。なお、図6(c)では、上記の近似データが三角印で示されている。   Specifically, the posture determination data (approximate data) of the frame p1 between one frame and the p_mxi frame is “S (p1, m, l) = S (1, m, l) + (p1-1 ) × (S (p_mxi, m, l) −S (1, m, l)) / (p_mxi−1) ”. Further, the attitude determination data (approximation data) of the frame p2 between a certain p_mxi frame (p_mx1 frame) and another p_mxi frame (p_mx2 frame) is “S (p2, m, l) = S (p_mx1, m , L) + (p2-1) × (S (p_mx2, m, l) −S (p_mx1, m, l)) / (p_mx2−p_mx1) ”. Further, the posture determination data (approximate data) of the frame p3 between the p_mxi frame and the n frame is “S (p3, m, l) = S (p_mxi, m, l) + (p3-1) × ( S (n, m, l) −S (p_mxi, m, l)) / (n−p_mx) ”. In FIG. 6C, the above approximate data is indicated by triangles.

このように、基準フレームを除いたフレームの姿勢決定用データが算出されると、基準フレームを除いたフレームの姿勢決定用データS(p,m,l)(1≦p≦n、p≠1、p≠p_mxi、p≠n)および基準姿勢決定用データK(p,m,l)(p=1、p=p_mxi、p=n)が、RAM12bに格納される。   In this way, when the attitude determination data of the frame excluding the reference frame is calculated, the attitude determination data S (p, m, l) (1 ≦ p ≦ n, p ≠ 1) of the frame excluding the reference frame. , P ≠ p_mxi, p ≠ n) and reference posture determination data K (p, m, l) (p = 1, p = p_mxi, p = n) are stored in the RAM 12b.

続いて、RAM12bに格納された、基準フレームを除くフレームの姿勢決定用データS(p,m,l)(1≦p≦n、p≠1、p≠p_mxi、p≠n)および基準姿勢決定用データK(p,m,l)(p=1、p=p_mxi、p=n)が、キャラクタの姿勢画像データを生成するための姿勢決定用データS’(p,m,l)(1≦p≦n)として、CPU7に認識される。すると、姿勢決定用データS’(p,m,l)それぞれに基づいて、各フレームのキャラクタの姿勢画像データを生成する処理が、CPU7により実行される(S10)。   Subsequently, posture determination data S (p, m, l) (1 ≦ p ≦ n, p ≠ 1, p ≠ p_mxi, p ≠ n) and reference posture determination stored in the RAM 12b except for the reference frame. The data K (p, m, l) (p = 1, p = p_mxi, p = n) for use in posture determination data S ′ (p, m, l) (1) for generating character image data ≦ p ≦ n) is recognized by the CPU 7. Then, based on each of the posture determination data S ′ (p, m, l), processing for generating the posture image data of the character of each frame is executed by the CPU 7 (S10).

たとえば、全フレームの姿勢決定用データS’(p,m,l)それぞれは、各フレームにおける、関節部の位置座標および関節部を原点として回転する骨要素の回転角度を示すデータである。具体的には、各フレームの姿勢決定用データS’(p,m,l)の変数lに数値「1」、数値「2」および数値「3」を代入することにより、各フレームのキャラクタの関節部の位置座標(S’(p,m,1),S’(p,m,2),S’(p,m,3))が求められる。また、各フレームの姿勢決定用データS’(p,m,l)の変数lに数値「4」、数値「5」および数値「6」を代入することにより、各フレームのキャラクタの関節部の回転角度(S’(p,m,4),S’(p,m,5),S’(p,m,6))が求められる。   For example, the posture determination data S ′ (p, m, l) for all frames is data indicating the position coordinates of the joint part and the rotation angle of the bone element that rotates around the joint part in each frame. Specifically, by substituting a numerical value “1”, a numerical value “2”, and a numerical value “3” for the variable l of the posture determination data S ′ (p, m, l) for each frame, The position coordinates (S ′ (p, m, 1), S ′ (p, m, 2), S ′ (p, m, 3)) of the joint portion are obtained. Further, by substituting the numerical value “4”, the numerical value “5”, and the numerical value “6” into the variable l of the posture determination data S ′ (p, m, l) for each frame, The rotation angles (S ′ (p, m, 4), S ′ (p, m, 5), S ′ (p, m, 6)) are obtained.

このようにして、各フレームにおいてキャラクタの関節部の位置座標および回転角度を求めることにより、各フレームにおけるキャラクタの関節部の位置が決定される。そして、骨要素に対応する画像を隣接する関節部の間に配置する処理が、CPU7により実行される。すると、骨要素が配置された状態の画像データが姿勢画像データとしてRAM12bに格納される。   In this way, the position of the joint part of the character in each frame is determined by obtaining the position coordinates and the rotation angle of the joint part of the character in each frame. Then, the CPU 7 executes a process of arranging an image corresponding to the bone element between the adjacent joint portions. Then, the image data in a state where the bone elements are arranged is stored in the RAM 12b as posture image data.

ここで、RAM12に格納された姿勢画像データを時系列に沿って再生する処理をCPU7に実行させることにより、キャラクタが動作する状態がモニタ20に表示される(S11)。具体的には、画像制作者が、キーボード17を操作することにより、1フレーム目の姿勢画像データからnフレーム目の姿勢画像データまでを連続的に再生する命令をCPU7に指示する。これにより、キャラクタが動作する状態が、モニタ20に表示される。このため、画像制作者は、画像処理プログラムより生成されたキャラクタ用のモーションデータを動画として再生し、生成された動画の精度をモニタ20において確認することができる。   Here, by causing the CPU 7 to execute processing for reproducing the posture image data stored in the RAM 12 in a time series, the state in which the character moves is displayed on the monitor 20 (S11). Specifically, the image producer operates the keyboard 17 to instruct the CPU 7 to instruct the CPU 7 to continuously reproduce the posture image data from the first frame to the posture image data of the nth frame. Thereby, the state where the character moves is displayed on the monitor 20. For this reason, the image creator can reproduce the motion data for the character generated by the image processing program as a moving image and check the accuracy of the generated moving image on the monitor 20.

上記のように、本発明を用いた実施形態では、姿勢決定用データS’を、許容誤差データGに基づいて自動的かつ選択的に記憶部に格納することができる。また、選択的に抽出された姿勢決定用データS’に基づいて姿勢用の画像データを生成することができ、この姿勢用の画像データに基づいてキャラクタの複数の姿勢からなる動画をモニタ20に表示することができる。このように、選択的に抽出された姿勢決定用データS’に基づいて動画を再生することにより、動画の再生に必要となるデータの容量を小さくすることができる。   As described above, in the embodiment using the present invention, the posture determination data S ′ can be automatically and selectively stored in the storage unit based on the allowable error data G. Further, posture image data can be generated based on the selectively extracted posture determination data S ′, and a moving image including a plurality of character postures can be displayed on the monitor 20 based on the posture image data. Can be displayed. As described above, by reproducing the moving image based on the posture determination data S ′ extracted selectively, it is possible to reduce the volume of data necessary for reproducing the moving image.

たとえば、上記のようにして選択的に抽出された姿勢決定用データS’をゲームプログラムに格納しておくことにより、ゲーム装置においてゲームプログラムが実行されたときに、姿勢決定用データS’および要素データに基づいてキャラクタ用のモーションデータを生成することができる。このように、姿勢決定用データS’および要素データだけを用意しておけば、キャラクタ用のモーションデータをゲーム装置において生成することができるので、動画の再生に必要となるデータの容量を小さくすることができる。   For example, by storing the posture determination data S ′ selectively extracted as described above in the game program, when the game program is executed in the game device, the posture determination data S ′ and the elements Motion data for the character can be generated based on the data. In this way, if only the posture determination data S ′ and the element data are prepared, the motion data for the character can be generated in the game device, so that the amount of data required for reproducing the moving image is reduced. be able to.

〔他の実施形態〕
(a)前記実施形態では、画像処理プログラムを適用しうるコンピュータの一例としての家庭用コンピュータを用いた場合の例を示したが、画像処理装置は、前記実施形態に限定されず、モニタが別体に構成された画像処理装置、モニタが一体に構成された画像処理装置、ゲームプログラムを実行することによって画像処理装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。また、画像処理装置は、前記実施形態に限定されず、携帯型コンピュータ、携帯型画像処理装置などにも同様に適用することができる。

(b)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。
[Other Embodiments]
(A) In the above embodiment, an example in which a home computer is used as an example of a computer to which an image processing program can be applied has been described. However, the image processing apparatus is not limited to the above embodiment, and a monitor is different. The present invention can be similarly applied to an image processing device configured in a body, an image processing device in which a monitor is integrated, a personal computer or a workstation that functions as an image processing device by executing a game program. The image processing apparatus is not limited to the above-described embodiment, and can be similarly applied to a portable computer, a portable image processing apparatus, and the like.

(B) The present invention includes a program for executing the game as described above and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

(c)前記実施形態では、姿勢決定用データS(n,m,l)の6成分(l=1,2,3,4,5,6)それぞれに対して予想データY(n,m,l)との誤差判定を行うようになっている。しかしながら、姿勢決定用データS(n,m,l)の6成分それぞれに対して予想データY(n,m,l)との誤差判定を行うのではなく、代表的な成分に対してのみ誤差判定を行ったり、座標値や角度の各成分の2乗の和に対して誤差判定を行ったりしても良い。   (C) In the above embodiment, the predicted data Y (n, m, l, m) for each of the six components (l = 1, 2, 3, 4, 5, 6) of the attitude determination data S (n, m, l). The error is determined with respect to l). However, the error determination with respect to each of the six components of the posture determination data S (n, m, l) is not performed with respect to the predicted data Y (n, m, l), but only with respect to the representative component. Determination may be performed, or error determination may be performed on the sum of the squares of each component of coordinate values and angles.

本発明の一実施形態による画像処理装置の基本構成図。1 is a basic configuration diagram of an image processing apparatus according to an embodiment of the present invention. 前記画像処理装置の機能ブロック図。FIG. 2 is a functional block diagram of the image processing apparatus. モデルの骨要素および関節部と、モデルの骨要素および関節部を定義する座標系とを説明するための図。The figure for demonstrating the bone element and joint part of a model, and the coordinate system which defines the bone element and joint part of a model. モデルの主要部から関節部までの関節間距離の算出形態を説明を行うための図。The figure for demonstrating the calculation form of the distance between joints from the principal part of a model to a joint part. 関節間距離と調節データとの対応関係を示す図。The figure which shows the correspondence of the distance between joints and adjustment data. 姿勢決定用データと姿勢決定用データに対応する予想データとの関係示す図。The figure which shows the relationship between the data for attitude | position determination, and the prediction data corresponding to the data for attitude | position determination. 画像処理システムを示すフロー。The flow which shows an image processing system.

1 制御部
2 記憶部
3 画像表示部
4 音声出力部
5 操作入力部
7 CPU
12 RAM
17 コントローラ
20 モニタ
23 通信部
50 姿勢決定用データ認識手段
51 第1基準姿勢決定用データ認識手段
52 第1基準姿勢決定用データ格納手段
53 対応データ算出手段
54 許容差異データ認識手段
55 データ差異判別手段
56 第2基準姿勢決定用データ認識手段
57 第2基準姿勢決定用データ格納手段
58 第3基準姿勢決定用データ認識手段
59 画像データ生成手段
60 動画表示手段
S(n,m,l),S’(n,m,l) 姿勢決定用データ
K(n,m,l) 基準姿勢決定用データ
Y(n,m,l) 予想データ
Z(p,m,l) 姿勢決定用データと予想データとの差の絶対値
G(m,l) 許容誤差データ
D(m) 関節間距離
DESCRIPTION OF SYMBOLS 1 Control part 2 Memory | storage part 3 Image display part 4 Audio | voice output part 5 Operation input part 7 CPU
12 RAM
17 controller 20 monitor 23 communication unit 50 attitude determination data recognition means 51 first reference attitude determination data recognition means 52 first reference attitude determination data storage means 53 corresponding data calculation means 54 allowable difference data recognition means 55 data difference determination means 56 second reference attitude determination data recognition means 57 second reference attitude determination data storage means 58 third reference attitude determination data recognition means 59 image data generation means 60 moving picture display means S (n, m, l), S ′ (N, m, l) Attitude determination data K (n, m, l) Reference attitude determination data Y (n, m, l) Prediction data Z (p, m, l) Attitude determination data and prediction data Absolute value of difference G (m, l) Tolerance data D (m) Distance between joints

Claims (7)

オブジェクトを画像表示部に表示するためのデータを処理可能なコンピュータに、
記憶部に格納された、前記オブジェクトの複数の姿勢それぞれを決定し、複数の要素と複数の前記要素それぞれを互いに連結するための連結部とからなる前記オブジェクトにおいて前記連結部まわりに回転する前記要素の位置を規定するためのものであり、前記連結部に定義される姿勢決定用データを、制御部に認識させる姿勢決定用データ認識機能と、
複数の前記姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとして制御部に認識させる第1基準姿勢決定用データ認識機能と、
前記基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第1基準姿勢決定用データ格納機能と、
前記基準姿勢決定用データを用いて複数の前記姿勢決定用データそれぞれに対応する対応データを算出する処理を、制御部に実行させる対応データ算出機能と、
前記姿勢決定用データと前記対応データとの差異を許容する許容範囲を規定するためのものであり、前記オブジェクトの基部に配置される前記連結部と、少なくとも1つの前記要素を介して前記オブジェクトの基部に配置された前記連結部に連なる末端部との距離が大きくなるにつれて、前記オブジェクトの基部側における前記姿勢決定用データと前記対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データを設定し、制御部に認識させる許容差異データ認識機能と、
前記姿勢決定用データと前記姿勢決定用データに対応する前記対応データとを比較する処理を制御部に実行させることにより、前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲内であるか否かを、制御部に判別させるデータ差異判別機能と、
前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する前記姿勢決定用データを、前記基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識させる第2基準姿勢決定用データ認識機能と、
前記基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第2基準姿勢決定用データ格納機能と、
前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての前記基準姿勢決定用データを制御部に認識させる第3基準姿勢決定用データ認識機能と、
を実現させるための画像処理プログラム。
To a computer that can process data for displaying objects on the image display,
The element that is stored in the storage unit and that determines each of a plurality of postures of the object, and that rotates around the connecting unit in the object that includes a plurality of elements and a connecting unit for connecting the plurality of elements to each other. A posture recognition data recognition function for causing the control portion to recognize posture determination data defined in the connecting portion ;
A first reference attitude determination data recognition function for causing the control unit to recognize any two attitude determination data of the plurality of attitude determination data as reference attitude determination data;
A first reference posture determination data storage function for causing a control unit to execute a process of storing the reference posture determination data in a storage unit;
A correspondence data calculation function for causing the control unit to execute processing for calculating correspondence data corresponding to each of the plurality of posture determination data using the reference posture determination data;
This is for defining an allowable range in which a difference between the posture determination data and the corresponding data is allowed , and the connection portion arranged at the base portion of the object, and the object through at least one of the elements. As the distance from the terminal portion connected to the connecting portion arranged at the base portion increases, the criterion for determining the difference between the posture determining data and the corresponding data on the base side of the object becomes stricter. Tolerance difference data recognition function to set tolerance difference data and make the control unit recognize
By causing the control unit to execute a process of comparing the posture determination data and the correspondence data corresponding to the posture determination data, a difference between the posture determination data and the correspondence data corresponds to the allowable difference data. A data difference determination function for causing the control unit to determine whether or not it is within an allowable range;
When the controller determines that the difference between the attitude determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is used as the reference attitude. A second reference posture determination data recognition function for causing the control unit to recognize the reference posture determination data different from the determination data;
A second reference posture determination data storage function for causing the control unit to execute processing for storing reference posture determination data different from the reference posture determination data in the storage unit;
When the control unit determines that the difference between the posture determination data and the corresponding data is within an allowable range corresponding to the allowable difference data, all the reference posture determination data stored in the storage unit A third reference posture determination data recognition function to be recognized by the control unit;
An image processing program for realizing
前記許容差異データ認識機能では、前記距離が大きくなるにつれて前記オブジェクトの基部側における前記判別基準が厳しくなるように前記許容差異データを調節するための調節データを、設定する処理、および前記許容差異データに前記調節データを乗じる処理を、制御部に実行させることにより、前記許容差異データが設定される、
請求項1に記載の画像処理プログラム。
In the permissible difference data recognition function, a process for setting adjustment data for adjusting the permissible difference data so that the discrimination criterion on the base side of the object becomes strict as the distance increases, and the permissible difference data The tolerance difference data is set by causing the control unit to execute a process of multiplying the adjustment data by
The image processing program according to claim 1.
前記対応データ算出機能では、前記基準姿勢決定用データを用いて複数の前記姿勢決定用データそれぞれに対応する前記対応データを補間により算出する処理が、制御部により実行され、
前記データ差異判別機能では、前記姿勢決定用データと前記姿勢決定用データに対応する前記対応データとの差を計算する処理を制御部に実行させることにより、前記姿勢決定用データと前記対応データとの差が前記許容差異データに対応する許容値未満であるか否かが、制御部により判別され、
前記第2基準姿勢決定用データ認識機能では、前記姿勢決定用データと前記対応データとの前記差が前記許容差異データに対応する許容値以上であると制御部に判別された場合に、前記差が最大である前記姿勢決定用データが、前記基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識され、
前記第3基準姿勢決定用データ認識機能では、前記姿勢決定用データと前記対応データとの前記差が前記許容差異データに対応する許容値未満であると制御部に判別された場合に、全ての前記基準姿勢決定用データが制御部に認識される、
請求項1又は2に記載の画像処理プログラム。
In the correspondence data calculation function, a process of calculating the correspondence data corresponding to each of the plurality of posture determination data using the reference posture determination data is executed by the control unit,
In the data difference determination function, by causing a control unit to execute a process of calculating a difference between the posture determination data and the corresponding data corresponding to the posture determination data, the posture determination data and the corresponding data Whether the difference is less than the tolerance value corresponding to the tolerance difference data,
In the second reference attitude determination data recognition function, when the control unit determines that the difference between the attitude determination data and the corresponding data is equal to or larger than an allowable value corresponding to the allowable difference data, the difference The posture determination data with the maximum is recognized by the control unit as reference posture determination data different from the reference posture determination data,
In the third reference posture determination data recognition function, when the control unit determines that the difference between the posture determination data and the corresponding data is less than an allowable value corresponding to the allowable difference data, The reference posture determination data is recognized by the control unit,
The image processing program according to claim 1 or 2.
前記姿勢決定用データ認識機能では、記憶部に格納された、連続的に変化する前記オブジェクトの複数の姿勢それぞれを決定するための前記姿勢決定用データが、制御部に認識され、
前記第1基準姿勢決定用データ認識機能では、複数の前記姿勢決定用データのうちの最初の前記姿勢決定用データおよび最後の前記姿勢決定用データが、前記基準姿勢決定用データとして制御部に認識され、
前記対応データ算出機能では、前記基準姿勢決定用データを用いて、最初の前記姿勢決定用データと最後の前記姿勢決定用データとの間の複数の前記姿勢決定用データそれぞれに対応する前記対応データを算出する処理が、制御部により実行される、
請求項1から3のいずれかに記載の画像処理プログラム。
In the posture determination data recognition function, the control unit recognizes the posture determination data stored in the storage unit for determining each of the plurality of postures of the continuously changing object.
In the first reference posture determination data recognition function, the first posture determination data and the last posture determination data among the plurality of posture determination data are recognized by the control unit as the reference posture determination data. And
In the correspondence data calculation function, the correspondence data corresponding to each of the plurality of posture determination data between the first posture determination data and the last posture determination data using the reference posture determination data. The process of calculating is executed by the control unit,
The image processing program according to claim 1.
前記コンピュータに、
全ての前記基準姿勢決定用データに基づいて、前記オブジェクトの姿勢用の画像データを生成する処理を、制御部に実行させる画像データ生成機能と、
前記オブジェクトの姿勢用の画像データに基づいて、前記オブジェクトの複数の姿勢からなる動画を画像表示部に表示する動画表示機能と、
をさらに実現させるための請求項1から4のいずれかに記載の画像処理プログラム。
In the computer,
An image data generation function for causing the control unit to execute processing for generating image data for posture of the object based on all the reference posture determination data;
A moving image display function for displaying a moving image including a plurality of postures of the object on an image display unit based on the image data for the posture of the object;
The image processing program according to claim 1, for further realizing the above.
オブジェクトを画像表示部に表示するためのデータを処理可能な画像処理装置であって、
記憶部に格納された、前記オブジェクトの複数の姿勢それぞれを決定し、複数の要素と複数の前記要素それぞれを互いに連結するための連結部とからなる前記オブジェクトにおいて前記連結部まわりに回転する前記要素の位置を規定するためのものであり、前記連結部に定義される姿勢決定用データを、制御部に認識させる姿勢決定用データ認識手段と、
複数の前記姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとして制御部に認識させる第1基準姿勢決定用データ認識手段と、
前記基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第1基準姿勢決定用データ格納手段と、
前記基準姿勢決定用データを用いて複数の前記姿勢決定用データそれぞれに対応する対応データを算出する処理を、制御部に実行させる対応データ算出手段と、
前記姿勢決定用データと前記対応データとの差異を許容する許容範囲を規定するためのものであり、前記オブジェクトの基部に配置される前記連結部と、少なくとも1つの前記要素を介して前記オブジェクトの基部に配置された前記連結部に連なる末端部との距離が大きくなるにつれて、前記オブジェクトの基部側における前記姿勢決定用データと前記対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データを設定し、制御部に認識させる許容差異データ認識手段と、
前記姿勢決定用データと前記姿勢決定用データに対応する前記対応データとを比較する処理を制御部に実行させることにより、前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲内であるか否かを、制御部に判別させるデータ差異判別手段と、
前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する前記姿勢決定用データを、前記基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識させる第2基準姿勢決定用データ認識手段と、
前記基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第2基準姿勢決定用データ格納手段と、
前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての前記基準姿勢決定用データを制御部に認識させる第3基準姿勢決定用データ認識手段と、
を備える画像処理装置。
An image processing apparatus capable of processing data for displaying an object on an image display unit,
The element that is stored in the storage unit and that determines each of a plurality of postures of the object, and that rotates around the connecting unit in the object that includes a plurality of elements and a connecting unit for connecting the plurality of elements to each other. Posture determination data recognition means for causing the control unit to recognize posture determination data defined in the connecting unit ;
First reference attitude determination data recognition means for causing the control unit to recognize any two attitude determination data of the plurality of attitude determination data as reference attitude determination data;
First reference posture determination data storage means for causing a control unit to execute processing for storing the reference posture determination data in a storage unit;
Correspondence data calculation means for causing the control unit to execute processing for calculating correspondence data corresponding to each of the plurality of posture determination data using the reference posture determination data;
This is for defining an allowable range in which a difference between the posture determination data and the corresponding data is allowed , and the connection portion arranged at the base portion of the object, and the object through at least one of the elements. As the distance from the terminal portion connected to the connecting portion arranged at the base portion increases, the criterion for determining the difference between the posture determining data and the corresponding data on the base side of the object becomes stricter. , Tolerance difference data recognition means for setting tolerance difference data and causing the control unit to recognize it,
By causing the control unit to execute a process of comparing the posture determination data and the correspondence data corresponding to the posture determination data, a difference between the posture determination data and the correspondence data corresponds to the allowable difference data. Data difference determining means for causing the control unit to determine whether or not it is within an allowable range;
When the controller determines that the difference between the attitude determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is used as the reference attitude. Second reference posture determination data recognition means for causing the control unit to recognize the reference posture determination data different from the determination data;
Second reference posture determination data storage means for causing the control unit to execute processing for storing reference posture determination data different from the reference posture determination data in the storage unit;
When the control unit determines that the difference between the posture determination data and the corresponding data is within an allowable range corresponding to the allowable difference data, all the reference posture determination data stored in the storage unit A third reference posture determination data recognition means to be recognized by the control unit;
An image processing apparatus comprising:
オブジェクトを画像表示部に表示するためのデータの処理をコンピュータにより制御する画像処理制御方法であって、
記憶部に格納された、前記オブジェクトの複数の姿勢それぞれを決定し、複数の要素と複数の前記要素それぞれを互いに連結するための連結部とからなる前記オブジェクトにおいて前記連結部まわりに回転する前記要素の位置を規定するためのものであり、前記連結部に定義される姿勢決定用データを、制御部に認識させる姿勢決定用データ認識ステップと、
複数の前記姿勢決定用データのうちのいずれか2つの姿勢決定用データを、基準姿勢決定用データとして制御部に認識させる第1基準姿勢決定用データ認識ステップと、
前記基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第1基準姿勢決定用データ格納ステップと、
前記基準姿勢決定用データを用いて複数の前記姿勢決定用データそれぞれに対応する対応データを算出する処理を、制御部に実行させる対応データ算出ステップと、
前記姿勢決定用データと前記対応データとの差異を許容する許容範囲を規定するためのものであり、前記オブジェクトの基部に配置される前記連結部と、少なくとも1つの前記要素を介して前記オブジェクトの基部に配置された前記連結部に連なる末端部との距離が大きくなるにつれて、前記オブジェクトの基部側における前記姿勢決定用データと前記対応データとの差異を判断するための判別基準が厳しくなるような、許容差異データを設定し、制御部に認識させる許容差異データ認識ステップと、
前記姿勢決定用データと前記姿勢決定用データに対応する前記対応データとを比較する処理を制御部に実行させることにより、前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲内であるか否かを、制御部に判別させるデータ差異判別ステップと、
前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲外であると制御部に判別された場合に、最大の差異を有する前記姿勢決定用データを、前記基準姿勢決定用データとは異なる基準姿勢決定用データとして制御部に認識させる第2基準姿勢決定用データ認識ステップと、
前記基準姿勢決定用データとは異なる基準姿勢決定用データを記憶部に格納する処理を制御部に実行させる第2基準姿勢決定用データ格納ステップと、
前記姿勢決定用データと前記対応データとの差異が前記許容差異データに対応する許容範囲内であると制御部に判別された場合に、記憶部に格納された全ての前記基準姿勢決定用データを制御部に認識させる第3基準姿勢決定用データ認識ステップと、
を備える画像処理制御方法。
An image processing control method for controlling processing of data for displaying an object on an image display unit by a computer,
The element that is stored in the storage unit and that determines each of a plurality of postures of the object, and that rotates around the connecting unit in the object that includes a plurality of elements and a connecting unit for connecting the plurality of elements to each other. Posture determination data recognition step for causing the control unit to recognize the posture determination data defined in the connecting unit ;
A first reference attitude determination data recognition step for causing the control unit to recognize any two attitude determination data of the plurality of attitude determination data as reference attitude determination data;
A first reference posture determination data storage step for causing a control unit to execute a process of storing the reference posture determination data in a storage unit;
A correspondence data calculation step for causing the control unit to execute processing for calculating correspondence data corresponding to each of the plurality of posture determination data using the reference posture determination data;
This is for defining an allowable range in which a difference between the posture determination data and the corresponding data is allowed , and the connection portion arranged at the base portion of the object, and the object through at least one of the elements. As the distance from the terminal portion connected to the connecting portion arranged at the base portion increases, the criterion for determining the difference between the posture determining data and the corresponding data on the base side of the object becomes stricter. , A tolerance difference data recognition step for setting tolerance difference data and causing the control unit to recognize it,
By causing the control unit to execute a process of comparing the posture determination data and the correspondence data corresponding to the posture determination data, a difference between the posture determination data and the correspondence data corresponds to the allowable difference data. A data difference determination step for causing the control unit to determine whether or not it is within an allowable range;
When the controller determines that the difference between the attitude determination data and the corresponding data is outside the allowable range corresponding to the allowable difference data, the attitude determination data having the maximum difference is used as the reference attitude. A second reference posture determination data recognition step for causing the control unit to recognize the reference posture determination data different from the determination data;
A second reference posture determination data storage step for causing the control unit to execute a process of storing reference posture determination data different from the reference posture determination data in the storage unit;
When the control unit determines that the difference between the posture determination data and the corresponding data is within an allowable range corresponding to the allowable difference data, all the reference posture determination data stored in the storage unit A third reference posture determination data recognition step to be recognized by the control unit;
An image processing control method comprising:
JP2007228854A 2007-09-04 2007-09-04 Image processing program, image processing apparatus, and image processing control method Active JP4536095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007228854A JP4536095B2 (en) 2007-09-04 2007-09-04 Image processing program, image processing apparatus, and image processing control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007228854A JP4536095B2 (en) 2007-09-04 2007-09-04 Image processing program, image processing apparatus, and image processing control method

Publications (2)

Publication Number Publication Date
JP2009064069A JP2009064069A (en) 2009-03-26
JP4536095B2 true JP4536095B2 (en) 2010-09-01

Family

ID=40558628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007228854A Active JP4536095B2 (en) 2007-09-04 2007-09-04 Image processing program, image processing apparatus, and image processing control method

Country Status (1)

Country Link
JP (1) JP4536095B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458731B2 (en) * 2009-06-03 2014-04-02 株式会社三洋物産 Game machine
US10950024B2 (en) * 2018-07-27 2021-03-16 Magic Leap, Inc. Pose space dimensionality reduction for pose space deformation of a virtual character

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219447A (en) * 1998-02-02 1999-08-10 Namco Ltd Data processor, data processing method, and medium for storing program concerning the method
JP2005165962A (en) * 2003-12-05 2005-06-23 Konami Computer Entertainment Japan Inc Data processing method and data processing unit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219447A (en) * 1998-02-02 1999-08-10 Namco Ltd Data processor, data processing method, and medium for storing program concerning the method
JP2005165962A (en) * 2003-12-05 2005-06-23 Konami Computer Entertainment Japan Inc Data processing method and data processing unit

Also Published As

Publication number Publication date
JP2009064069A (en) 2009-03-26

Similar Documents

Publication Publication Date Title
JP3168244B2 (en) Image generating apparatus and method
JP2010026818A (en) Image processing program, image processor, and image processing method
US20220198733A1 (en) Enhanced pose generation based on conditional modeling of inverse kinematics
Jörg et al. Data-driven finger motion synthesis for gesturing characters
US11648480B2 (en) Enhanced pose generation based on generative modeling
US9454839B2 (en) Method and apparatus for expressing rigid area based on expression control points
JP4590401B2 (en) Face image creating apparatus, face image creating method, program, and recording medium recording the program
US6626759B1 (en) Game apparatus, method for displaying motion of character, and computer readable recording medium for recording program used to display motion of character
JP3853329B2 (en) GAME PROGRAM AND GAME DEVICE
US20020022517A1 (en) Image generation apparatus, method and recording medium
JP2007167531A (en) Video game program, video game device and video game control method
JP4536095B2 (en) Image processing program, image processing apparatus, and image processing control method
JP2014029566A (en) Image processing apparatus, image processing method, and image processing program
JP3617839B2 (en) GAME SOUND CONTROL PROGRAM, GAME SOUND CONTROL METHOD, AND GAME DEVICE
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
US20230196593A1 (en) High Density Markerless Tracking
US6972766B2 (en) Recording medium storing dynamic picture image generation program, dynamic picture image generation program, dynamic picture image generation method, and device for the same
KR20030064643A (en) Three-dimensional image processing program, three-dimensional image processing apparatus, three-dimensional image processing method, and video game device
JP4244352B2 (en) Image generating apparatus, image generating method, and program
JP4357155B2 (en) Animation image generation program
JP6398938B2 (en) Projection control apparatus and program
JP6310516B2 (en) Game program and game system
JP3872032B2 (en) Image generation program, image generation apparatus, image generation method, and video game apparatus
JP4287479B2 (en) Image generating apparatus, image generating method, and program
JP3981388B2 (en) Video game program, video game apparatus, and video game control method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4536095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140625

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250