JP2007156773A - Image generation device, image generation method, and program - Google Patents

Image generation device, image generation method, and program Download PDF

Info

Publication number
JP2007156773A
JP2007156773A JP2005350228A JP2005350228A JP2007156773A JP 2007156773 A JP2007156773 A JP 2007156773A JP 2005350228 A JP2005350228 A JP 2005350228A JP 2005350228 A JP2005350228 A JP 2005350228A JP 2007156773 A JP2007156773 A JP 2007156773A
Authority
JP
Japan
Prior art keywords
character
image
viewpoint
head
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005350228A
Other languages
Japanese (ja)
Other versions
JP4244352B2 (en
Inventor
Shinsuke Mukai
伸介 向井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2005350228A priority Critical patent/JP4244352B2/en
Publication of JP2007156773A publication Critical patent/JP2007156773A/en
Application granted granted Critical
Publication of JP4244352B2 publication Critical patent/JP4244352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation technology for generating the image of the head part of a character arranged in a virtual space by a drawing method widely used for comics or animation. <P>SOLUTION: The generation part 504 of an image generation device 501 generates an image where the face of a character arranged in a virtual space is viewed from the point of view arranged in the virtual space, and when a first direction fixed to the head part of the character deviates from a second direction from the head part of the character to the point of view, a correction part 503 corrects the position of the object arranged in the head part of the character so as to be close to the point of view, and the generation part 504 generates the image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、仮想空間に配置されたキャラクターの頭部の画像をマンガやアニメーションで広く用いられている描法で生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムに関する。   The present invention provides an image generation apparatus, an image generation method, and a computer that are suitable for generating an image of a character's head placed in a virtual space using a drawing method widely used in manga and animation. Related to the program.

従来から、コンピュータグラフィックス(Computer Graphics;CG)において人物や動物などのキャラクターを表現する際に、その骨格をボーンという線分オブジェクトで抽象化し、各ボーンの回りにボーンに対して位置が固定される点の位置によって、皮膚の形状を抽象化したスキンの形状を求めて、頭部の形状を表す技術が提案されている。すなわち、ボーンは、キャラクターのおおまかな姿勢や形状を決めるものであり、スキンは、キャラクターの表面形状・外観形状に相当するものである。   Conventionally, when representing characters such as humans and animals in computer graphics (CG), the skeleton is abstracted with a line segment object called a bone, and the position of the bone around each bone is fixed. There has been proposed a technique for obtaining the shape of the skin by obtaining the skin shape by abstracting the shape of the skin according to the position of the points. That is, the bone determines the general posture and shape of the character, and the skin corresponds to the surface shape and appearance shape of the character.

このような技術は、以下の文献に開示されている。
Tim Coleman,Sherri Sheridan著、デジタル・スタジオ飜訳、目指せプロアニメータ Mayaキャラクタアニメーション、255頁〜277頁、株式会社ボーンデジタル、2002年4月25日発行
Such a technique is disclosed in the following document.
Tim Coleman, Sherri Sheridan, Digital Studio Translation, Aiming Pro-Animator Maya Character Animation, pages 255-277, Bone Digital, Inc., published April 25, 2002

[非特許文献1]では、キャラクターの頭部に配置された目、鼻、口などのオブジェクトの形状を変化させて、キャラクターの表情を変化させる技術が開示されている。   [Non-Patent Document 1] discloses a technique for changing the facial expression of a character by changing the shape of an object such as an eye, nose, or mouth arranged on the head of the character.

一方で、特に日本のマンガやアニメーションにおけるキャラクターの描法には、独特の特徴がある。すなわち、キャラクターを斜め横から見たときの口や鼻等の位置が、仮に当該キャラクターを3次元的に構成して写真を撮影したとしたときに得られる口や鼻等の位置からずれているのである。   On the other hand, character drawing in Japanese manga and animations has unique characteristics. That is, the position of the mouth and nose when the character is viewed from an oblique side is deviated from the position of the mouth and nose obtained when the character is photographed in a three-dimensional configuration. It is.

たとえばキャラクターの髪の毛が立っている場合や、キャラクターに角が生えている場合に、当該キャラクターの頭部部を目立たせるように、立っている髪の毛や角が重ならないように描くのも、このような描法の一つである。   For example, when the character's hair is standing or when the character has horns, it is also possible to draw the hair and horns so that they do not overlap so that the head of the character is conspicuous It is one of the simple drawing.

これは、人物や動物を絵画として表現する際に、写真とは異なる描法を用いて、人物や動物のキャラクターを極立たせたり、観者の目を惹いて、キャラクターの頭部をより魅力的に見せたりするための絵画技術であり、たとえば浮世絵においても適用されている伝統的な手法でもある。   This is because, when a person or animal is represented as a painting, the character's head is made more attractive by attracting the viewer's eyes by using a drawing method different from that of photographs and attracting the viewer's eyes. It is a painting technique for showing, and it is also a traditional technique applied in Ukiyo-e, for example.

したがって、仮想空間に配置されたオブジェクトとしてモデル化されたキャラクターを、CG技術で画面に表示する際には、写真を撮影するような透視投影のみによるのではなく、上記のような、マンガやアニメーションで用いられる独特の描法にも対応できるようにしたい、との要望は大きい。   Therefore, when a character modeled as an object placed in a virtual space is displayed on the screen using CG technology, it is not only based on perspective projection such as taking a picture, but as described above, such as manga and animation. There is a great demand to be able to cope with the unique drawing methods used in Japan.

本発明は、上記のような課題を解決するもので、仮想空間に配置されたキャラクターの頭部の画像をマンガやアニメーションで広く用いられている描法で生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムを提供することを目的とする。   The present invention solves the above-described problems, and is an image generation apparatus and image suitable for generating an image of the head of a character placed in a virtual space by a drawing method widely used in manga and animation. It is an object of the present invention to provide a generation method and a program for realizing these on a computer.

以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。   In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.

本発明の第1の観点に係る画像生成装置は、生成部、修正部を備え、以下のように構成する。   An image generation apparatus according to a first aspect of the present invention includes a generation unit and a correction unit, and is configured as follows.

ここで、生成部は、仮想空間内に配置されるキャラクターの頭部(キャラクターの「顔」を含む。)を、当該仮想空間内に配置される視点から見た画像を生成する。   Here, the generation unit generates an image of the head of the character (including the “face” of the character) placed in the virtual space as viewed from the viewpoint placed in the virtual space.

キャラクターの頭部は、一般には、ボーンと制御点とスキンの組合せや、各種ポリゴンにより構成される多面体といった、平面形状・曲面形状・立体形状を表すオブジェクトによって形成される。そして、キャラクターの頭部のオブジェクトの表面には、鼻、口、目、耳、髪の毛などのオブジェクトが配置されている。   The head of a character is generally formed by an object representing a planar shape, a curved surface shape, or a three-dimensional shape, such as a combination of bones, control points, and skins, or a polyhedron composed of various polygons. Objects such as the nose, mouth, eyes, ears, and hair are arranged on the surface of the character's head object.

画像生成部は、透視投影や平行投影など、各種の3次元CG技術によって、視点から見た仮想空間の様子を示す画像を生成するのである。   The image generation unit generates an image showing the state of the virtual space viewed from the viewpoint by various three-dimensional CG techniques such as perspective projection and parallel projection.

一方、修正部は、当該キャラクターの頭部に固定された第1方向と、当該キャラクターの頭部から当該視点への第2方向と、がずれている場合、当該キャラクターの頭部に配置されるオブジェクトの位置を、当該視点に近付くように修正して、生成部に当該画像を生成させる。   On the other hand, when the first direction fixed to the character's head and the second direction from the character's head to the viewpoint are shifted from each other, the correction unit is arranged on the character's head. The position of the object is corrected so as to approach the viewpoint, and the generation unit generates the image.

修正部は、生成部による画像の生成に先立って、鼻、口、目、耳、髪の毛などのオブジェクトの位置を修正するものである。   The correction unit corrects the positions of objects such as the nose, mouth, eyes, ears, and hair prior to image generation by the generation unit.

キャラクターの頭部に固定された第1方向は、典型的にはキャラクターが正面を向くときの正面方向であり、キャラクターの頭部から視点へ向かう第2方向が第1方向と一致する場合は、キャラクターの頭部に真正面から相対する場合である。したがって、このような場合には、鼻や口などのオブジェクトは、基準位置に配置されたままとする。   The first direction fixed to the character's head is typically the front direction when the character faces the front, and when the second direction from the character's head to the viewpoint matches the first direction, This is the case where it is directly opposite the character's head. Therefore, in such a case, objects such as the nose and the mouth remain arranged at the reference position.

一方、第2方向と第1方向がずれた場合、たとえば、キャラクターを起点として、第1方向から左側に第2方向が設定された場合は、キャラクターの頭部の左半分がより多く画像に表示されることとなる。   On the other hand, when the second direction is shifted from the first direction, for example, when the second direction is set to the left from the first direction starting from the character, the left half of the character's head is displayed in the image more. Will be.

このような場合、マンガやアニメーションの表現では、口や鼻を、キャラクターを起点として左側に移動させたような、描法を用いることがある。   In such a case, in the expression of manga and animation, a drawing method in which the mouth and nose are moved to the left starting from the character may be used.

本発明では、オブジェクトの位置を視点に近付くように修正することによって、このような描法と同様の効果を得るのである。   In the present invention, an effect similar to that of such a drawing method is obtained by correcting the position of the object so as to approach the viewpoint.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像を、マンガやアニメーションで広く用いられている描法で、簡易に生成することができる。   According to the present invention, an image of a character's head placed in a virtual space can be easily generated by a drawing method widely used in manga and animation.

また、本発明の画像生成装置において、修正部は、当該キャラクターの頭部に固定された回転軸の周りで、当該オブジェクトの位置を回転して、当該オブジェクトの位置を修正するように構成することができる。   In the image generating apparatus of the present invention, the correction unit is configured to correct the position of the object by rotating the position of the object around a rotation axis fixed to the head of the character. Can do.

鼻や口のオブジェクトを回転させる回転軸は、キャラクターの背骨や首の中心と頭部頂を結ぶ直線を採用するのが典型的である。当該直線を回転軸に鼻や口のオブジェクトを回転させると、鼻や口のオブジェクトがキャラクターの頭部の表面を左や右に移動することとなる。   The rotation axis for rotating the nose and mouth objects typically employs a straight line connecting the center of the character's spine or neck and the top of the head. When the nose or mouth object is rotated about the straight line as the rotation axis, the nose or mouth object moves to the left or right on the surface of the character's head.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像を生成する際に、オブジェクトの移動後の位置を容易に求めることができるようになる。   According to the present invention, when an image of the head of a character placed in a virtual space is generated, the position after movement of the object can be easily obtained.

また、本発明の画像生成装置において、修正部は、当該回転軸と当該第1方向とが張る平面から、当該回転軸と当該第2方向とが張る平面への、当該回転軸の周りの回転角を取得し、当該取得された回転角に0より大きく1より小さい比例定数を乗じた回転量だけ、当該オブジェクトの位置を回転して、当該オブジェクトの位置を修正するように構成することができる。   In the image generation device of the present invention, the correction unit rotates around the rotation axis from a plane extending from the rotation axis and the first direction to a plane extending from the rotation axis and the second direction. The angle can be acquired, and the position of the object can be corrected by rotating the position of the object by the rotation amount obtained by multiplying the acquired rotation angle by a proportional constant greater than 0 and less than 1. .

本発明では、キャラクターの正面からどれだけ左右に視点がずれているかを調べ、その左右のずれを補間するような回転量だけ、オブジェクトを回転させて、鼻や口などのオブジェクトを移動させる。   In the present invention, how much the viewpoint is shifted to the left and right from the front of the character is checked, and the object such as the nose and the mouth is moved by rotating the object by an amount of rotation that interpolates the left and right shift.

このような回転量を得るには、第1方向の方向ベクトルと第2方向の方向ベクトルの外積の回転軸方向の成分を求め、当該回転軸方向の成分のベクトルに当該比例定数を乗じたものを、当該オブジェクトの回転ベクトルとして採用すれば良い。   In order to obtain such a rotation amount, a component in the rotation axis direction of the outer product of the direction vector in the first direction and the direction vector in the second direction is obtained, and the vector of the component in the rotation axis direction is multiplied by the proportional constant. May be adopted as the rotation vector of the object.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像を生成する際に、オブジェクトの移動後の位置を容易に求めることができるようになる。   According to the present invention, when an image of the head of a character placed in a virtual space is generated, the position after movement of the object can be easily obtained.

また、本発明の画像生成装置において、修正部は、当該第1方向と、当該第2方向と、のずれの量にあらかじめ対応付けられた量だけ、当該オブジェクトの位置を修正するように構成することができる。   In the image generation device of the present invention, the correction unit is configured to correct the position of the object by an amount that is associated in advance with the amount of deviation between the first direction and the second direction. be able to.

すなわちキャラクターの頭部を中心とする球面を想定し、その球面を区画分けして、各区画ごとに、オブジェクトの位置の修正量を定めておく。そして、キャラクターの頭部から視点への半直線が交叉する当該球面の区画を調べ、当該区画に対応付けられた修正量により、オブジェクトの位置を修正するのである。   That is, assuming a spherical surface centered on the character's head, the spherical surface is divided into sections, and the correction amount of the object position is determined for each section. Then, the section of the spherical surface where the half line from the character's head to the viewpoint intersects is examined, and the position of the object is corrected by the correction amount associated with the section.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像を生成する際に、オブジェクトの移動後の位置を容易に求めることができるようになる。   According to the present invention, when an image of the head of a character placed in a virtual space is generated, the position after movement of the object can be easily obtained.

また、本発明の画像生成装置において、修正部は、当該第1方向と、当該第2方向と、のずれが、所定の閾値以下である場合、当該オブジェクトの位置を修正するように構成することができる。   In the image generation device of the present invention, the correction unit is configured to correct the position of the object when the deviation between the first direction and the second direction is equal to or less than a predetermined threshold. Can do.

本発明は、オブジェクトの位置を修正するような視点の方向に制限を設けるものである。たとえば、視点がキャラクターの背面に存在する場合には、顔面に配置された目や口を移動させても無意味である。一方で、髪の毛や角等の、背面からも見えるオブジェクトについては、オブジェクトの移動の処理を行うことができる。   The present invention provides a restriction on the direction of the viewpoint that corrects the position of the object. For example, when the viewpoint is on the back of the character, it is meaningless to move the eyes and mouth arranged on the face. On the other hand, for objects that can be seen from the back, such as hair and corners, object movement processing can be performed.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像を生成する際に、位置を修正するオブジェクトを適切に選択して、計算処理を抑制することができるようになる。   According to the present invention, when an image of the head of a character placed in a virtual space is generated, an object whose position is to be corrected can be appropriately selected to suppress calculation processing.

また、本発明の画像生成装置において、当該オブジェクトは、当該キャラクターの鼻もしくは口を表現するオブジェクトであるように構成することができる。   In the image generation apparatus of the present invention, the object can be configured to be an object representing the nose or mouth of the character.

本発明は、上記発明の好適実施形態に係るものである。マンガやアニメーションの表現において、キャラクターを斜め左や斜め右から見た様子を描く場合に、3次元モデルを写真撮影した場合と大きく位置が異なるのは、鼻および口である。そこで、本発明では、これらについて、位置の修正を行う。   The present invention relates to a preferred embodiment of the above invention. In the expression of manga and animation, when drawing the appearance of a character seen from diagonally left or diagonally right, the positions of the nose and mouth are greatly different from the case of taking a photograph of a three-dimensional model. Therefore, in the present invention, the positions of these are corrected.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像を、マンガやアニメーションで広く用いられている描法に合わせて、鼻や口の位置を移動させて、簡易に生成することができる。   According to the present invention, it is possible to easily generate an image of a character's head placed in a virtual space by moving the position of the nose and mouth in accordance with a drawing method widely used in manga and animation. it can.

本発明のその他の観点に係る画像生成方法は、生成部と、修正部と、を備える画像生成装置にて実行され、以下のように構成する。   An image generation method according to another aspect of the present invention is executed by an image generation apparatus including a generation unit and a correction unit, and is configured as follows.

すなわち、生成工程では、生成部が、仮想空間内に配置されるキャラクターの頭部を、当該仮想空間内に配置される視点から見た画像を表示する。   That is, in the generation step, the generation unit displays an image of the head of the character arranged in the virtual space as viewed from the viewpoint arranged in the virtual space.

一方、修正工程では、生成工程に先立って、修正部が、当該キャラクターの頭部に固定された第1方向と、当該キャラクターの頭部から当該視点への第2方向と、がずれている場合、当該キャラクターの頭部に配置されるオブジェクトの位置を、当該視点に近付くように修正して、生成工程にて当該画像を生成させる。   On the other hand, in the correction process, prior to the generation process, the correction unit is displaced from the first direction fixed to the character's head and the second direction from the character's head to the viewpoint. The position of the object placed on the head of the character is corrected so as to approach the viewpoint, and the image is generated in the generation step.

本発明のその他の観点に係るプログラムは、コンピュータを上記の画像生成装置として機能させ、コンピュータに上記の画像生成方法を実行させるように構成する。   A program according to another aspect of the present invention is configured to cause a computer to function as the above-described image generation device and to cause the computer to execute the above-described image generation method.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記憶媒体に記録することができる。   The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配布・販売することができる。   The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、仮想空間に配置されたキャラクターの頭部の画像をマンガやアニメーションで広く用いられている描法で生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image generation apparatus suitable for producing | generating the image of the head of the character arrange | positioned in the virtual space by the drawing method widely used by manga and animation, and an image generation method, and these are made into a computer. Can be provided.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is realized using a game information processing device will be described. However, the embodiment described below is for explanation, and the present invention is described. It does not limit the range. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、プログラムを実行することにより、本発明の画像生成装置の機能を果たす典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus that performs the function of the image generation apparatus of the present invention by executing a program. Hereinafter, a description will be given with reference to FIG.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM 102と、RAM(Random Access Memory)103と、インターフェイス104と、コントローラ105と、外部メモリ106と、画像処理部107と、DVD−ROM(Digital Versatile Disc ROM)ドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, an image processing unit 107, and a DVD-ROM. (Digital Versatile Disc ROM) drive 108, NIC (Network Interface Card) 109, and audio processing unit 110.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態の画像生成装置が実現される。   A DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on to execute the program, thereby realizing the image generation apparatus of the present embodiment. Is done.

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、レジスタ(図示せず)という高速アクセスが可能な記憶域に対してALU(Arithmetic Logic Unit)(図示せず)を用いて加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行えるように、CPU 101自身が構成されているものや、コプロセッサを備えて実現するものがある。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data. Further, the CPU 101 uses arithmetic operations such as addition / subtraction / multiplication / division, logical sum, logical product, etc. using an ALU (Arithmetic Logic Unit) (not shown) for a storage area called a register (not shown) that can be accessed at high speed. , Logic operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. In addition, the CPU 101 itself is configured so that saturation operations such as addition / subtraction / multiplication / division for multimedia processing, vector operations such as trigonometric functions, etc. can be performed at a high speed, and those provided with a coprocessor. There is.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and execution by the CPU 101 is started. The The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication. Further, the CPU 101 provides a variable area in the RAM 103 and performs an operation by directly operating the ALU on the value stored in the variable, or temporarily stores the value stored in the RAM 103 in the register. Perform operations such as performing operations on registers and writing back the operation results to memory.

インターフェイス104を介して接続されたコントローラ105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。   The controller 105 connected via the interface 104 receives an operation input performed when the user executes the game.

インターフェイス104を介して着脱自在に接続された外部メモリ106には、ゲーム等のプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワーク対戦の場合のチャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   The external memory 106 detachably connected via the interface 104 stores data indicating game play status (past results, etc.), data indicating game progress, and log of chat communication in the case of a network match ( Data) is stored in a rewritable manner. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 108 stores a program for realizing the game and image data and audio data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部107に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data on a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 107. Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.

また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   Also, polygon information arranged in the virtual three-dimensional space and added with various texture information is rendered by the Z buffer method, and the polygon arranged in the virtual three-dimensional space from the predetermined viewpoint position is determined in the direction of the predetermined line of sight It is also possible to perform high-speed execution of operations to obtain a rendered image overlooking the top.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。   Further, the CPU 101 and the image arithmetic processor operate in a coordinated manner, so that a character string can be drawn as a two-dimensional image in a frame memory or drawn on the surface of each polygon according to font information that defines the character shape. is there.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is based on the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). To connect to the Internet using an analog modem, ISDN (Integrated Services Digital Network) modem, ADSL (Asymmetric Digital Subscriber Line) modem, cable television line A cable modem or the like and an interface (not shown) that mediates between these and the CPU 101 are configured.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs the analog audio signal from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker.

音声処理部110では、DVD−ROMに記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、ADPCM形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。   When the audio data recorded on the DVD-ROM is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio data and converts the MIDI data into PCM data. If the compressed audio data is in ADPCM format or Ogg Vorbis format, it is expanded and converted to PCM data. The PCM data can be output by performing D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

さらに、情報処理装置100には、インターフェイス104を介してマイク111を接続することができる。この場合、マイク111からのアナログ信号に対しては、適当なサンプリング周波数でA/D変換を行い、PCM形式のディジタル信号として、音声処理部110でのミキシング等の処理ができるようにする。   Furthermore, a microphone 111 can be connected to the information processing apparatus 100 via the interface 104. In this case, the analog signal from the microphone 111 is subjected to A / D conversion at an appropriate sampling frequency so that processing such as mixing in the sound processing unit 110 can be performed as a PCM format digital signal.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM mounted on the DVD-ROM drive 108, and the like. You may comprise.

以上で説明した情報処理装置100は、いわゆる「コンシューマ向けテレビゲーム装置」に相当するものであるが、仮想空間を表示するような画像処理を行うものであれば本発明を実現することができる。したがって、携帯電話、携帯ゲーム機器、カラオケ装置、一般的なビジネス用コンピュータなど、種々の計算機上で本発明を実現することが可能である。   The information processing apparatus 100 described above corresponds to a so-called “consumer video game apparatus”, but the present invention can be realized as long as it performs image processing to display a virtual space. Therefore, the present invention can be realized on various computers such as a mobile phone, a portable game device, a karaoke apparatus, and a general business computer.

たとえば、一般的なコンピュータは、上記情報処理装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、および、NICを備え、情報処理装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラ105ではなく、キーボードやマウスなどを入力装置として利用する。   For example, a general computer, like the information processing apparatus 100, includes an image processing unit that includes a CPU, RAM, ROM, DVD-ROM drive, and NIC and has simpler functions than the information processing apparatus 100. In addition to having a hard disk as an external storage device, a flexible disk, a magneto-optical disk, a magnetic tape, and the like can be used. Further, not the controller 105 but a keyboard or a mouse is used as an input device.

図2は、仮想空間内におけるキャラクターの顔のモデルを表す説明図である。以下、本図を参照して説明する。   FIG. 2 is an explanatory diagram showing a model of a character's face in the virtual space. Hereinafter, a description will be given with reference to FIG.

キャラクターの顔201のモデルは、首252から頭頂251へ向かうボーン202と、目253、鼻254、口255など、顔の表面に配置されるオブジェクトの制御点203(図中では黒丸で表現されている。)と、を有する。   The model of the character's face 201 includes a bone 202 from the neck 252 to the top 251 and control points 203 of objects arranged on the surface of the face such as the eyes 253, the nose 254, the mouth 255 (represented by black circles in the figure). And).

目253、鼻254、口255のそれぞれには、複数の制御点203が割り当てられている。これらの制御点203によって、スキン形状やキャラクターの顔201の表面に描かれる線画の線の形状が定められる。   A plurality of control points 203 are assigned to each of the eyes 253, the nose 254, and the mouth 255. These control points 203 define the skin shape and the shape of a line drawing drawn on the surface of the character's face 201.

仮想空間内におけるボーン202の姿勢は、キャラクターの顔201がどちらを向いているかを表す方向204(以下、「第1方向」という。)、と1対1に対応付けられる。理解を容易にするため、以下では、第1方向204として、キャラクターの顔201の中心点205を起点とするキャラクターの正面方向を採用することとする。第1方向204は、第1方向の方向ベクトルdによって、特定することができる。   The posture of the bone 202 in the virtual space is associated one-to-one with a direction 204 (hereinafter referred to as “first direction”) that indicates which direction the character's face 201 is facing. In order to facilitate understanding, hereinafter, the front direction of the character starting from the center point 205 of the character's face 201 is adopted as the first direction 204. The first direction 204 can be specified by the direction vector d in the first direction.

そして、オブジェクトの制御点203の座標から、キャラクターの顔201の立体的な形状を表すスキンの形状が求められる。   A skin shape representing the three-dimensional shape of the character's face 201 is obtained from the coordinates of the control point 203 of the object.

このようにして得られたスキン形状は、一般には多角形(や曲面)の集合体であり、これらを仮想空間内に配置された視点206から見た様子を、透視投影や平行投影によって3次元グラフィックス技術に画像を生成し、これをディスプレイなどの表示装置に表示する。   The skin shape obtained in this way is generally an aggregate of polygons (or curved surfaces), and the appearance of these seen from the viewpoint 206 arranged in the virtual space is three-dimensionally obtained by perspective projection or parallel projection. An image is generated by graphics technology and displayed on a display device such as a display.

以下、キャラクターの顔201に対する視点206の方向を示すため、キャラクターの顔201の中心点205から視点206への方向を第2方向207と呼ぶこととする。第2方向207は、第2方向の方向ベクトルsによって、特定することができる。   Hereinafter, in order to indicate the direction of the viewpoint 206 with respect to the character's face 201, the direction from the center point 205 to the viewpoint 206 of the character's face 201 is referred to as a second direction 207. The second direction 207 can be specified by the direction vector s in the second direction.

方向ベクトルdと方向ベクトルsは、単位ベクトルであり、|d| = |s| = 1である。   The direction vector d and the direction vector s are unit vectors, and | d | = | s | = 1.

理解を容易にするため、キャラクターの顔201の中心点205に対する制御点203の位置ベクトルをrとする。本図では、唇の左端の制御点203について、位置ベクトルrを図示している。   In order to facilitate understanding, the position vector of the control point 203 with respect to the center point 205 of the character's face 201 is assumed to be r. In this figure, the position vector r is illustrated for the control point 203 at the left end of the lips.

以下の説明では、キャラクターの顔201に配置されるオブジェクトのうち、特に口255に注目して説明するが、目253、鼻254や図示しない髪の毛の形状など、各種のオブジェクトについて、同様の技術を適用することができ、そのような実施形態も本発明の範囲に含まれる。   In the following description, among the objects arranged on the character's face 201, the description will be given with particular attention to the mouth 255. However, the same technique is applied to various objects such as the eyes 253, the nose 254, and the shape of the hair (not shown). Such embodiments can be applied and are also within the scope of the present invention.

従来、オブジェクトの制御点203は、ボーン202に対する相対的な基本位置は固定されていた。すなわち、キャラクターの顔の表情が一定のまま、ボーン202が仮想空間内で位置や姿勢を変化させても、それに連動して制御点203の基本位置が変化されており、キャラクターの顔の形状を表すスキン形状そのものには、変化がなかった。   Conventionally, the basic position of the object control point 203 relative to the bone 202 is fixed. That is, even if the bone 202 changes its position and posture in the virtual space while the facial expression of the character remains constant, the basic position of the control point 203 is changed in conjunction with this, and the shape of the character's face is changed. There was no change in the skin shape itself.

また、オブジェクトの制御点203に対するボーン202に対する相対的な位置をその基本位置から変化させるのは、[非特許文献1]に示されるようにキャラクターの顔の目・鼻・口などの形状を変化させて、キャラクターの表情の変化をさせる場合のみであった。   Also, changing the relative position of the object to the control point 203 with respect to the bone 202 from its basic position changes the shape of the character's face, nose, mouth, etc. as shown in [Non-Patent Document 1]. It was only when changing the facial expression of the character.

したがって、仮想空間内に配置されたある一定の表情をしたキャラクターの顔201を、視点206から見た画像を生成する際には、オブジェクトの制御点203のボーンに対する相対的な位置は変化しないため、キャラクターの顔のスキン形状も一定であった。   Therefore, when the image of the character's face 201 with a certain expression arranged in the virtual space is viewed from the viewpoint 206, the relative position of the control point 203 of the object to the bone does not change. The skin shape of the character's face was also constant.

図3、図4、図5は、従来技術において、さまざまな表情のキャラクターの顔201を、その正面に配置された視点206から見た様子を示す説明図である。図3は、通常の表情であり、図4は、笑っている表情であり、図5は、叫んでいる表情である。   3, 4, and 5 are explanatory diagrams illustrating a state in which a face 201 of a character having various expressions is viewed from a viewpoint 206 arranged in front of the character 201 in the related art. FIG. 3 shows a normal expression, FIG. 4 shows a laughing expression, and FIG. 5 shows a screaming expression.

これらの例では、第1方向204と第2方向207が一致している。すなわち、d = sである。   In these examples, the first direction 204 and the second direction 207 coincide. That is, d = s.

上記のように、キャラクターの顔201の表情を変化させるには、ボーン202に対する制御点203の位置を変化させるが、従来の技術では、一旦表情が決まってしまえば、視点206の位置を変化させても、ボーン202に対する制御点203の相対的位置は固定されたままである。   As described above, in order to change the expression of the character's face 201, the position of the control point 203 relative to the bone 202 is changed. However, in the conventional technique, once the expression is determined, the position of the viewpoint 206 is changed. Even so, the relative position of the control point 203 with respect to the bone 202 remains fixed.

図6、図7、図8は、従来技術において、キャラクターの顔201を、キャラクターから見て右側に配置された視点206から見た様子を示す説明図である。それぞれ、図3、図4、図5の表情に対応するキャラクターの顔201を異なる視点206から見た様子に対応する。   6, 7, and 8 are explanatory diagrams illustrating a state in which the character's face 201 is viewed from the viewpoint 206 arranged on the right side when viewed from the character in the related art. Each corresponds to a situation in which the character's face 201 corresponding to the facial expressions of FIGS. 3, 4, and 5 is viewed from different viewpoints 206.

これらの例では、第1方向204と第2方向207が一致しておらず、ずれがある。すなわち、d ≠ sである。ベクトルの外積d×sを考えると、外積d×sの向きは下向き(キャラクターの顔201の頭頂251から首252へ向かう向き)であり、2つのベクトルdとsがなす角(視点206の正面方向からのずれに相当する。)をθとすると、θ = arcsin(|d×s|)である。   In these examples, the first direction 204 and the second direction 207 do not match and there is a shift. That is, d ≠ s. Considering the cross product d × s of vectors, the direction of the cross product d × s is downward (the direction from the top 251 to the neck 252 of the character's face 201), and the angle formed by the two vectors d and s (the front of the viewpoint 206) This is equivalent to a deviation from the direction.) Where θ is θ = arcsin (| d × s |).

さて、図6、図7、図8にあらわれたキャラクターの顔201の表情を見ると、日本のマンガやアニメーションを見慣れた観者にとっては、口の位置がキャラクターの顔の中心から左にずれているような印象を受けてしまう。特に、図7に示す例において、これが顕著である。   Now, looking at the facial expression of the character's face 201 shown in FIGS. 6, 7, and 8, for viewers familiar with Japanese manga and animation, the mouth position is shifted to the left from the center of the character's face. I get the impression that This is particularly noticeable in the example shown in FIG.

このような印象を観者が受ける理由であるが、日本のマンガやアニメーションの一般的な描法では、二次元の絵としての配置バランスを考慮して、キャラクターの顔の向きによって口や鼻などの位置を微調整することが伝統的な技法となっているからである。   This is the reason why viewers receive such an impression, but in general drawing methods of Japanese manga and animation, taking into account the placement balance as a two-dimensional picture, the mouth and nose depending on the orientation of the character's face This is because it is a traditional technique to fine-tune the position.

本発明では、このように、第1方向204と第2方向207がずれている場合に、日本のマンガやアニメーションの一般的な描法に合わせて、口や鼻などの位置を微調整する。   In the present invention, when the first direction 204 and the second direction 207 are deviated as described above, the positions of the mouth and nose are finely adjusted in accordance with the general drawing method of Japanese manga and animation.

理解を容易にするため、本発明の実施形態について詳細に説明する前に、生成された結果の画像について説明する。図9、図10、図11は、本発明の技術において、さまざまな表情のキャラクターの顔201を、その正面に配置された視点206から見た様子を示す説明図である。図9は、通常の表情であり、図10は、笑っている表情であり、図11は、叫んでいる表情である。   For ease of understanding, the resulting images will be described before describing embodiments of the present invention in detail. 9, 10, and 11 are explanatory diagrams showing how the face 201 of the character with various expressions is viewed from the viewpoint 206 arranged in front of it in the technique of the present invention. FIG. 9 shows a normal expression, FIG. 10 shows a laughing expression, and FIG. 11 shows a screaming expression.

また、図12は、図8と図11に示されるキャラクターの顔201の画像を重ねて表示した説明図である。   FIG. 12 is an explanatory diagram in which the images of the character's face 201 shown in FIGS. 8 and 11 are displayed in an overlapping manner.

図9〜図11と図6〜図8を比較すればわかる通り、本発明の技術において生成された画像では、キャラクターの鼻と口は、若干左側に移動している。これは、図12に示されている図において、顔の輪郭や目はぶれていないのに対して、鼻および口はぶれて二重に表示されていることからもわかる。   As can be seen by comparing FIGS. 9 to 11 and FIGS. 6 to 8, in the image generated by the technique of the present invention, the character's nose and mouth have moved slightly to the left. This can also be seen from the fact that in the figure shown in FIG. 12, the outline and eyes of the face are not blurred, while the nose and mouth are blurred and displayed twice.

本技術において、このように口や鼻の位置を移動させるのは、視点206がキャラクターの顔201から見て右側にずれているからである。視点206がキャラクターの顔201から見て左側にずれていれば、日本のマンガやアニメーションにおける描法に基づく画像では、キャラクターの口は、若干右側に移動することとなる。すなわち、キャラクターの口を視点206に近付けるように、移動しているのである。   In the present technology, the positions of the mouth and nose are moved in this way because the viewpoint 206 is shifted to the right side when viewed from the character face 201. If the viewpoint 206 is shifted to the left as viewed from the character's face 201, the character's mouth moves slightly to the right in images based on the drawing method in Japanese manga and animation. That is, the character's mouth is moving so as to approach the viewpoint 206.

本発明の原理に基づき、以下に説明する実施形態では、第1方向204と第2方向207がずれている場合、キャラクターの顔201の口255の制御点203を、キャラクターの顔201のボーン202を回転軸に、視点206に若干近付くように移動させる。以下、詳細に説明する。   Based on the principle of the present invention, in the embodiment described below, when the first direction 204 and the second direction 207 are shifted, the control point 203 of the mouth 255 of the character face 201 is changed to the bone 202 of the character face 201. Is moved around the axis of rotation so as to approach the viewpoint 206 slightly. Details will be described below.

図13は、本発明の実施形態に係る画像生成装置の概要構成を示す説明図である。以下、本図を参照して説明する。   FIG. 13 is an explanatory diagram showing a schematic configuration of the image generation apparatus according to the embodiment of the present invention. Hereinafter, a description will be given with reference to FIG.

画像生成装置501は、典型的には上記の情報処理装置100上にてソフトウェアを動作させることによって実現され、記憶部502、修正部503、生成部504を備える。   The image generation apparatus 501 is typically realized by operating software on the information processing apparatus 100 described above, and includes a storage unit 502, a correction unit 503, and a generation unit 504.

記憶部502は、上記のキャラクターの顔201のモデルの種々の情報を記憶する。具体的には、以下のような情報を記憶する。
・仮想空間におけるボーン202の位置および姿勢の情報。仮想空間内でのグローバル座標系に基づいてこれらの情報を管理することとしても良いし、ボーン202が連結されるキャラクターの首のボーン211や背骨等のボーンに依存する形式でこれらの情報が管理されることとしても良い。これらの情報には、キャラクタの顔201の中心点205(典型的には、キャラクタの顔201の中心軸を構成するボーン202に固定されている。)の座標の情報や、ボーンの姿勢を特徴付ける第1方向204の方向ベクトルdの情報、もしくは、これらの情報を計算により一意に導出できるような情報も含まれる。
・ボーン202に固定された座標系における口255(前述の通り、目253や鼻254等についても同様に適用が可能であるが、理解を容易にするため、以下の説明では、口255についてのみ、例としてあげて説明する。)の制御点203の基準位置の情報。上記のように、キャラクターの各表情ごとに、制御点203の基準位置は異なるものとなる。また、キャラクターの顔201の正面に視点206がある場合には、この基準位置の情報そのものを利用して、画像を生成する。
・視点206の位置の情報。仮想空間内でのグローバル座標系に基づいて情報を管理するのが一般的であるが、たとえばキャラクターが連れて歩くペットやマスコットから見た様子を画面に表示したい場合には、ボーン202に固定された座標系における位置や、ボーン202が連結されるキャラクターのボーン202が連結されるキャラクターの首のボーン211や背骨等のボーンに固定された座標系における位置などを採用しても良い。
The storage unit 502 stores various types of information on the model of the character's face 201 described above. Specifically, the following information is stored.
Information on the position and posture of the bone 202 in the virtual space. The information may be managed based on the global coordinate system in the virtual space, or the information may be managed in a form depending on the bone 211 of the neck of the character to which the bone 202 is connected and the bone such as the spine. It is good to be done. These pieces of information characterize the coordinate information of the center point 205 of the character's face 201 (typically fixed to the bone 202 constituting the central axis of the character's face 201) and the posture of the bone. Information on the direction vector d in the first direction 204 or information that can uniquely derive these information by calculation is also included.
The mouth 255 in the coordinate system fixed to the bone 202 (as described above, the same can be applied to the eyes 253, the nose 254, etc., but for the sake of easy understanding, in the following description, only the mouth 255 is used. The reference position information of the control point 203 will be described as an example. As described above, the reference position of the control point 203 is different for each facial expression of the character. When the viewpoint 206 is in front of the character's face 201, an image is generated using the reference position information itself.
Information on the position of the viewpoint 206. It is common to manage information based on the global coordinate system in the virtual space. For example, when it is desired to display on the screen what a character sees from a pet or mascot that the character is taking, it is fixed to the bone 202. The position in the coordinate system, the position in the coordinate system fixed to the bone 211 such as the neck bone 211 or the spine of the character to which the bone 202 of the character to which the bone 202 is connected may be adopted.

画像生成装置501を、ゲーム装置の実現に利用する場合、これらの情報は、ユーザからのコントローラ105を介した指示入力や、物理法則をシミュレートするCPU 101の計算処理によって、適宜更新される。   When the image generation device 501 is used to realize a game device, these pieces of information are updated as appropriate by an instruction input from the user via the controller 105 or a calculation process of the CPU 101 that simulates a physical law.

このほか、記憶部502には、処理を開始してから画像が生成までの間に、一時的に以下の情報を保持するための領域が確保されている。
・口255の制御点203の、画像生成用の位置座標の情報。これは、制御点203の位置の修正の手法は、後述するように、種々の技術を考えることができるので、どの座標系を基準に位置を記憶するか、は、修正の手法によって適宜選択することが可能である。
In addition, an area for temporarily storing the following information is secured in the storage unit 502 between the start of processing and the generation of an image.
Information on position coordinates for image generation of the control point 203 of the mouth 255. This is because, as described later, various techniques can be considered as a method for correcting the position of the control point 203. Therefore, which coordinate system is to be stored as a reference is appropriately selected according to the correction method. It is possible.

したがって、RAM 103や外部メモリ106、ハードディスク等の外部記憶装置は、CPU 101の制御の下、記憶部502として機能する。   Therefore, an external storage device such as the RAM 103, the external memory 106, and the hard disk functions as the storage unit 502 under the control of the CPU 101.

図14は、画像生成装置501で実行される画像生成処理の制御の流れを示すフローチャートである。以下、本図を参照して説明する。   FIG. 14 is a flowchart showing the flow of control of image generation processing executed by the image generation apparatus 501. Hereinafter, a description will be given with reference to FIG.

処理が開始されると、まず、修正部503は、所定の座標系で、第2方向207の方向ベクトルsを計算する(ステップS601)。具体的には、記憶部502に記憶される情報を元に、当該座標系における視点206の位置座標を求め、これから、当該座標系における中心点205の位置座標を減算して得られるベクトルに、そのベクトルの長さの逆数を乗じれば、同じ方向・向きの単位ベクトルを得ることができる。このようにして得られる単位ベクトルが、方向ベクトルsである。   When the process is started, the correcting unit 503 first calculates a direction vector s in the second direction 207 in a predetermined coordinate system (step S601). Specifically, based on the information stored in the storage unit 502, the position coordinate of the viewpoint 206 in the coordinate system is obtained, and from this, the vector obtained by subtracting the position coordinate of the center point 205 in the coordinate system is By multiplying the reciprocal of the length of the vector, a unit vector having the same direction and direction can be obtained. The unit vector thus obtained is the direction vector s.

記憶部502に記憶される情報から、所定の座標系における位置座標を求める際には、公知の座標変換の技術を適用することができる。   When obtaining position coordinates in a predetermined coordinate system from information stored in the storage unit 502, a known coordinate transformation technique can be applied.

次に、第1方向204の方向ベクトルdを取得する(ステップS602)。ボーン202の姿勢から、方向ベクトルdは一意に計算することができる。   Next, the direction vector d in the first direction 204 is acquired (step S602). From the posture of the bone 202, the direction vector d can be calculated uniquely.

方向ベクトルdと、方向ベクトルsとを対比し、これらにずれがあるか否かを判定する(ステップS603)。ずれがない場合(ステップS603;No)、制御点203のそれぞれの基準位置の情報を、記憶部502内の画像生成用の位置座標の情報格納領域にコピーする(ステップS604)。   The direction vector d is compared with the direction vector s, and it is determined whether or not there is a deviation between them (step S603). If there is no deviation (step S603; No), the information of each reference position of the control point 203 is copied to the information storage area of the position coordinates for image generation in the storage unit 502 (step S604).

なお、ステップS603において、方向ベクトルdと方向ベクトルsとのずれが、所定の閾値より大きい場合にも、ステップS603に進むこととしても良い。たとえば、キャラクターを背後の視点206から見た場合などには、口255は画像には現われないので、修正を行う必要がないからである。   In step S603, the process may proceed to step S603 even when the difference between the direction vector d and the direction vector s is larger than a predetermined threshold. For example, when the character is viewed from the viewpoint 206 behind, the mouth 255 does not appear in the image, so that it is not necessary to make corrections.

そして、生成部504は、記憶部502の画像生成用の位置座標の情報格納領域に記憶された制御点の位置座標の情報、その他の種々の情報に基づいて、3次元グラフィックス画像を生成して(ステップS605)、本処理を終了する。   Then, the generation unit 504 generates a three-dimensional graphics image based on the position coordinate information of the control points stored in the information storage area of the position coordinates for image generation in the storage unit 502 and other various information. (Step S605), and this process is terminated.

3次元グラフィックス画像の生成には、[非特許文献1]に開示されるようなキャラクターのスキン形状を求めてキャラクターの外観をポリゴンや曲面によって形成する各種の技術、視点206から見た様子の画像を生成する透視投影や、平行投影(これは、「視点206を方向ベクトルsに沿って無限遠点に移動した透視変換」に相当する。)等の技術を採用することができる。   For the generation of 3D graphics images, various techniques for obtaining the character's skin shape as disclosed in [Non-Patent Document 1] and forming the appearance of the character with polygons and curved surfaces, as seen from the viewpoint 206, are shown. Techniques such as perspective projection for generating an image and parallel projection (this corresponds to “perspective transformation in which the viewpoint 206 is moved to the infinity point along the direction vector s”) can be employed.

したがって、CPU 101は、RAM 103等や、画像処理部107と共働して、生成部504として機能する。   Therefore, the CPU 101 functions as the generation unit 504 in cooperation with the RAM 103 and the image processing unit 107.

一方、方向ベクトルdと方向ベクトルsとにずれがある場合(ステップS603;Yes)、修正部503は、口255の制御点203の位置座標を、視点206に近付くように修正して(ステップS606)、修正結果を、記憶部502内の画像生成用の位置座標の情報格納領域にコピーして書き込み(ステップS607)、ステップS604に進む。図2に示す例においては、位置座標の修正の対象となる制御点は、口255の制御点203の4つ(および、鼻254の制御点203の3つ)である。   On the other hand, when there is a difference between the direction vector d and the direction vector s (step S603; Yes), the correction unit 503 corrects the position coordinates of the control point 203 of the mouth 255 so as to approach the viewpoint 206 (step S606). The correction result is copied and written in the information storage area of the position coordinates for image generation in the storage unit 502 (step S607), and the process proceeds to step S604. In the example shown in FIG. 2, there are four control points 203 to be corrected for position coordinates (and three control points 203 for the nose 254).

したがって、CPU 101は、RAM 103等と共働して、修正部503として機能する。   Therefore, the CPU 101 functions as the correction unit 503 in cooperation with the RAM 103 and the like.

さて、以下では、1つの制御点203の位置座標の修正を行う技術について、種々説明する。なお、所定の座標系における制御点203の基準位置を表す位置ベクトルをrとし、制御点203の修正後位置213の位置ベクトルをr'としたときに、以下のように修正を行う。図2では、口255の左端の制御点203を処理対象となる制御点203の位置として示している。   Various techniques for correcting the position coordinates of one control point 203 will be described below. When the position vector representing the reference position of the control point 203 in the predetermined coordinate system is r and the position vector of the corrected position 213 of the control point 203 is r ′, the correction is performed as follows. In FIG. 2, the control point 203 at the left end of the mouth 255 is shown as the position of the control point 203 to be processed.

第1の手法は、制御点203を微小に制御点に近付けてしまう手法である。方向ベクトルdと方向ベクトルsのずれのスカラー量を計算する関数をf(d,s)としたとき、以下のように修正を行う。
r' = r + f(d,s) s
The first method is a method in which the control point 203 is brought very close to the control point. When f (d, s) is a function for calculating the scalar quantity of the deviation between the direction vector d and the direction vector s, the correction is performed as follows.
r '= r + f (d, s) s

図15は、本手法により、制御点203の位置ベクトルrを視点に近付けてr'に修正する様子をキャラクターの顔201をその頭部上方から見た説明図である。以下、本図を参照して説明する。   FIG. 15 is an explanatory diagram of the character face 201 as viewed from above the head, showing how the position vector r of the control point 203 is brought close to the viewpoint and corrected to r ′ by this method. Hereinafter, a description will be given with reference to FIG.

方向ベクトルsは、キャラクターの顔201の中心点205から視点206に向かう単位ベクトルであるから、制御点203の修正後の位置213の位置ベクトルr'は、制御点203の元の位置の位置ベクトルrに比べて、長さf(d,s)だけ視点206に近付いたことになる。   Since the direction vector s is a unit vector from the center point 205 of the character face 201 toward the viewpoint 206, the position vector r ′ of the corrected position 213 of the control point 203 is the position vector of the original position of the control point 203. Compared to r, it is closer to the viewpoint 206 by the length f (d, s).

本図に示す例では、キャラクターの顔201の中心点205から見て視点206が右側に存在するから、制御点203の修正後の位置213も、中心点205から見て視点206が存在する右側に移動することになる。   In the example shown in this figure, since the viewpoint 206 exists on the right side when viewed from the center point 205 of the character's face 201, the corrected position 213 of the control point 203 is also on the right side where the viewpoint 206 exists when viewed from the center point 205. Will be moved to.

なお、本図では、キャラクターの口255の左端の制御点203を修正する様子を示しており、理解を容易にするため、f(d,s) sの大きさを大きく描いているが、実際には、ごく微小な大きさで十分な効果が得られる。   In this figure, the control point 203 at the left end of the character's mouth 255 is corrected, and the size of f (d, s) s is drawn large for easy understanding. A sufficient effect can be obtained with a very small size.

また、上記の表示例では、鼻254の制御点203も移動することとしているが、本図(および以降に示す図)に示す例では、理解を容易にするため、口255の制御点の左端の制御点203のみを修正する様子を示している。   In the above display example, the control point 203 of the nose 254 is also moved. However, in the example shown in this figure (and the figures shown below), the left end of the control point of the mouth 255 is easy to understand. Only the control point 203 is corrected.

f(d,s)についても、種々の態様が考えられるが、方向ベクトルdと方向ベクトルsのずれが大きくなればなるほど、増加するような関数とすることが望ましい。たとえば、kを正の定数として、
f(d,s) = k |d-s|;
f(d,s) = k |d-s|2
f(d,s) = k |d×s|;
f(d,s) = k |d×s|2
f(d,s) = k arcsin(|d×s|)
f(d,s) = k arccos(|d・s|)
などの関数を採用する手法が考えられる。また、上記の各関数の右辺に、階段状の関数をさらに適用することとしても良い。このようにして、dとsのずれに対して、修正量を対応付けるのである。
Various modes can be considered for f (d, s), but it is desirable that the function increase as the deviation between the direction vector d and the direction vector s increases. For example, if k is a positive constant,
f (d, s) = k | ds |;
f (d, s) = k | ds | 2 ;
f (d, s) = k | d × s |;
f (d, s) = k | d × s | 2 ;
f (d, s) = k arcsin (| d × s |)
f (d, s) = k arccos (| d ・ s |)
A method that employs a function such as Further, a stepped function may be further applied to the right side of each function. In this way, the correction amount is associated with the deviation between d and s.

第2の手法は、キャラクターの顔201に固定された単位ベクトルである軸ベクトルc (|c| = 1)を考え、この軸ベクトルcの周りに、位置ベクトルrを回転させる手法である。軸ベクトルcも、図2に示してある。   The second method is a method of considering an axis vector c (| c | = 1), which is a unit vector fixed to the character's face 201, and rotating the position vector r around the axis vector c. An axis vector c is also shown in FIG.

図16は、本手法により、制御点203の位置ベクトルrを視点に近付けてr'に修正する様子をキャラクターの顔201をその頭部上方から見た説明図である。以下、本図を参照して説明する。   FIG. 16 is an explanatory diagram of the character face 201 as viewed from above the head, showing how the position vector r of the control point 203 is brought close to the viewpoint and corrected to r ′ by this method. Hereinafter, a description will be given with reference to FIG.

軸ベクトルcは、典型的には、ボーン202の方向と一致しており、首252から頭頂251に向かう方向である。この場合、視点206がキャラクターの正面から左右にずれ、さらに上下にもずれている場合であっても、口255は左右に修正されるのみであり、上下には修正されない。   The axis vector c typically coincides with the direction of the bone 202 and is the direction from the neck 252 toward the crown 251. In this case, even if the viewpoint 206 is shifted to the left and right from the front of the character and further shifted to the upper and lower sides, the mouth 255 is only corrected to the left and right, not to the upper and lower sides.

ある回転軸の周りで、与えられた位置座標を与えられた角度だけ回転させ、回転後の位置座標を求める手法も、種々の公知の座標変換の技術が存在し、いずれを採用することも可能である。以下、典型的な例を説明する。   There are various known coordinate transformation techniques for rotating the given position coordinates around the rotation axis by the given angle to obtain the position coordinates after rotation, and any of them can be adopted. It is. A typical example will be described below.

まず、視点206が、軸ベクトルcの周りの回転で、どれだけの角度回転しているかを求める。この回転角をθとする。方向ベクトルdと方向ベクトルsの外積d×sは、方向ベクトルdから方向ベクトルsへの回転を表すから、d×sのc方向の成分が、軸ベクトルcの周りの回転に相当する。すなわち、
(d×s)・c = |d×s| cosθ;
θ = arccos(|d×s|/((d×s)・c))
により、θを求めることができる。
First, it is obtained how much angle the viewpoint 206 is rotated by rotation around the axis vector c. This rotation angle is defined as θ. Since the outer product d × s of the direction vector d and the direction vector s represents the rotation from the direction vector d to the direction vector s, the component in the c direction of d × s corresponds to the rotation around the axis vector c. That is,
(d × s) · c = | d × s | cosθ;
θ = arccos (| d × s | / ((d × s) ・ c))
Thus, θ can be obtained.

次に、位置ベクトルrを、軸ベクトルcの周りで、角度ψ = g(d,s)だけ回転して、修正後の位置ベクトルr'を求める。したがって、位置ベクトルrと位置ベクトルr'は、中心点205を中心とする円の円周214(本図では点線で示してある。)上に配置されることになる。   Next, the position vector r is rotated by an angle ψ = g (d, s) around the axis vector c to obtain a corrected position vector r ′. Therefore, the position vector r and the position vector r ′ are arranged on a circumference 214 (indicated by a dotted line in this drawing) of a circle having the center point 205 as the center.

上記のθを用いた場合は、定数h (0<h<1)を用いて、
ψ = g(d,s) = hθ = h arccos(|d×s|/((d×s)・c))
とする。
When using the above θ, using constant h (0 <h <1),
ψ = g (d, s) = hθ = h arccos (| d × s | / ((d × s) ・ c))
And

本図に示す例では、キャラクターの顔201の中心点205から見て視点206が右側に存在するから、制御点203の修正後の位置213も、中心点205から見て視点206が存在する右側に移動することになる。   In the example shown in this figure, since the viewpoint 206 exists on the right side when viewed from the center point 205 of the character's face 201, the corrected position 213 of the control point 203 is also on the right side where the viewpoint 206 exists when viewed from the center point 205. Will be moved to.

一般には、g(d,s)は、dとsのずれが大きくなればなるほど大きくなる関数であり、0≦g(d,s)≦θを満たすものであれば、任意の関数を採用することができる。したがって、定数kの値を適切に選択することにより、
g(d,s) = f(d,s);
g(d,s) = h f(d,s)
等とすることも可能である。このようにして、dとsのずれに対して、修正量を対応付けるのである。
In general, g (d, s) is a function that increases as the difference between d and s increases, and any function is adopted as long as 0 ≦ g (d, s) ≦ θ is satisfied. be able to. Therefore, by properly selecting the value of the constant k,
g (d, s) = f (d, s);
g (d, s) = hf (d, s)
Or the like. In this way, the correction amount is associated with the deviation between d and s.

位置ベクトルrを軸ベクトルc = (cx,cy,cz)の周りで角度ψだけ回転させた結果r'を求めるには、クォータニオンを利用したり、回転行列を利用することが可能である。以下では、クォータニオンを用いる手法について説明するが、ボーン202に固定された座標系を用いる場合には、軸ベクトルcをいずれかの座標軸と一致させることで、簡単に回転演算を行うこともできる。 To obtain the result r 'obtained by rotating the position vector r around the axis vector c = (c x , c y , c z ) by the angle ψ, it is possible to use a quaternion or a rotation matrix. is there. Hereinafter, a method using a quaternion will be described. However, when a coordinate system fixed to the bone 202 is used, the rotation calculation can be easily performed by matching the axis vector c with any coordinate axis.

さて、この回転を表すクォータニオンQは、
Q = (cxsin(ψ/2),cysin(ψ/2),czsin(ψ/2),cos(ψ/2))
と表現することができる。
Now, the quaternion Q representing this rotation is
Q = (c x sin (ψ / 2), cy sin (ψ / 2), c z sin (ψ / 2), cos (ψ / 2))
It can be expressed as

また、位置ベクトルc = (rx,ry,rz)に対するクォータニオンRは、
R = (rx,ry,rz,0)
と表現することができる。
The quaternion R for the position vector c = (r x , r y , r z ) is
R = (r x , r y , r z , 0)
It can be expressed as

すると、クォータニオンQによって、クォータニオンRを回転させる演算は、位置ベクトルr'に対するクォータニオンをR'としたとき、
R' = Q R Q*
と表現できる。ここで・*はクォータニオンの共役である。
R' = (rx',ry',rz',rw')
であれば、
r' = (rx',ry',rz')
である。
Then, the operation for rotating the quaternion R by the quaternion Q is as follows when the quaternion for the position vector r ′ is R ′:
R '= QRQ *
Can be expressed as Where * is the quaternion conjugate.
R '= (r x ', r y ', r z ', r w ')
If,
r '= (r x ', r y ', r z ')
It is.

このほか、ベクトルrをベクトルd×sの周りに、上記の角度ψだけ回転させてベクトルr'を得る手法を採用することもできる。この場合は、視点206の位置によっては、口255の修正後の位置も上下する。   In addition, it is also possible to adopt a method of obtaining the vector r ′ by rotating the vector r around the vector d × s by the angle ψ. In this case, depending on the position of the viewpoint 206, the corrected position of the mouth 255 also moves up and down.

また、ベクトルd,sの方向のずれの範囲と、そのときのベクトルcとの位置関係の組合せに対応付けて、修正量と修正方向をあらかじめ表形式で用意しておき、これらの表形式のデータを参照することによって、rからr'を求めることとしても良い。   In addition, the correction amount and the correction direction are prepared in a table format in advance in association with the combination of the positional relationship between the vector d and s and the vector c at that time. It is also possible to obtain r ′ from r by referring to the data.

図17、図18、図19は、本発明の技術において、さまざまな表情のキャラクターの顔201を、キャラクターから見て右側に視点206をずらすことによって、口255と鼻254の位置を修正した後、これをキャラクターの正面から見た様子を示す説明図である。それぞれ、図9〜図11の例に対応している。   17, 18, and 19, after correcting the positions of the mouth 255 and the nose 254 by shifting the viewpoint 206 of the face 201 of the character with various facial expressions to the right side when viewed from the character in the technique of the present invention. It is explanatory drawing which shows a mode that this was seen from the front of the character. Each corresponds to the examples of FIGS.

これらの図を見てもわかる通り、口255と鼻254の形状を定める制御点203の位置が視点206に近付くように修正されることによって、口255と鼻254の位置が画像の左側に寄ることとなっている。   As can be seen from these figures, the positions of the mouth 255 and the nose 254 are shifted to the left side of the image by correcting the positions of the control points 203 that define the shapes of the mouth 255 and the nose 254 closer to the viewpoint 206. It is supposed to be.

特に、口255の位置の修正では、制御点203のすべてを左側に寄せているが、鼻254の位置の修正では、制御点203の一部(鼻254の下端の制御点)を左側に寄せている。このように、位置の修正を行う制御点203を、一部に限定することも可能である。   In particular, in the correction of the position of the mouth 255, all of the control points 203 are moved to the left side. However, in the correction of the position of the nose 254, a part of the control points 203 (the control point at the lower end of the nose 254) is moved to the left side. ing. In this way, it is possible to limit the control point 203 for correcting the position to a part.

このような、視点206の位置の変化によるオブジェクトの位置の移動修正は、現実には発生しないが、当該修正を行うことによって、視点206から見たときの画像におけるオブジェクトの位置は、マンガやアニメーションにおける描法に極めて類似したものとなる。   Such movement correction of the position of the object due to the change in the position of the viewpoint 206 does not actually occur, but by performing the correction, the position of the object in the image viewed from the viewpoint 206 is changed to manga or animation. It is very similar to the drawing method in.

したがって、本発明により、キャラクターの立体モデルと3次元グラフィックスによってキャラクターの顔の画像を生成する場合に、マンガやアニメーションの描法に親しんでいる観者に、当該描法に沿った、「バランスの良い自然な顔」の画像を提供することができるようになるのである。   Therefore, according to the present invention, when an image of a character's face is generated by a character's three-dimensional model and three-dimensional graphics, a viewer who is familiar with the drawing method of manga and animation is in line with the drawing method. It will be possible to provide “natural face” images.

以上説明したように、本発明によれば、仮想空間に配置されたキャラクターの頭部の画像をマンガやアニメーションで広く用いられている描法で生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムを提供することができる。   As described above, according to the present invention, an image generating apparatus, an image generating method, and the like that are suitable for generating an image of a head of a character arranged in a virtual space by a drawing method widely used in manga and animation, In addition, it is possible to provide a program that realizes these on a computer.

プログラムを実行することにより、本発明の画像生成装置の機能を果たす典型的な情報処理装置の概要構成を示す模式図である。It is a schematic diagram which shows the outline | summary structure of the typical information processing apparatus which performs the function of the image generation apparatus of this invention by running a program. 仮想空間内におけるキャラクターの顔のモデルを表す説明図である。It is explanatory drawing showing the model of the face of the character in virtual space. 従来技術において、キャラクターの顔を、キャラクターの正面に配置された視点から見た様子を示す説明図である。In prior art, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned in front of the character. 従来技術において、キャラクターの顔を、キャラクターの正面に配置された視点から見た様子を示す説明図である。In prior art, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned in front of the character. 従来技術において、キャラクターの顔を、キャラクターの正面に配置された視点から見た様子を示す説明図である。In prior art, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned in front of the character. 従来技術において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見た様子を示す説明図である。In prior art, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned on the right side seeing from the character. 従来技術において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見た様子を示す説明図である。In prior art, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned on the right side seeing from the character. 従来技術において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見た様子を示す説明図である。In prior art, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned on the right side seeing from the character. 本実施形態において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見た様子を示す説明図である。In this embodiment, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned on the right side seeing from the character. 本実施形態において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見た様子を示す説明図である。In this embodiment, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned on the right side seeing from the character. 本実施形態において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見た様子を示す説明図である。In this embodiment, it is explanatory drawing which shows a mode that the face of the character was seen from the viewpoint arrange | positioned on the right side seeing from the character. 従来技術のキャラクターの顔の画像と本実施形態のキャラクターの顔の画像とを重ねて表示する説明図である。It is explanatory drawing which superimposes and displays the image of the face of the character of a prior art, and the image of the character's face of this embodiment. 本実施形態に係る画像生成装置の概要構成を示す説明図である。It is explanatory drawing which shows schematic structure of the image generation apparatus which concerns on this embodiment. 画像生成装置にて実行される計算処理の制御の流れを示す説明図である。It is explanatory drawing which shows the flow of control of the calculation process performed with an image generation apparatus. 制御点の位置ベクトルrを視点に近付けてr'に修正する様子をキャラクターの頭部上方から見た説明図である。It is explanatory drawing which looked at the mode that the position vector r of a control point was brought close to a viewpoint, and was corrected to r 'from the upper part of the character's head. 制御点の位置ベクトルrを視点に近付けてr'に修正する様子をキャラクターの頭部上方から見た説明図である。It is explanatory drawing which looked at the mode that the position vector r of a control point was brought close to a viewpoint, and was corrected to r 'from the upper part of the character's head. 本実施形態において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見ることとして口と鼻の位置が修正された後の様子を、キャラクターの正面から見た様子を示す説明図である。In this embodiment, it is explanatory drawing which shows a mode that the state after correcting the position of a mouth and a nose as a character's face is seen from the viewpoint arrange | positioned on the right side seeing from a character is seen from the front of the character. is there. 本実施形態において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見ることとして口と鼻の位置が修正された後の様子を、キャラクターの正面から見た様子を示す説明図である。In this embodiment, it is explanatory drawing which shows a mode that the state after correcting the position of a mouth and a nose as a character's face is seen from the viewpoint arrange | positioned on the right side seeing from a character is seen from the front of the character. is there. 本実施形態において、キャラクターの顔を、キャラクターから見て右側に配置された視点から見ることとして口と鼻の位置が修正された後の様子を、キャラクターの正面から見た様子を示す説明図である。In this embodiment, it is explanatory drawing which shows a mode that the state after correcting the position of a mouth and a nose as a character's face is seen from the viewpoint arrange | positioned on the right side seeing from a character is seen from the front of the character. is there.

符号の説明Explanation of symbols

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェイス
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
111 マイク
201 キャラクターの顔
202 顔のボーン
203 制御点
204 第1方向(キャラクターの正面方向)
205 中心点
206 視点
207 第2方向(キャラクターから視線へ向かう方向)
211 首のボーン
213 制御点の修正後の位置
214 中心点を中心とする円周
251 頭頂
252 首
253 目
254 鼻
255 口
501 画像生成装置
502 記憶部
503 修正部
504 生成部
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller 106 External Memory 107 Image Processing Unit 108 DVD-ROM Drive 109 NIC
DESCRIPTION OF SYMBOLS 110 Speech processing part 111 Microphone 201 Character face 202 Face bone 203 Control point 204 1st direction (front direction of a character)
205 Center point 206 Viewpoint 207 Second direction (direction from character to line of sight)
211 Bone of neck 213 Position after correction of control point 214 Circumference around the center point 251 Head 252 Neck 253 Eye 254 Nose 255 Mouth 501 Image generation device 502 Storage unit 503 Correction unit 504 Generation unit

Claims (8)

仮想空間内に配置されるキャラクターの頭部を、当該仮想空間内に配置される視点から見た画像を生成する生成部、
当該キャラクターの頭部に固定された第1方向と、当該キャラクターの頭部から当該視点への第2方向と、がずれている場合、当該キャラクターの頭部に配置されるオブジェクトの位置を、当該視点に近付くように修正して、前記生成部に当該画像を生成させる修正部
を備えることを特徴とする画像生成装置。
A generating unit that generates an image of the head of the character placed in the virtual space as seen from the viewpoint placed in the virtual space;
When the first direction fixed to the character's head and the second direction from the character's head to the viewpoint are shifted, the position of the object placed on the character's head is An image generation apparatus comprising: a correction unit that corrects the image to approach the viewpoint and causes the generation unit to generate the image.
請求項1に記載の画像生成装置であって、
前記修正部は、当該キャラクターの頭部に固定された回転軸の周りで、当該オブジェクトの位置を回転して、当該オブジェクトの位置を修正する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The image generation apparatus characterized in that the correction unit corrects the position of the object by rotating the position of the object around a rotation axis fixed to the head of the character.
請求項2に記載の画像生成装置であって、
前記修正部は、当該回転軸と当該第1方向とが張る平面から、当該回転軸と当該第2方向とが張る平面への、当該回転軸の周りの回転角を取得し、当該取得された回転角に0より大きく1より小さい比例定数を乗じた回転量だけ、当該オブジェクトの位置を回転して、当該オブジェクトの位置を修正する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
The correction unit acquires a rotation angle around the rotation axis from a plane extending from the rotation axis and the first direction to a plane extending from the rotation axis and the second direction. An image generating apparatus, wherein the position of the object is corrected by rotating the position of the object by a rotation amount obtained by multiplying the rotation angle by a proportional constant greater than 0 and less than 1.
請求項1または2のいずれか1項に記載の画像生成装置であって、
前記修正部は、当該第1方向と、当該第2方向と、のずれの量にあらかじめ対応付けられた量だけ、当該オブジェクトの位置を修正する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1, wherein
The correction unit corrects the position of the object by an amount associated in advance with an amount of deviation between the first direction and the second direction.
請求項1から4のいずれか1項に記載の画像生成装置であって、
前記修正部は、当該第1方向と、当該第2方向と、のずれが、所定の閾値以下である場合、当該オブジェクトの位置を修正する
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 4, wherein:
The correction unit corrects the position of the object when the difference between the first direction and the second direction is equal to or less than a predetermined threshold.
請求項1から5のいずれか1項に記載の画像生成装置であって、
当該オブジェクトは、当該キャラクターの鼻もしくは口を表現するオブジェクトである
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 5,
The image generation apparatus, wherein the object is an object representing the nose or mouth of the character.
生成部と、修正部と、を備える画像生成装置にて実行される画像生成方法であって、
前記生成部が、仮想空間内に配置されるキャラクターの頭部を、当該仮想空間内に配置される視点から見た画像を表示する生成工程、
前記修正部が、当該キャラクターの頭部に固定された第1方向と、当該キャラクターの頭部から当該視点への第2方向と、がずれている場合、当該キャラクターの頭部に配置されるオブジェクトの位置を、当該視点に近付くように修正して、前記生成工程にて当該画像を生成させる修正工程
を備えることを特徴とする画像生成方法。
An image generation method executed by an image generation device including a generation unit and a correction unit,
A generating step in which the generating unit displays an image of the head of the character placed in the virtual space as seen from the viewpoint placed in the virtual space;
An object placed on the head of the character when the correction unit is displaced from the first direction fixed to the head of the character and the second direction from the head of the character to the viewpoint; An image generation method comprising: a correction step of correcting the position of the image so as to approach the viewpoint and generating the image in the generation step.
コンピュータを、
仮想空間内に配置されるキャラクターの頭部を、当該仮想空間内に配置される視点から見た画像を生成する生成部、
当該キャラクターの頭部に固定された第1方向と、当該キャラクターの頭部から当該視点への第2方向と、がずれている場合、当該キャラクターの頭部に配置されるオブジェクトの位置を、当該視点に近付くように修正して、前記生成部に当該画像を生成させる修正部
として機能させることを特徴とするプログラム。
Computer
A generating unit that generates an image of the head of the character placed in the virtual space as seen from the viewpoint placed in the virtual space;
When the first direction fixed to the character's head and the second direction from the character's head to the viewpoint are shifted, the position of the object placed on the character's head is A program that is corrected so as to approach a viewpoint and functions as a correction unit that causes the generation unit to generate the image.
JP2005350228A 2005-12-05 2005-12-05 Image generating apparatus, image generating method, and program Active JP4244352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005350228A JP4244352B2 (en) 2005-12-05 2005-12-05 Image generating apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005350228A JP4244352B2 (en) 2005-12-05 2005-12-05 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2007156773A true JP2007156773A (en) 2007-06-21
JP4244352B2 JP4244352B2 (en) 2009-03-25

Family

ID=38241065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005350228A Active JP4244352B2 (en) 2005-12-05 2005-12-05 Image generating apparatus, image generating method, and program

Country Status (1)

Country Link
JP (1) JP4244352B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294895A (en) * 2008-06-05 2009-12-17 Shift Inc Image processing apparatus and image processing program
JP2011039828A (en) * 2009-08-12 2011-02-24 Konami Digital Entertainment Co Ltd System and method for processing image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6748616B2 (en) * 2017-08-22 2020-09-02 Dmg森精機株式会社 Work information recognition system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009294895A (en) * 2008-06-05 2009-12-17 Shift Inc Image processing apparatus and image processing program
JP2011039828A (en) * 2009-08-12 2011-02-24 Konami Digital Entertainment Co Ltd System and method for processing image

Also Published As

Publication number Publication date
JP4244352B2 (en) 2009-03-25

Similar Documents

Publication Publication Date Title
US6208360B1 (en) Method and apparatus for graffiti animation
US6317130B1 (en) Apparatus and method for generating skeleton-based dynamic picture images as well as medium storing therein program for generation of such picture images
US6700586B1 (en) Low cost graphics with stitching processing hardware support for skeletal animation
JP4519883B2 (en) Character display device, character display method, and program
JP4226639B1 (en) Image processing apparatus, image processing method, and program
US7184049B2 (en) Image processing method and system
JP2008096776A (en) Display device, display method, and program
JPH11296686A (en) Image processor, image processing method, program provision medium and data provision medium
KR100898671B1 (en) Image processor, image processing method, and computer-readable information recording medium having a program recorded thereon
JP4187748B2 (en) Image generating apparatus, image generating method, and program
JP4244352B2 (en) Image generating apparatus, image generating method, and program
US20110102449A1 (en) Image Display Device, Image Display Method and Computer-Readable Information Recording Medium
JP4199764B2 (en) Skin control point position calculation device, calculation method, and program
US6542151B1 (en) Method and apparatus for displaying polygon images, and recording medium
JP4367804B2 (en) Image generation system and information storage medium
WO2017188119A1 (en) Program, information processing device, degree of influence derivation method, image generation method, and recording medium
JP4815521B2 (en) Image processing apparatus, image processing method, and program
JP4575937B2 (en) Image generating apparatus, image generating method, and program
JP2004287504A (en) Image generating device, image processing method, and program
JP2004072553A (en) Image distortion correction method, and program for the same
JP4287479B2 (en) Image generating apparatus, image generating method, and program
JP4210293B2 (en) Simulation apparatus, simulation method, and program
CN110598013A (en) Digital music and painting interactive fusion method
JP2008305066A (en) Image processor, image processing method, and program
US10825225B1 (en) Simulation stream pipeline

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081226

R150 Certificate of patent or registration of utility model

Ref document number: 4244352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250