JP2003044841A - Device and method for generating model and recording medium with model generation program recorded thereon - Google Patents

Device and method for generating model and recording medium with model generation program recorded thereon

Info

Publication number
JP2003044841A
JP2003044841A JP2002180541A JP2002180541A JP2003044841A JP 2003044841 A JP2003044841 A JP 2003044841A JP 2002180541 A JP2002180541 A JP 2002180541A JP 2002180541 A JP2002180541 A JP 2002180541A JP 2003044841 A JP2003044841 A JP 2003044841A
Authority
JP
Japan
Prior art keywords
image
model
contour
target object
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002180541A
Other languages
Japanese (ja)
Inventor
So Takezawa
創 竹澤
Yoshinori Nagai
義典 長井
Kazuhiro Saeki
和裕 佐伯
Toshiya Takahashi
俊哉 高橋
Kyoichi Suzuki
恭一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002180541A priority Critical patent/JP2003044841A/en
Publication of JP2003044841A publication Critical patent/JP2003044841A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a real and complicated model by a simple operation. SOLUTION: A model generation device is provided with a storing part 1, an image inputting part 2, a user inputting part 3 and a model generating part 5. The model generating part 5 detects the size, position and direction of a target object in an image, calculates the position of an image of each vertex in the case of projecting a rough shape model stored in the storing part 1 to the same size, position and direction which are detected, also calculates the position of an image of each vertex in the case of projecting the same rough shape model to predetermined and regulated size, position and direction, generates an approximate image in the case of looking at the target object from the predetermined and regulated size, position and redirection by deforming the image on the basis of correspondence relation between coordinates on the both images of the calculated same vertexes, and generates a model with an image as image data to be pasted for pasting the approximate image to the rough shape model.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像を利用したリ
アルなモデルを生成するモデル生成装置およびモデル生
成方法ならびにモデル生成プログラムを記録した記録媒
体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a model generating device and a model generating method for generating a realistic model using an image, and a recording medium recording a model generating program.

【0002】[0002]

【従来の技術】従来より、画像を利用したリアルな3次
元モデルを生成する技術が種々提案されている。
2. Description of the Related Art Conventionally, various techniques for generating a realistic three-dimensional model using an image have been proposed.

【0003】例えば、参考文献1(金子正秀他,「形状
変化の検出と3次元形状モデルに基づく顔動画像の符号
化」,IE87−101)に記載されているように、顔
の画像上に、あらかじめ顔の形状に関する知験を利用し
て作成された3次元の概略形状モデルを投影し、3次元
モデルの投影座標と顔の画像との対応から、3次元モデ
ルに貼り付けるテクスチャを生成し、これによりテクス
チャ付き3次元モデルを生成する。そして、必要に応じ
加工して表情を生成し、また、入力画像に投影したとき
とは違う方向から投影することにより、擬似的に違う方
向から見た場合の画像を生成して、表示することが行わ
れてきた。
For example, as described in Reference Document 1 (Masahide Kaneko et al., "Detection of Shape Change and Coding of Face Moving Image Based on Three-Dimensional Shape Model", IE87-101), a face image is displayed. , Project a three-dimensional schematic shape model created in advance using the knowledge about the shape of the face, and generate a texture to be attached to the three-dimensional model from the correspondence between the projected coordinates of the three-dimensional model and the image of the face. , Thereby generating a textured three-dimensional model. Then, if necessary, the expression is processed to generate a facial expression, and by projecting from a direction different from the one projected on the input image, a pseudo image viewed from a different direction is generated and displayed. Has been done.

【0004】また、よりリアルな3次元モデルを生成す
るために、対象物体の画像上に、あらかじめ対象物体の
形状に関する知験を利用して作成された3次元の概略形
状モデルを投影し、この投影した3次元の概略形状モデ
ル上の各頂点もしくは特徴点の座標を、画像上の対象物
体上の各頂点もしくは特徴点に対応する点と一致するよ
う変形等の操作を行って微調整する、といった手法も採
られていた。
Further, in order to generate a more realistic three-dimensional model, a three-dimensional schematic shape model created in advance using a knowledge about the shape of the target object is projected on the image of the target object, Finely adjust the coordinates of each vertex or feature point on the projected three-dimensional schematic shape model by performing an operation such as deformation so as to match the point corresponding to each vertex or feature point on the target object on the image. Such a method was also adopted.

【0005】例えば、特開平4−289976号公報に
は、対象となる3次元物体の2次元図形情報と、対象物
体の基本形状が近似する3次元基本形状モデルとを入力
として、操作者が2次元図形情報上の特徴点と3次元基
本形状モデル上の制御点とを対応付けることにより、3
次元基本形状モデルを変形して所望の3次元形状モデル
を生成する手法が開示されている。
For example, in Japanese Unexamined Patent Publication No. 4-289976, the operator inputs two-dimensional graphic information of a target three-dimensional object and a three-dimensional basic shape model that approximates the basic shape of the target object. By associating the feature points on the three-dimensional figure information with the control points on the three-dimensional basic shape model,
A method of deforming a dimensional basic shape model to generate a desired three-dimensional shape model is disclosed.

【0006】また、複雑な3次元モデルを生成するため
に、単純な形状の3次元モデルや、何らかの方法で作成
した3次元モデルを部品として組み合わせたり、組み合
わせてできた3次元モデルをまた1つの部品として扱
い、さらにそれらの部品を組み合わせることで、より複
雑な3次元モデルを生成するといった手法も採られてい
た。
Further, in order to generate a complicated three-dimensional model, a three-dimensional model having a simple shape, a three-dimensional model created by a certain method are combined as a part, or a three-dimensional model formed by combining the three-dimensional models is another one. A method of generating a more complex three-dimensional model by treating the parts as parts and then combining these parts has been adopted.

【0007】[0007]

【発明が解決しようとする課題】一般に、画像の撮影を
行う場合、「正面から」とか、「この方向から」とか指
定をしても、厳密には異なる方向から撮影されてしまう
場合がほとんどである。例えば、人間の顔を撮影する場
合、被写体が「正面」を向いているつもりでも、実際に
は個人の癖などにより少し上や少し下を向いている場合
が多い。従って、正面から撮影された画像をテクスチャ
データとして貼ることを前提としたシステムでは、何ら
かの方法で被写体に対し厳密に「正面」を向かせて撮影
する必要がある。しかし、これでは手軽に撮影すること
が不可能であるし、一般の撮影済みの顔写真を入力画像
として使用することができないといった問題があった。
In general, when photographing an image, even if "from the front" or "from this direction" is designated, the image is often photographed in a strictly different direction. is there. For example, when photographing a human face, in many cases, even though the subject is supposed to be facing “front”, in reality, the subject is facing slightly upward or slightly downward due to personal habits. Therefore, in a system premised on pasting an image photographed from the front as texture data, it is necessary to photograph the subject in a strict "front" direction by some method. However, this has a problem in that it is impossible to take a picture easily and a general photographed face cannot be used as an input image.

【0008】また、このような問題が解決されたとして
も、概略形状モデルの輪郭と、実際の画像上の対象物体
の輪郭とが厳密に一致しないことがあり、この場合に
は、生成された3次元モデルの輪郭付近に、背景などの
色が紛れ込み、色的に不自然な3次元モデルが生成され
てしまうといった問題もあった。
Even if such a problem is solved, the outline of the rough shape model and the outline of the target object on the actual image may not exactly match. In this case, the outline is generated. There is also a problem that the color of the background or the like is mixed around the contour of the three-dimensional model, and a three-dimensional model that is unnatural in color is generated.

【0009】また、上記した従来技術では、異なる形状
モデルを複数用意するために、用意する形状モデルの全
てについて、個別にテクスチャを用意する必要があり、
大変な手間がかかるといった問題もあった。
Further, in the above-mentioned conventional technique, in order to prepare a plurality of different shape models, it is necessary to individually prepare textures for all the prepared shape models.
There was also a problem that it took a lot of work.

【0010】また、上記した2つ以上の部品を組み合わ
せて3次元モデルを生成する従来技術では、その組み合
わせ方が問題となる。ここでいう組み合わせ方とは、具
体的には位置や大きさなどをいうが、場合によっては形
状そのものが問題となることもある。例えば、顔の3次
元モデルと髪型の3次元モデルとを組み合わせる場合を
考えると、顔が大きすぎると、髪型が顔の中に埋没して
しまい不自然になる。また逆に、髪型が大きすぎると、
髪が浮いてしまって不自然になる。また、顔の上側の形
状と髪型の下側の形状(いわゆる境界部分)が一致して
いないと、髪の一部が浮いたり、埋没したりすることが
あり、これも不自然になる。さらに、大きさや形状が一
致していても、位置がずれると不自然になることはいう
までもない。
Further, in the conventional technique for generating a three-dimensional model by combining the above-mentioned two or more parts, how to combine them becomes a problem. The term “combination method” as used herein specifically refers to position, size, etc., but in some cases, the shape itself may be a problem. For example, considering a case where a three-dimensional model of a face and a three-dimensional model of a hairstyle are combined, if the face is too large, the hairstyle is buried in the face and becomes unnatural. Conversely, if the hairstyle is too big,
My hair is floating and it looks unnatural. Further, if the shape on the upper side of the face and the shape on the lower side of the hairstyle (so-called boundary portion) do not match, part of the hair may float or be buried, which is also unnatural. Furthermore, it goes without saying that even if the sizes and shapes match, it becomes unnatural if the positions are displaced.

【0011】従来は、このような不自然さを無くすため
に、組み合わせるたびに大きさや位置、接合部付近の形
状を操作者が調整することで対応していたが、この作業
には多大な手間と時間がかかるといった問題があった。
また、あらかじめ調整用のテーブルを用意し、組み合わ
せた部品によりこのテーブルを参照して調整する方法も
採用されているが、テーブルの作成に手間と時間がかか
るといった同様の問題があった。
Conventionally, in order to eliminate such unnaturalness, the operator adjusts the size, position, and shape near the joint each time they are assembled, but this work requires a great deal of labor. There was a problem that it took time.
Further, although a method of preparing an adjustment table in advance and referring to this table by the combined parts to adjust the table is also adopted, there is a similar problem that it takes time and effort to create the table.

【0012】また、よりリアルな3次元モデルを生成す
るためには、より多くの概略形状モデルを用意する必要
があるが、用意する概略形状モデルの数が多くなると、
これを選択する操作者の負担が増大するといった問題も
あった。
Further, in order to generate a more realistic three-dimensional model, it is necessary to prepare more rough shape models, but when the number of rough shape models to be prepared increases,
There is also a problem that the operator's burden of selecting this is increased.

【0013】さらに、顔は複雑な形状をした物体であ
り、リアルな顔の3次元モデルを作成することは、上記
した従来技術を駆使しても大変な手間と技術とが必要で
あった。
Further, the face is an object having a complicated shape, and it requires a great deal of time and effort to create a realistic three-dimensional model of the face even if the above-mentioned conventional technique is used.

【0014】本発明はかかる問題点を解決すべく創案さ
れたもので、その目的は、リアルで複雑なモデルを簡単
な操作で生成することができるモデル生成装置およびモ
デル生成方法ならびにモデル生成プログラムを記録した
記録媒体を提供することにある。
The present invention was devised to solve such a problem, and an object thereof is to provide a model generation device, a model generation method, and a model generation program capable of generating a real and complicated model by a simple operation. It is to provide a recording medium for recording.

【0015】[0015]

【課題を解決するための手段】上記課題を解決するた
め、本発明のモデル生成装置は、画像に含まれる対象物
体のモデルを生成する装置であって、画像中の任意の位
置を指定することのできる位置指定部と、前記画像中の
対象物体の概略形状モデルを含む各種データをあらかじ
め記憶している記憶部と、これら画像情報、位置指定部
により指定された位置情報および記憶部に記憶されてい
る各種データに基づいてモデルを生成するモデル生成部
とからなり、前記モデル生成部は、入力された画像中の
対象物体の大きさ、位置および方向を検出する手段と、
前記記憶部に記憶されている概略形状モデルを、検出し
た同じ大きさ、位置および方向に投影した場合の各頂点
の画像上の位置を計算する第1の計算手段と、同じ概略
形状モデルをあらかじめ定めた規定の大きさ、位置およ
び方向に投影した場合の各頂点の画像上の位置を計算す
る第2の計算手段と、これら第1の計算手段および第2
の計算手段により計算された同じ頂点の両画像上の座標
の対応関係に基づいて画像の変形を行うことにより、対
象物体をあらかじめ定めた規定の大きさ、位置および方
向から見た場合の近似画像を生成する手段と、前記近似
画像を概略形状モデルに貼り付ける貼り付け画像データ
として画像付きモデルを生成する手段とを備えたことを
特徴とする。
In order to solve the above-mentioned problems, a model generation device of the present invention is a device for generating a model of a target object included in an image, and is capable of designating an arbitrary position in the image. And a storage unit that stores in advance various data including a schematic shape model of a target object in the image, and image information, position information specified by the position designation unit, and a storage unit that stores the image information. And a model generation unit for generating a model based on various data, wherein the model generation unit detects the size, position and direction of the target object in the input image,
The same schematic shape model is previously stored in the first calculation means for calculating the position on the image of each vertex when the schematic shape model stored in the storage unit is projected in the same detected size, position and direction. Second calculation means for calculating the position on the image of each vertex when projected on the defined size, position and direction, and the first calculation means and the second calculation means.
The image is transformed based on the correspondence between the coordinates of the same vertex on both images calculated by the calculation means, and the approximate image when the target object is viewed from a predetermined size, position, and direction determined in advance. And a means for generating a model with an image as pasted image data for pasting the approximate image onto the schematic shape model.

【0016】また、本発明のモデル生成方法は、画像に
含まれる対象物体のモデルを生成するモデル生成装置に
よるモデル生成方法であって、画像中の対象物体の大き
さ、位置および方向を検出するステップと、記憶部に記
憶されている概略形状モデルを、検出した同じ大きさ、
位置および方向に投影した場合の各頂点の画像上の位置
を計算する計算ステップと、同じ概略形状モデルをあら
かじめ定めた規定の大きさ、位置および方向に投影した
場合の各頂点の画像上の位置を計算する計算ステップ
と、これら計算ステップにより計算された同じ頂点の両
画像上の座標の対応関係に基づいて画像の変形を行こと
により、対象物体をあらかじめ定めた規定の大きさ、位
置および方向から見た場合の近似画像を生成するステッ
プと、前記近似画像を概略形状モデルに貼り付ける貼り
付け画像データとして画像付きモデルを生成するステッ
プとを備えたことを特徴とする。
Further, the model generation method of the present invention is a model generation method by a model generation device that generates a model of a target object included in an image, and detects the size, position and direction of the target object in the image. The step and the outline shape model stored in the storage unit are detected with the same size,
The calculation step to calculate the position of each vertex on the image when projected in the position and direction, and the position on the image of each vertex when projected to the same prescribed shape, position and direction of the same schematic shape model. The image is transformed based on the calculation step for calculating the image and the correspondence between the coordinates of the same vertex on both images calculated by these calculation steps, and the target object has a predetermined size, position, and direction determined in advance. And a step of generating a model with an image as pasted image data for pasting the approximate image on the schematic shape model.

【0017】また、本発明のモデル生成プログラムを記
録した記録媒体は、画像に含まれる対象物体のモデルを
生成するプログラムを記録したコンピュータ読み取り可
能な記録媒体であって、画像中の対象物体の大きさ、位
置および方向を検出するステップと、記憶部に記憶され
ている概略形状モデルを、検出した同じ大きさ、位置お
よび方向に投影した場合の各頂点の画像上の位置を計算
する計算ステップと、同じ概略形状モデルをあらかじめ
定めた規定の大きさ、位置および方向に投影した場合の
各頂点の画像上の位置を計算する計算ステップと、これ
ら計算ステップにより計算された同じ頂点の両画像上の
座標の対応関係に基づいて画像の変形を行ことにより、
対象物体をあらかじめ定めた規定の大きさ、位置および
方向から見た場合の近似画像を生成するステップと、前
記近似画像を概略形状モデルに貼り付ける貼り付け画像
データとして画像付きモデルを生成するステップとを含
むことを特徴とする。
A recording medium recording the model generation program of the present invention is a computer-readable recording medium recording a program for generating a model of a target object included in an image, and the size of the target object in the image. A step of detecting the position and the direction, and a step of calculating the position on the image of each vertex when the schematic shape model stored in the storage unit is projected in the same detected size, position and direction. , A calculation step for calculating the position of each vertex on the image when the same schematic shape model is projected in a predetermined size, position and direction, and both images of the same vertex calculated by these calculation steps By transforming the image based on the correspondence of the coordinates,
A step of generating an approximate image when the target object is viewed from a predetermined size, a position, and a direction, and a step of generating a model with an image as pasted image data for pasting the approximate image on the rough shape model; It is characterized by including.

【0018】このような特徴を有する本発明の装置、方
法および記録媒体によれば、あらかじめ対象物体の概略
形状モデルに関する知験がある場合において、画像中の
対象物体の特徴点の座標から、その対象物体のおおき
さ、位置および方向を検出し、概略形状モデルに関する
知験に基づいてあらかじめ作成された概略形状モデル
を、検出した同じ大きさ、位置および方向で投影して、
各頂点の画像上の位置(座標)を計算する。また、同じ
概略形状モデルをあらかじめ定めた規定の大きさ、位置
および方向で画像上に投影し、各頂点の画像上の位置
(座標)を計算する。そして、同じ頂点の両画像上の座
標の対応関係に基づいて画像の変形を行うことにより、
対象物体をあらかじめ定めた規定の大きさ、位置および
方向から見た場合の近似画像を生成し、この近似画像を
概略形状モデルに貼り付ける貼り付け画像データとして
画像付きモデルを生成する。
According to the apparatus, method and recording medium of the present invention having such characteristics, when there is a knowledge about a rough shape model of a target object in advance, the coordinates are calculated from the coordinates of the feature points of the target object in the image. Detecting the largeness, position and direction of the target object, projecting a rough shape model created in advance based on the knowledge about the rough shape model, projecting at the same detected size, position and direction,
The position (coordinates) on the image of each vertex is calculated. Further, the same schematic shape model is projected on an image with a predetermined size, position and direction defined in advance, and the position (coordinates) of each vertex on the image is calculated. Then, by deforming the image based on the correspondence between the coordinates of the same vertex on both images,
An approximate image of the target object viewed from a predetermined size, position, and direction is generated, and an image-attached model is generated as the attached image data for attaching the approximate image to the rough shape model.

【0019】また、本発明のモデル生成装置によれば、
前記第1の計算手段および第2の計算手段により計算さ
れた同じ頂点の両画像上の座標の対応関係に基づいて画
像の変形を行う手段と、前記概略形状モデルをあらかじ
め定めた規定の大きさ、位置および方向に投影した場合
の輪郭付近および/または輪郭の外側に相当する領域
を、輪郭の内側の画素値により埋めることにより、対象
物体をあらかじめ定めた規定の大きさ、位置および方向
から見た場合の近似画像を生成する手段とをさらに備え
たことを特徴とする。
According to the model generating device of the present invention,
A means for deforming the image based on the correspondence between the coordinates of the same vertex on both images calculated by the first calculating means and the second calculating means, and a predetermined size for predetermining the general shape model. , The area corresponding to the vicinity of the contour and / or the area outside the contour when projected in the position and direction is filled with the pixel values inside the contour, so that the target object can be viewed from a predetermined size, position and direction. In this case, a means for generating an approximate image is further provided.

【0020】また、本発明のモデル生成方法によれば、
前記各計算ステップにより計算された同じ頂点の両画像
上の座標の対応関係に基づいて画像の変形を行うステッ
プと、前記概略形状モデルをあらかじめ定めた規定の大
きさ、位置および方向に投影した場合の輪郭付近および
/または輪郭の外側に相当する領域を、輪郭の内側の画
素値により埋めることにより、対象物体をあらかじめ定
めた規定の大きさ、位置および方向から見た場合の近似
画像を生成するステップとをさらに備えたことを特徴と
する。
Further, according to the model generation method of the present invention,
A step of deforming an image based on the correspondence between the coordinates of the same vertex on both images calculated by the respective calculation steps, and a case in which the rough shape model is projected in a predetermined size, position and direction. By filling the area near the contour and / or the area outside the contour with the pixel values inside the contour, an approximate image is generated when the target object is viewed from a predetermined size, position, and direction determined in advance. And further comprising steps and.

【0021】また、本発明のモデル生成プログラムを記
録した記録媒体によれば、前記各計算ステップにより計
算された同じ頂点の両画像上の座標の対応関係に基づい
て画像の変形を行うステップと、前記概略形状モデルを
あらかじめ定めた規定の大きさ、位置および方向に投影
した場合の輪郭付近および/または輪郭の外側に相当す
る領域を、輪郭の内側の画素値により埋めることによ
り、対象物体をあらかじめ定めた規定の大きさ、位置お
よび方向から見た場合の近似画像を生成するステップと
をさらに含むことを特徴とする。
Further, according to the recording medium in which the model generating program of the present invention is recorded, a step of deforming an image based on the correspondence relationship between the coordinates of the same vertex on both images calculated in each of the calculation steps, By filling the area near the contour and / or the area corresponding to the outside of the contour when the schematic shape model is projected in a predetermined size, position, and direction with the pixel value inside the contour, the target object is previously set. And a step of generating an approximate image as viewed from a defined size, position and direction.

【0022】このような特徴を有する本発明の装置、方
法および記録媒体によれば、あらかじめ対象物体の概略
形状モデルに関する知験がある場合であり、かつ輪郭付
近とその他の領域において色に共通性がみられる場合に
おいては、生成モデルの輪郭付近に当たる貼り付け画像
データの画素値を、概略形状モデルにおける輪郭の内側
の領域の1つ、もしくは複数の画素値から決定すること
により、輪郭付近においてもより自然な色をもったモデ
ルを生成することが可能となる。
According to the apparatus, method and recording medium of the present invention having such characteristics, there is a prior knowledge regarding a rough shape model of a target object, and there is commonality in colors near the contour and other areas. In the case where the image is observed, by determining the pixel value of the pasted image data corresponding to the vicinity of the contour of the generation model from one or a plurality of pixel values in the area inside the contour in the schematic shape model, It is possible to generate a model with a more natural color.

【0023】また、本発明のモデル生成装置によれば、
前記記憶部は、あらかじめ画像の貼り付け規則を一定に
定めた複数の概略形状モデルを記憶しており、前記モデ
ル生成部は、あらかじめ定めた画像の貼り付け規則に適
合するように画像を作成し、用意された複数の概略形状
モデルから1つのモデルを選択し、選択した概略形状モ
デルと作成された画像とを組み合わせて画像付きモデル
を生成することを特徴とする。
Further, according to the model generating apparatus of the present invention,
The storage unit stores a plurality of schematic shape models in which image pasting rules are fixed in advance, and the model generating unit creates images so as to conform to the preset image pasting rules. A model is selected from a plurality of prepared schematic shape models, and a model with an image is generated by combining the selected schematic shape model and the created image.

【0024】このような特徴を有する本発明の装置によ
れば、あらかじめ対象物体の概略形状モデルに関する知
験がある場合において、複数の概略形状モデル間におけ
る差異が対象物体の形状のバリエーションを表すもので
ある場合、すなわち、概略形状モデルがある程度共通で
ある場合に、どの概略形状モデルにおいても、その特徴
点の位置が、画像データ画面上における特徴点の位置に
対応するよう画像の貼り付け規則を定めておくことによ
り、どの概略形状モデルにおいても同一の貼り付け画像
を使用することが可能となる。
According to the apparatus of the present invention having such characteristics, the difference between the plurality of schematic shape models represents the variation of the shape of the target object when there is a knowledge about the general shape model of the target object in advance. , That is, when the outline shape models are common to some extent, the image pasting rule is set so that the position of the feature point in any of the outline shape models corresponds to the position of the feature point on the image data screen. By defining, it becomes possible to use the same pasted image in any schematic shape model.

【0025】また、本発明のモデル生成装置は、あらか
じめ作成した対象物体の構成部品である複数のモデル
を、あらかじめ定めた規則に従って組み合わせて使用す
ることにより、対象物体のモデルを生成する装置であっ
て、組み合わせる前記部品同士の大きさ、位置および方
向があらかじめ決められており、かつ、組み合わせる接
合部分の形状があらかじめ統一して作成されていること
を特徴とする。また、本発明のモデル生成装置は、組み
合わせて生成したモデルを、必要に応じて拡大、縮小、
回転、移動等する手段をさらに備えたことを特徴とす
る。
The model generation device of the present invention is a device for generating a model of a target object by combining a plurality of models, which are component parts of the target object created in advance, according to a predetermined rule. The sizes, positions and directions of the parts to be combined are predetermined, and the shapes of the joints to be combined are made uniform in advance. Further, the model generation device of the present invention enlarges, reduces, or reduces the models generated by combining them as necessary.
It is characterized by further comprising means for rotating, moving, etc.

【0026】このような特徴を有する本発明のモデル生
成装置によれば、あらかじめ組み合わせる部品の性質が
分かっている場合、例えば顔と髪型のような場合に、組
み合わせる接合面は一定の形状、例えば顔と髪型であれ
ば頭皮の形状等に統一し、またその接合面の空間的な位
置も統一された位置になるようにあらかじめモデルデー
タを作成しておく。このようにして用意されたモデルを
使用すれば、どの顔のモデルと、どの髪型のモデルとを
組み合わせても、大きさ、位置および方向等の調整を行
うことなく、組み合わされた頭部のモデルを生成するこ
とができる。また、組み合わせて生成された頭部のモデ
ルの全体を、拡大、縮小、移動、回転等したとしても、
組み合わせ接合面に不整合が生じることもない。
According to the model generating apparatus of the present invention having such characteristics, when the properties of the parts to be combined are known in advance, for example, in the case of a face and a hairstyle, the joining surface to be combined has a constant shape, for example, the face. If the hairstyle is, the shape of the scalp, etc. is unified, and the model data is created in advance so that the spatial position of the joint surface is also unified. By using the model prepared in this way, no matter which face model and which hairstyle model are combined, the combined head model can be used without adjusting the size, position, and direction. Can be generated. In addition, even if the whole head model generated by combining is enlarged, reduced, moved, rotated, etc.,
No misalignment occurs in the combined joint surface.

【0027】また、本発明のモデル生成装置は、画像に
含まれる対象物体のモデルを生成する装置であって、画
像に含まれる対象物体の各部位を指定することのできる
位置指定部と、これら画像情報および位置指定部により
指定された位置情報に基づいて対象物体のモデルを生成
するモデル生成部とからなり、前記モデル生成部は、前
記位置指定部により指定された1つ以上の位置情報に基
づいて対象部位の輪郭特徴を検出し、その検出した対象
部位の輪郭特徴から対象物体の形状を判定する輪郭検出
・判定手段と、この判定結果に対応する構造のモデルを
選択して、所望のモデルを生成するモデル生成手段とを
備えたことを特徴とする。
Further, the model generation device of the present invention is a device for generating a model of a target object included in an image, and a position designation unit capable of designating each part of the target object included in the image, and A model generation unit that generates a model of the target object based on the image information and the position information designated by the position designation unit, wherein the model generation unit converts the one or more position information designated by the position designation unit. Based on the contour feature of the target portion based on the detected contour feature of the target portion, the contour detection / determination means for determining the shape of the target object from the detected contour feature of the target portion, and the model of the structure corresponding to the determination result are selected, And a model generation means for generating a model.

【0028】また、本発明のモデル生成方法は、画像に
含まれる対象物体のモデルを生成する方法であって、対
象物体の各部位を位置指定部によって指定するステップ
と、位置指定部により指定された1つ以上の位置情報に
基づいて対象部位の輪郭特徴を検出し、その検出した対
象部位の輪郭特徴から対象部位の形状を判定するステッ
プと、この判定結果に対応する構造のモデルを選択し
て、所望のモデルを生成するステップとを備えたことを
特徴とする。
The model generation method of the present invention is a method for generating a model of a target object included in an image, and the step of designating each part of the target object by the position designating section and the location designating section. Detecting the contour feature of the target region based on one or more position information, determining the shape of the target region from the detected contour feature of the target region, and selecting the model of the structure corresponding to this determination result. And generating a desired model.

【0029】また、本発明のモデル生成プログラムを記
録した記録媒体は、画像に含まれる対象物体のモデルを
生成するプログラムを記録したコンピュータ読み取り可
能な記録媒体であって、対象物体の各部位を位置指定部
によって指定するステップと、位置指定部により指定さ
れた1つ以上の位置情報に基づいて対象部位の輪郭特徴
を検出し、その検出した対象部位の輪郭特徴から対象部
位の形状を判定するステップと、この判定結果に対応す
る構造のモデルを選択して、所望のモデルを生成するス
テップとを含むことを特徴とする。
A recording medium recording the model generation program of the present invention is a computer-readable recording medium recording a program for generating a model of a target object included in an image, and positions each part of the target object. A step of designating by the designating section and a step of detecting the contour feature of the target site based on the one or more position information designated by the position designating section, and determining the shape of the target site from the detected contour feature of the target site. And a step of selecting a model having a structure corresponding to the determination result and generating a desired model.

【0030】このような特徴を有する本発明の装置、方
法および記録媒体によれば、操作者は、最初に位置指定
部により、画像中に含まれている対象物体である例えば
人物の顔の特徴点(例えば、両目、口の中心位置など)
となる位置情報を入力する。次に、入力された特徴点情
報から、顔の輪郭特徴(輪郭線など)を検出する。次
に、その検出結果から対象部位である例えば顎の形状
(例えば、顔形状の種類として、丸型、卵型、四角型な
ど)を判定する。ここで、形状の判定は、例えば、検出
した輪郭線とあらかじめ用意した基準となる複数の顔輪
郭線(基準顔輪郭)とを比較し、もっもと近似している
基準顔輪郭の形状を所望の顔輪郭形状とする。
According to the apparatus, the method and the recording medium of the present invention having such characteristics, the operator first uses the position specifying unit to detect the characteristics of the face of a target object, for example, a person included in the image. Points (eg, eyes, center of mouth, etc.)
Enter the location information. Next, the contour feature of the face (contour line or the like) is detected from the input feature point information. Next, the shape of, for example, the jaw, which is the target part (for example, the shape of the face is round, oval, square, etc.) is determined from the detection result. Here, for the shape determination, for example, the detected contour line is compared with a plurality of reference face contour lines (reference face contours) that are prepared in advance, and the shape of the reference face contour that is approximated is desired. The face contour shape of

【0031】一方、あらかじめ基準顔輪郭に対応する顔
のモデルを用意しておく。なお、顔のモデルは、輪郭の
特徴だけを、基準顔輪郭の特徴に合わせてプロのデザイ
ナーなどがあらかじめ作成し、記憶部にモデル構造情報
として記憶しておくこととする。
On the other hand, a face model corresponding to the reference face contour is prepared in advance. It should be noted that in the face model, only the contour features are created in advance by a professional designer or the like in accordance with the features of the reference face contour and stored in the storage unit as model structure information.

【0032】最後に、最終的に求めた基準輪郭形状に基
づいて、対応する顔のモデルを決定する。すなわち、所
望の顔のモデルは、上記の記憶部の中から決定した顔の
モデル構造情報を読み出して生成すればよい。
Finally, the corresponding face model is determined based on the finally obtained reference contour shape. That is, the desired face model may be generated by reading out the face model structure information determined from the storage unit.

【0033】このように、操作者は、顔の目や口などの
数点の特徴点を入力するだけで、顔の顎形状の特徴を捉
えたモデルを容易に生成し、利用することが可能とな
る。
In this way, the operator can easily generate and use a model that captures the features of the jaw shape of the face by simply inputting a few feature points such as the eyes and mouth of the face. Becomes

【0034】なお、顔輪郭特徴から輪郭線を抽出し、形
状を判定する手法としては、例えば前記の参考文献1に
示されているような手法、すなわち、動的輪郭モデルを
用いて実写画像中の物体の輪郭線を抽出し、基準顔輪郭
の輪郭線と輪郭距離関数の特徴点とを比較することによ
り、顎形状を判定する手法を用いることができる。
As a method of extracting the contour line from the face contour feature and determining the shape, for example, the method shown in the above-mentioned reference 1, that is, a dynamic contour model is used in the actual image. It is possible to use a method of determining the jaw shape by extracting the contour line of the object and comparing the contour line of the reference face contour with the feature points of the contour distance function.

【0035】また、本発明のモデル生成装置によれば、
前記輪郭検出・判定手段は、対象物体の特徴点の位置情
報を前記位置指定部により指定して、画像上の対象物体
の中心位置を確定する手段と、対象物体の輪郭の近傍に
初期輪郭の配置を行う手段と、画像上の対象物体の中心
位置と初期輪郭とに基づいて、対象物体の中心座標と初
期輪郭上の各座標とを結ぶ直線上の隣り合う画素間の色
差を算出し、対象画素間の座標中点を座標値として、算
出した色差を画素値にもつ色差マップ画像を作成する手
段と、作成した色差マップ画像を利用して、初期輪郭を
動的輪郭モデルに従って移動させることにより、輪郭線
を抽出する手段と、抽出した輪郭線を元に距離関数を算
出する手段と、算出した距離関数の特徴を、基準となる
対象部位の形状の輪郭線からあらかじめ作成しておいた
距離関数と比較することにより、対象部位の形状を判定
する手段とを含むことを特徴とする。
According to the model generation device of the present invention,
The contour detecting / determining means designates the position information of the characteristic points of the target object by the position designating unit to determine the center position of the target object on the image, and the initial contour near the contour of the target object. Arrangement means, based on the center position of the target object on the image and the initial contour, calculate the color difference between adjacent pixels on a straight line connecting the center coordinates of the target object and each coordinate on the initial contour, A means for creating a color difference map image having the calculated color difference as a pixel value with the coordinate midpoint between the target pixels as a coordinate value, and using the created color difference map image, moving the initial contour according to the active contour model. According to the above, the means for extracting the contour line, the means for calculating the distance function based on the extracted contour line, and the characteristics of the calculated distance function are created in advance from the contour line of the shape of the reference target region. Compare with distance function It allows characterized in that it comprises a means for determining the shape of the target site.

【0036】また、本発明のモデル生成方法は、画像に
含まれる対象物体のモデルを生成する方法であって、対
象物体の特徴点の位置情報を位置指定部により指定し
て、画像上の対象物体の中心位置を確定するステップ
と、対象物体の輪郭の近傍に初期輪郭の配置を行うステ
ップと、画像上の対象物体の中心位置と初期輪郭とに基
づいて、対象物体の中心座標と初期輪郭上の各座標とを
結ぶ直線上の隣り合う画素間の色差を算出し、対象画素
間の座標中点を座標値として、算出した色差を画素値に
もつ色差マップ画像を作成するステップと、作成した色
差マップ画像を利用して、初期輪郭を動的輪郭モデルに
従って移動させることにより、輪郭線を抽出するステッ
プと、抽出した輪郭線を元に距離関数を算出するステッ
プと、算出した距離関数の特徴を、基準となる対象部位
の形状の輪郭線からあらかじめ作成しておいた距離関数
と比較することにより、対象部位の形状を判定するステ
ップとを備えたことを特徴とする。
The model generation method of the present invention is a method for generating a model of a target object included in an image, wherein position information of feature points of the target object is designated by a position designating unit, and the target object on the image is designated. Based on the step of determining the center position of the object, the step of placing the initial contour near the contour of the target object, and the center position and initial contour of the target object on the image, the center coordinates and initial contour of the target object Calculating a color difference between adjacent pixels on a straight line connecting each of the above coordinates, and creating a color difference map image having the calculated color difference as a pixel value with the coordinate midpoint between the target pixels as a coordinate value; Using the color difference map image, the initial contour is moved according to the active contour model to extract the contour line, the step of calculating the distance function based on the extracted contour line, and the calculated distance function. It features, by comparing the distance function previously created from the contour line of the shape of the target site as a reference, characterized by comprising a step of determining the shape of the target site.

【0037】また、本発明のモデル生成プログラムを記
録した記録媒体は、画像に含まれる対象物体のモデルを
生成するプログラムを記録したコンピュータ読み取り可
能な記録媒体であって、対象物体の特徴点の位置情報を
位置指定部により指定して、画像上の対象物体の中心位
置を確定するステップと、対象物体の輪郭の近傍に初期
輪郭の配置を行うステップと、画像上の対象物体の中心
位置と初期輪郭とに基づいて、対象物体の中心座標と初
期輪郭上の各座標とを結ぶ直線上の隣り合う画素間の色
差を算出し、対象画素間の座標中点を座標値として、算
出した色差を画素値にもつ色差マップ画像を作成するス
テップと、作成した色差マップ画像を利用して、初期輪
郭を動的輪郭モデルに従って移動させることにより、輪
郭線を抽出するステップと、抽出した輪郭線を元に距離
関数を算出するステップと、算出した距離関数の特徴
を、基準となる対象部位の形状の輪郭線からあらかじめ
作成しておいた距離関数と比較することにより、対象部
位の形状を判定するステップとを含むことを特徴とす
る。
The recording medium recording the model generation program of the present invention is a computer-readable recording medium recording a program for generating a model of a target object included in an image, and the position of the characteristic point of the target object. Specifying the information by the position designation unit to determine the center position of the target object on the image, placing the initial contour near the contour of the target object, and the center position and the initial position of the target object on the image. Based on the contour, the color difference between adjacent pixels on a straight line connecting the center coordinates of the target object and each coordinate on the initial contour is calculated, and the calculated color difference is calculated using the coordinate midpoint between the target pixels as the coordinate value. A step of creating a color difference map image having pixel values, and a step of extracting a contour line by moving the initial contour according to the active contour model using the created color difference map image. And a step of calculating a distance function based on the extracted contour line, and comparing the characteristics of the calculated distance function with a distance function created in advance from the contour line of the shape of the reference target part. According to the above, a step of determining the shape of the target part is included.

【0038】さらに、本発明のモデル生成装置によれ
ば、前記輪郭検出・判定手段は、前記位置指定部により
指定された1つ以上の位置情報に基づいて対象物体の各
部位の特徴量を検出する特徴量抽検出段をさらに含み、
前記モデル生成手段は、検出した対象物体の各部位の特
徴量に基づいて、選択されたモデルの構造を変形する手
段を含むことを特徴とする。
Further, according to the model generating apparatus of the present invention, the contour detecting / determining means detects the feature amount of each part of the target object based on the one or more position information designated by the position designating section. Further including a feature amount extraction detection stage,
The model generation means includes means for deforming the structure of the selected model based on the detected feature amount of each part of the target object.

【0039】このような特徴を有する本発明の装置、方
法および記録媒体によれば、操作者が位置指定部により
指定した対象物体である例えば顔の各部位の特徴量、例
えば、目や口の大きさなどの各部位の大きさや、両目の
間隔や顔幅などの各部位間の距離を検出する。また、上
記と同様にして、顎形状によって選択されたモデルを、
検出された特徴量に基づき、変形させる。すなわち、顎
形状によって、同じ卵型のモデルが選択された場合で
も、例えば、顔幅の広い人や狭い人などの個人差に応じ
て、個人の特徴を生かしたモデルを生成することが可能
となる。
According to the apparatus, method and recording medium of the present invention having such features, the feature amount of each part of the target object designated by the operator by the position designation unit, for example, each part of the face, for example, the eyes and mouth. The size of each part such as the size and the distance between the parts such as the distance between eyes and the face width are detected. Also, in the same way as above, the model selected by the jaw shape is
It is transformed based on the detected feature amount. That is, even if the same egg-shaped model is selected depending on the jaw shape, it is possible to generate a model that makes the best use of individual characteristics, for example, according to individual differences such as a person with a wide face or a person with a narrow face. Become.

【0040】[0040]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。ここでは、説明を容易に
するために、対象物体を顔の形状に特化して説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. Here, in order to facilitate the description, the target object will be described by focusing on the shape of the face.

【0041】図1は、本発明のモデル生成装置の一実施
の形態を示すシステム構成図である。
FIG. 1 is a system configuration diagram showing an embodiment of a model generation device of the present invention.

【0042】本実施の形態のモデル生成装置は、記憶部
1、画像入力部2、ユーザ入力部3、表示部4およびモ
デル生成部(本実施の形態では3次元モデル生成部)5
によって構成されている。
The model generation device of this embodiment includes a storage unit 1, an image input unit 2, a user input unit 3, a display unit 4, and a model generation unit (a three-dimensional model generation unit in this embodiment) 5.
It is composed by.

【0043】記憶部1は、画像中の対象物体の概略形状
モデルを含む各種データをあらかじめ記憶している。
The storage unit 1 stores in advance various data including a schematic shape model of a target object in an image.

【0044】また、画像入力部2としては、例えばデジ
タルスチルカメラ、スキャナ、ビデオキャプチャ等のさ
まざまな入力手段を用いることができるが、本実施の形
態では、このような特定の入力手段だけでなく、任意の
静止画像入力手段を用いることができる。
As the image input section 2, various input means such as a digital still camera, a scanner and a video capture can be used, but in the present embodiment, not only such a specific input means, , Any still image input means can be used.

【0045】ユーザ入力部3は、操作者の操作により各
種の情報を入力するブロックであり、ここでは、例えば
キーボード類やマウス等のポインティングデバイス類を
用いているが、この他にもさまざまな入力方法が可能で
ある。
The user input section 3 is a block for inputting various kinds of information by the operation of the operator, and here, for example, a pointing device such as a keyboard or a mouse is used, but various other inputs are also made. Method is possible.

【0046】表示部4は、CRTや液晶ディスプレイ等
からなり、生成された3次元モデルの表示や、操作者が
選択等を行う際の選択候補の表示などに使用される。
The display unit 4 is composed of a CRT, a liquid crystal display or the like, and is used for displaying the generated three-dimensional model and displaying selection candidates when the operator makes selections.

【0047】3次元モデル生成部5は、演算処理装置で
あるCPU51、3次元モデル生成プログラムを格納し
ているROM52、プログラム動作時のワークエリア等
として用いられるRAM53からなり、ROM52に格
納されている3次元モデル生成プログラムに従い、画像
入力部2から入力された画像情報、ユーザ入力部3から
入力された各種の情報、記憶部1に記憶されている各種
データ等に基づいて各種の演算処理を行い、3次元モデ
ルを生成するブロックである。
The three-dimensional model generation unit 5 is composed of a CPU 51 which is an arithmetic processing unit, a ROM 52 which stores a three-dimensional model generation program, and a RAM 53 which is used as a work area when the program operates, and is stored in the ROM 52. According to the three-dimensional model generation program, various calculation processes are performed based on the image information input from the image input unit 2, various information input from the user input unit 3, various data stored in the storage unit 1, and the like. This is a block for generating a three-dimensional model.

【0048】この3次元モデル生成部5を機能的に分け
ると、入力された画像中の対象物体の大きさ、位置およ
び方向を検出する手段と、記憶部1に記憶されている概
略形状モデルを、検出した同じ大きさ、位置および方向
に投影した場合の各頂点の画像上の位置を計算する第1
の計算手段と、同じ概略形状モデルをあらかじめ定めた
規定の大きさ、位置および方向に投影した場合の各頂点
の画像上の位置を計算する第2の計算手段と、これら第
1の計算手段および第2の計算手段により計算された同
じ頂点の両画像上の座標の対応関係に基づいて画像の変
形を行うことにより、対象物体をあらかじめ定めた規定
の大きさ、位置および方向から見た場合の近似画像を生
成する手段と、その近似画像を概略形状モデルに貼り付
けるテクスチャマップデータとしてテクスチャ付き3次
元モデルを生成する手段とを含んだ構成となっている。
また、概略形状モデルをあらかじめ定めた規定の大き
さ、位置および方向に投影した場合の輪郭付近および/
または輪郭の外側に相当する領域を、輪郭の内側の画素
値により埋めることにより、対象物体をあらかじめ定め
た規定の大きさ、位置および方向から見た場合の近似画
像を生成する手段をさらに含んだ構成となっている。
When the three-dimensional model generation unit 5 is functionally divided, a means for detecting the size, position and direction of the target object in the input image and a schematic shape model stored in the storage unit 1 are provided. , Calculating the position on the image of each vertex when projected on the same detected size, position and direction 1st
Calculation means, second calculation means for calculating the position on the image of each vertex when the same schematic shape model is projected in a predetermined size, position, and direction, and these first calculation means and By deforming the image based on the correspondence between the coordinates of the same vertex on both images calculated by the second calculating means, the target object can be seen from a predetermined size, position and direction. It is configured to include a means for generating an approximate image and a means for generating a textured three-dimensional model as texture map data for pasting the approximate image on the schematic shape model.
In addition, in the vicinity of the contour and // when the schematic shape model is projected in a predetermined size, position and direction defined in advance.
Alternatively, it further includes means for generating an approximate image when the target object is viewed from a predetermined size, position, and direction by filling the area corresponding to the outside of the contour with the pixel value inside the contour. It is composed.

【0049】図2は、上記構成のモデル生成装置による
3次元モデルの生成動作(ROM52に格納されている
3次元モデル生成プログラムの処理動作)を示すフロー
チャートである。以下の説明は、このフローチャートに
沿って説明する。
FIG. 2 is a flow chart showing a three-dimensional model generation operation (processing operation of the three-dimensional model generation program stored in the ROM 52) by the model generation device having the above configuration. The following description will be given along this flowchart.

【0050】操作者は、まず、画像入力部2より顔画像
を入力する(ステップS1)。入力された顔画像は、表
示部4に表示される。図3(a)は、表示部4に表示さ
れた入力画像(顔画像)301の例を示している。
The operator first inputs a face image from the image input section 2 (step S1). The input face image is displayed on the display unit 4. FIG. 3A shows an example of the input image (face image) 301 displayed on the display unit 4.

【0051】次に操作者は、この顔画像301に対し
て、座標指定を行う(ステップS2)。すなわち、表示
された顔画像301の目、鼻、口、輪郭上の点等の座標
を入力する。図4は、座標指定の例を示しており、入力
画像301の上にある十字が操作者によって座標指定さ
れたポイントである。本実施の形態では、両目、鼻、口
と、輪郭上での顎の先、左右の耳付近の計7点を入力し
ている。
Next, the operator designates coordinates for the face image 301 (step S2). That is, the coordinates of the eyes, nose, mouth, points on the contour, etc. of the displayed face image 301 are input. FIG. 4 shows an example of coordinate designation, and a cross on the input image 301 is a point whose coordinate is designated by the operator. In this embodiment, a total of 7 points are input, including both eyes, nose, mouth, the tip of the chin on the contour, and the vicinity of the left and right ears.

【0052】次に、このように入力された顔の座標情報
から、顔の大きさ、位置および方向を推定(検出)する
(ステップS3)。この顔の大きさ、位置および方向の
推定方法にはさまざまな方法が考えられるが、本実施の
形態では、標準顔形状モデルを、仮に推定した大きさ、
位置および方向で画像上に投影する。そして、標準顔形
状モデル上の目、鼻、口が投影された座標と、操作者の
指定した点(目、鼻、口の点)との位置ずれを計算す
る。次に、この仮に推定した大きさ、位置および方向か
ら少しずらした位置および方向に投影し、同様にして標
準顔形状モデル上の目、鼻、口が投影された座標と、操
作者の指定した点(目、鼻、口の点)との位置ずれを計
算する。そして、このずれが最小となる大きさ、位置お
よび方向を求め、これを次の仮に推定した大きさ、位置
および方向として、上記の処理を繰り返す。このような
処理を繰り返し、最後に、これ以上ずれが小さくならな
くなったときの大きさ、位置および方向を、入力画像の
顔の大きさ、位置および方向とする。
Next, the size, position and direction of the face are estimated (detected) from the face coordinate information thus input (step S3). Although various methods are conceivable for the method of estimating the size, position, and direction of the face, in the present embodiment, the size of the standard face shape model that is estimated temporarily,
Project on the image in position and direction. Then, the positional shift between the projected coordinates of the eyes, nose, and mouth on the standard face shape model and the point (eye, nose, mouth point) designated by the operator is calculated. Next, the projected size, position, and direction are projected to a position and direction that are slightly deviated from the estimated size, position, and direction, and in the same manner, the projected coordinates of the eyes, nose, and mouth on the standard face shape model and the operator's specified coordinates. Calculate the displacement between the points (eye, nose, mouth points). Then, the size, position, and direction that minimize this deviation are obtained, and the above process is repeated with this as the temporarily estimated size, position, and direction. By repeating such processing, finally, the size, position, and direction when the shift is no longer smaller are set as the size, position, and direction of the face of the input image.

【0053】このようにして、ステップS3で顔の大き
さ、位置および方向を推定すると、次に、画像上に標準
顔形状データを投影して、テクスチャ画像を生成する
(ステップS4)。すなわち、ステップS3で推定した
顔の大きさ、位置および方向で標準顔形状データを画面
上に投影し、標準顔形状データの全ての頂点の座標を計
算する。図3(b)に符号303で示す3次元モデル
が、この推定した位置および方向による標準顔形状デー
タの投影結果を模式的に表したものである。また、これ
と同時に、テクスチャ画像上に標準顔形状データを所定
の大きさおよび位置で正面から平行投影し、標準顔形状
データの全ての頂点の座標を計算する。図3(d)に符
号304で示す3次元モデルが、この所定の大きさおよ
び位置で正面から標準顔形状モデルを投影した結果を模
式的に表したものである。すなわち、ある頂点の顔画像
上での投影座標が、同一の頂点のテクスチャ画像上での
投影座標に対応するものとし、この対応情報に基づき、
画像変形の手法を用いて、顔画像からテクスチャ画像上
に転写する。つまり、図3(b)により表現される図形
が、図3(d)により表現される図形に画像変形しつつ
転写されることになる。ここで用いられる画像変形の手
法は、画像処理の分野ではよく知られた技術であり、こ
の技術分野に属する技術者にとっては容易に実現できる
ものである。そのため、ここでは画像変形のより具体的
な手法の説明を省略する。
When the size, position and direction of the face are estimated in this way in step S3, standard face shape data is then projected onto the image to generate a texture image (step S4). That is, the standard face shape data is projected on the screen with the size, position and direction of the face estimated in step S3, and the coordinates of all the vertices of the standard face shape data are calculated. A three-dimensional model denoted by reference numeral 303 in FIG. 3B schematically represents the projection result of the standard face shape data according to the estimated position and direction. At the same time, the standard face shape data is projected in parallel from the front on the texture image at a predetermined size and position, and the coordinates of all the vertices of the standard face shape data are calculated. A three-dimensional model indicated by reference numeral 304 in FIG. 3D is a schematic representation of the result of projecting the standard face shape model from the front with this predetermined size and position. That is, it is assumed that the projected coordinates of a certain vertex on the face image correspond to the projected coordinates of the same vertex on the texture image, and based on this correspondence information,
A face image is transferred onto a texture image using an image transformation method. That is, the figure represented by FIG. 3B is transferred while being transformed into the figure represented by FIG. 3D. The image transformation method used here is a well-known technique in the field of image processing, and can be easily realized by a person skilled in the art. Therefore, the description of a more specific method of image transformation is omitted here.

【0054】ここで、このままでは場合により輪郭付近
のテクスチャの色が不安定になることがあるため、輪郭
付近を物体の色で塗ることにより、輪郭付近の色が安定
するようにする(ステップS4−1)。図5は、この操
作を模式的に説明する図である。すなわち、標準顔形状
データの輪郭(符号501により示す)より少し中央寄
りにエリア502を設定し、このエリア502の画素値
の平均を取り、この画素値の平均となるように、標準顔
形状データの輪郭付近の画素およびその外側の画素(符
号503により示すエリア)を塗り潰す。この転写およ
び塗り潰しの結果は、対象物体を所定の大きさおよび位
置となるように正面から撮影した画素に近似した画像と
なっている。この画像を、標準顔形状データに対して正
面から平行投影により貼り付けるテクスチャ画像として
使用する。図3(c)は、入力画像301(図3(a)
参照)から作成されるテクスチャ画像302の例を示し
ている。
In this case, since the color of the texture near the contour may become unstable depending on the situation, the color near the contour is painted with the color of the object so that the color near the contour becomes stable (step S4). -1). FIG. 5 is a diagram schematically illustrating this operation. That is, the area 502 is set slightly closer to the center than the contour (indicated by reference numeral 501) of the standard face shape data, the pixel values of this area 502 are averaged, and the standard face shape data is set to the average of the pixel values. Pixels near the contour and pixels outside thereof (area indicated by reference numeral 503) are filled. The result of the transfer and the filling is an image that is similar to the pixels obtained by photographing the target object from the front such that the target object has a predetermined size and position. This image is used as a texture image to be attached to the standard face shape data by parallel projection from the front. FIG. 3C shows an input image 301 (FIG. 3A).
An example of the texture image 302 created from (see) is shown.

【0055】次に、複数用意された顔形状モデル(概略
形状モデル)から、モデルの選択を行う。本実施の形態
では、まず自動顔形状モデル選択ステップにて自動的に
顔形状モデルの選択を行い、次いで操作者による選択指
示入力により顔形状モデルの選択を行う(ステップS5
−1)。この場合、操作者は、自動で選択された顔形状
モデルをそのまま使用してもよいが、ユーザ入力部3よ
り選択指示を入力することにより、別の顔形状モデルを
選択できるようになっている。
Next, a model is selected from a plurality of face shape models (rough shape models) prepared. In the present embodiment, first, the face shape model is automatically selected in the automatic face shape model selection step, and then the face shape model is selected by the selection instruction input by the operator (step S5).
-1). In this case, the operator may use the automatically selected face shape model as it is, but the user can select another face shape model by inputting a selection instruction from the user input unit 3. .

【0056】この自動顔形状モデル選択ステップ(ステ
ップS5−1)は、以下の方法で実施される。
This automatic face shape model selection step (step S5-1) is carried out by the following method.

【0057】まず、入力画像中の対象物体である顔の外
周に相当する部分付近でエッジ検出を行う。このエッジ
検出はさまざまな手法が知られており、この技術分野に
属する技術者にとっては容易に実現できるものであるた
め、エッジ検出の詳細については説明を省略する。ま
た、エッジ検出を含め、輪郭検出にはさまざまな手法が
考えられるが、それらの手法を本実施の形態の輪郭検出
に適用することも容易に可能である。
First, edge detection is performed in the vicinity of a portion corresponding to the outer periphery of the face which is the target object in the input image. Various methods are known for this edge detection, and those skilled in the art can easily realize this. Therefore, detailed description of the edge detection will be omitted. In addition, although various methods are conceivable for contour detection including edge detection, these methods can be easily applied to the contour detection of the present embodiment.

【0058】次いで、この検出されたエッジの形状と、
選択可能な顔形状モデルの外周部の形状との比較を行
う。本実施の形態では、顔の中心から放射状に伸ばした
線を考え、その線上において検出されたエッジと顔形状
モデルの外周部との距離の差の自乗和を求めることを比
較方法としている。図6はこの比較の様子を模式的に表
した図である。同図において、符号601は検出された
輪郭、符号602は顔形状モデルの外周部の形状、符号
603は顔の中心、符号604は中心から放射状に伸ば
した線のうちの1本、符号605は別の放射状に伸ばし
た線と、検出された輪郭601との交点、符号606は
同じ別の放射状に伸ばした線と、顔形状モデルの外周部
の形状602との交点、符号607はこの両交点60
5、606間の距離を表している。なお、図が複雑にな
るため説明を省略しているが、全ての放射状に伸ばした
線に対して、輪郭601との交点および顔形状モデルの
外周部の形状602との交点を求め、その交点間の距離
を算出するこというまでもない。そして、これら全ての
交点間の距離の自乗和を算出し、それを全てのあらかじ
め用意された選択可能な顔形状3次元モデルに関して計
算し、その計算された自乗和の値が最小値となる顔形状
3次元モデルを選択する。以上が、自動顔形状モデル選
択ステップの説明である。ただし、この方法以外にもさ
まざまな比較の方法が可能であり、それらの方法を本実
施の形態の顔形状モデル選択に適用することは容易に可
能である。
Then, the shape of the detected edge and
A comparison is made with the shape of the outer peripheral portion of the selectable face shape model. In the present embodiment, a comparison method is considered in which a line radially extended from the center of the face is considered and the sum of squares of the difference in distance between the edge detected on the line and the outer peripheral portion of the face shape model is obtained. FIG. 6 is a diagram schematically showing the state of this comparison. In the figure, reference numeral 601 is the detected contour, reference numeral 602 is the shape of the outer peripheral portion of the face shape model, reference numeral 603 is the center of the face, reference numeral 604 is one of the lines radially extended from the center, and reference numeral 605 is An intersection of another radially extended line and the detected contour 601, reference numeral 606 is an intersection of the same other radially extended line and the shape 602 of the outer peripheral portion of the facial shape model, and reference numeral 607 is both intersections thereof. 60
5, the distance between 606 is shown. It should be noted that although the description is omitted because the figure becomes complicated, the intersection points with the contour 601 and the intersection point with the shape 602 of the outer peripheral portion of the face shape model are obtained for all the radially extended lines, and the intersection points are obtained. There is no need to calculate the distance between them. Then, the sum of squares of the distances between all these intersections is calculated, and it is calculated with respect to all of the prepared three-dimensional face shape models that can be selected, and the calculated sum of squares becomes the minimum value. Select a 3D shape model. The above is the description of the automatic face shape model selection step. However, various comparison methods other than this method are possible, and it is easily possible to apply those methods to the face shape model selection of the present embodiment.

【0059】なお、本実施の形態では、顔形状モデル
(概略形状モデル)は、あらかじめ所定の大きさおよび
位置で正面から投影された画像をテクスチャ画像とする
よう、あらかじめテクスチャ画像を貼り付けるための情
報が付加されており、所定の大きさおよび位置で正面か
ら投影された画像であれば、どの画像とどのモデルとの
組み合わせであっても、正しい顔3次元モデルが生成さ
れるようになっている。従って、どの顔形状モデルが選
択されたとしても、テクスチャデータは上記で生成した
1枚をそのまま使うだけでよい。つまり、操作者は、自
動モデル選択ステップによるモデル選択結果に関わら
ず、モデルごとにテクスチャ画像の作り直しや、テクス
チャ画像の貼り付けの微調整といった作業が全く不要と
なり、容易にモデルの選択が行えるようになっている。
In the present embodiment, the face shape model (rough shape model) is used for pasting the texture image in advance so that the image projected from the front with a predetermined size and position is used as the texture image. As long as the information is added and the image is projected from the front at a predetermined size and position, a correct face 3D model can be generated regardless of the combination of any image and any model. There is. Therefore, no matter which face shape model is selected, the texture data need only be the one generated above. In other words, the operator does not need to recreate the texture image for each model or fine-tune the paste of the texture image regardless of the model selection result by the automatic model selection step, and the model can be easily selected. It has become.

【0060】図7は、このことを模式的に表現した図で
ある。すなわち、複数ある顔形状3次元モデル(ここで
は、701、702の2例を示している)のどちらを選
択したとしても、単一のテクスチャ画像703との組み
合わせにより、それぞれ顔3次元モデル704、705
を得ることができる。
FIG. 7 is a diagram schematically representing this. That is, no matter which of the plural face shape three-dimensional models (here, two examples 701 and 702 are shown) is selected, by combining with the single texture image 703, the face three-dimensional models 704, 705
Can be obtained.

【0061】次に、髪型の形状モデルを選択する(ステ
ップS5−2)。髪型の形状モデルは、顔形状モデルと
整合させるため、あらかじめ接合面の形状や位置が全て
の顔型(顔形状モデル)および髪型で統一されて作成さ
れている。ただし、ここでいう統一とは、必ずしも完全
に同一の形状をしていることを意味するものではなく、
例えば接合面が同一形状の一部分のみで構成されるよう
な形状も含んでいる。また、他にも組み合わせた場合に
不整合が発生しない形状を考えることもでき、それらを
本実施の形態の髪型の形状モデルの選択に適用すること
は容易に可能である。
Next, a hairstyle shape model is selected (step S5-2). In order to match the shape model of the hairstyle with the face shape model, the shape and position of the joint surface are created in advance for all face styles (face shape models) and hairstyles. However, unification here does not necessarily mean that they have exactly the same shape,
For example, it also includes a shape in which the joint surface is formed only by a part of the same shape. In addition, it is possible to consider other shapes that do not cause mismatch when combined, and it is easily possible to apply them to the selection of the hairstyle shape model of the present embodiment.

【0062】このようにしてあらかじめ接合面の統一が
なされているため、任意の顔型の3次元モデル(顔形状
3次元モデル)が選択された状態で、任意の髪型の3次
元モデルが選択された場合でも、大きさ、位置および方
向の調整等をなんら行うことなく、単純に3次元モデル
を組み合わせるだけで、顔に髪型の付いた3次元モデル
を生成することができる。
Since the joint surfaces are unified in advance in this way, a three-dimensional model of an arbitrary hairstyle is selected with an arbitrary three-dimensional model of a face type (face shape three-dimensional model) being selected. Even in such a case, it is possible to generate a three-dimensional model having a hairstyle on the face by simply combining the three-dimensional models without adjusting the size, position and direction.

【0063】図8は、このことを模式的に表現した図で
ある。図中の符号801〜803は髪型の3次元モデ
ル、符号804、805は顔の3次元モデルを模式的に
表現したものである。801〜803の髪型の3次元モ
デルの接合部分(接合面)の形状は同一の形状であり、
803の髪型の3次元モデルの接合部分の形状は、他の
髪型の3次元モデル801、802の接合部分の一部分
の形状で構成されている。また、符号806、807
は、それぞれ髪型の3次元モデルと顔の3次元モデルと
を組み合わせた例であり、符号806は髪型の3次元モ
デル803と顔の3次元モデル804とを組み合わせた
例、符号807は髪型の3次元モデル801と顔の3次
元モデル805とを組み合わせた例である。このよう
に、任意の髪型と任意の顔の3次元モデルを組み合わせ
たとしても、全ての3次元モデルの接合部分の形状が統
一されているため、接合部の不整合が発生することはな
く、好ましい頭部3次元モデルが生成されている。
FIG. 8 is a diagram schematically representing this. Reference numerals 801 to 803 in the drawing schematically represent a three-dimensional model of a hairstyle, and reference numerals 804 and 805 schematically represent a three-dimensional model of a face. The shapes of the joint portions (joint surfaces) of the three-dimensional models of hairstyles 801 to 803 are the same,
The shape of the joint portion of the three-dimensional model of the hairstyle of 803 is configured by the shape of a part of the joint portion of the three-dimensional models 801 and 802 of other hairstyles. Further, reference numerals 806 and 807
Is an example in which a hairstyle three-dimensional model and a face three-dimensional model are combined, reference numeral 806 is an example in which a hairstyle three-dimensional model 803 and a face three-dimensional model 804 are combined, and reference numeral 807 is a hairstyle three. This is an example in which a three-dimensional model 801 and a three-dimensional face model 805 are combined. As described above, even if a three-dimensional model of an arbitrary hairstyle and an arbitrary face is combined, the shapes of the joints of all the three-dimensional models are unified, so that no mismatch of the joints occurs. A preferred three-dimensional head model has been generated.

【0064】最後に、組み合わせて生成した頭部3次元
モデルの全体に対し、横方向の拡大/縮小の操作を行
う。顔形状3次元モデルの自動選択の過程(ステップS
5−1)で取得した入力画像中の輪郭情報を元に、入力
画像中の顔の幅が、あらかじめ定めておいた標準的な幅
より広い場合には横方向に拡大し、入力画像中の顔の幅
が、あらかじめ定めておいた標準的な幅より狭い場合に
は横方向に縮小する。操作者は、このような拡大/縮小
率をそのまま使用してもよいし、ユーザ入力部3により
拡大/縮小率を入力することにより、拡大/縮小率を変
更してもよい。
Finally, a lateral enlargement / reduction operation is performed on the entire head three-dimensional model generated by combining. Process of automatic selection of three-dimensional face shape model (step S
Based on the contour information in the input image acquired in 5-1), if the width of the face in the input image is wider than the standard width set in advance, the face is enlarged in the horizontal direction and When the width of the face is narrower than the standard width set in advance, the width is reduced in the horizontal direction. The operator may use such an enlargement / reduction rate as it is, or may change the enlargement / reduction rate by inputting the enlargement / reduction rate through the user input unit 3.

【0065】このようにして生成されたテクスチャ画像
と、自動もしくは操作者により選択された顔形状モデル
および髪型形状モデルと、自動もしくは操作者により選
択された頭部の拡大/縮小率とにより、頭部の3次元モ
デルを生成し、必要に応じて表示部4への表示や、図示
しない出力部からの出力を行う。図9は、このようにし
て生成された頭部の3次元モデル901の例を示してい
る。
The texture image thus generated, the face shape model and the hairstyle shape model automatically or selected by the operator, and the head enlargement / reduction ratio automatically or selected by the operator A three-dimensional model of the unit is generated and displayed on the display unit 4 or output from an output unit (not shown) as needed. FIG. 9 shows an example of the three-dimensional head model 901 generated in this manner.

【0066】図10は、本発明のモデル生成装置の他の
実施の形態を示すシステム構成図である。
FIG. 10 is a system configuration diagram showing another embodiment of the model generating apparatus of the present invention.

【0067】本実施の形態においては、外部から入力さ
れた画像、すなわち装置が外部から取得した画像(入力
画像)に含まれる人物顔の顎の輪郭特徴を検出して、顎
の形状を判定し、その形状判定結果に基づき、入力画像
中の人物顔に対応する顔の3次元モデルを生成するもの
である。
In the present embodiment, the shape of the jaw is determined by detecting the contour features of the jaw of the human face included in the image input from the outside, that is, the image (input image) acquired from the outside by the apparatus. The three-dimensional model of the face corresponding to the human face in the input image is generated based on the shape determination result.

【0068】すなわち、本実施の形態のモデル生成装置
は、電子画像を取得する画像取得手段としての画像入力
部11、入力画像の任意の位置を指定する手段としての
位置指定部12、入力画像中の特徴量を検出して、顎の
形状を判定する輪郭検出・判定手段13、特徴に応じた
3次元モデルを生成する3次元モデル生成手段14、お
よび生成した3次元モデルを外部に出力する出力部15
によって構成されている。
That is, the model generating apparatus according to the present embodiment has an image input unit 11 as an image acquiring unit for acquiring an electronic image, a position specifying unit 12 as a unit for specifying an arbitrary position of the input image, and an input image Contour detecting / determining means 13 for detecting the feature quantity of the jaw to determine the shape of the jaw, 3D model generating means 14 for generating a 3D model according to the feature, and output for outputting the generated 3D model to the outside. Part 15
It is composed by.

【0069】輪郭検出・判定手段13および3次元モデ
ル生成手段14は、その処理動作を行うために、演算装
置13a、14aと記憶装置(ROM、RAM等)13
b、14bとをそれぞれ備えている。なお、3次元モデ
ル生成プログラムは、記憶装置13b、14bのROM
に格納されている。
The contour detection / judgment means 13 and the three-dimensional model generation means 14 perform arithmetic processing operations thereof by the arithmetic devices 13a and 14a and the storage device (ROM, RAM, etc.) 13.
b and 14b, respectively. The three-dimensional model generation program is stored in the ROM of the storage devices 13b and 14b.
It is stored in.

【0070】また、輪郭検出・判定手段13をさらに機
能的に分けると、顔の特徴点の位置情報を位置指定部1
2により指定して、画像上の顔の中心位置を確定する手
段と、顔輪郭の近傍に初期輪郭の配置を行う手段と、画
像上の顔の中心位置と初期輪郭とに基づいて、顔中心座
標と初期輪郭上の各座標とを結ぶ直線上の隣り合う画素
間の色差を算出し、対象画素間の座標中点を座標値とし
て、算出した色差を画素値にもつ色差マップ画像を作成
する手段と、作成した色差マップ画像を利用して、初期
輪郭を動的輪郭モデルに従って移動させることにより、
輪郭線を抽出する手段と、抽出した輪郭線を元に距離関
数を算出する手段と、算出した距離関数の特徴を、基準
となる顎形状の輪郭線からあらかじめ作成しておいた距
離関数と比較することにより、顎の形状を判定する手段
とを含んだ構成となっている。
Further, when the contour detecting / determining means 13 is further functionally divided, the position information of the facial feature points is given to the position specifying unit 1.
2, the means for determining the center position of the face on the image, the means for arranging the initial contour in the vicinity of the face contour, and the face center based on the center position and the initial contour of the face on the image. The color difference between adjacent pixels on the straight line connecting the coordinates and each coordinate on the initial contour is calculated, and the color difference map image having the calculated color difference as the pixel value is created with the coordinate midpoint between the target pixels as the coordinate value. By using the means and the created color difference map image, by moving the initial contour according to the active contour model,
A means for extracting a contour line, a means for calculating a distance function based on the extracted contour line, and a characteristic of the calculated distance function with a distance function previously created from a reference jaw-shaped contour line. By doing so, it is configured to include a means for determining the shape of the jaw.

【0071】図11は、上記構成のモデル生成装置によ
る3次元モデル生成動作を示すフローチャートである。
以下の説明は、このフローチャートに沿って説明する。
FIG. 11 is a flow chart showing a three-dimensional model generation operation by the model generation device having the above configuration.
The following description will be given along this flowchart.

【0072】まず、前提として、画像入力部11によ
り、対象となる物体(以下、本実施の形態では原画像と
いう)が記憶装置13b、14bに格納されているもの
とする。
First, as a premise, it is assumed that the image input unit 11 stores a target object (hereinafter, referred to as an original image in this embodiment) in the storage devices 13b and 14b.

【0073】この状態で、操作者は、まず最初に顔の特
徴点(目、口など)の位置情報を位置指定部12により
指定し、原画像上の顔の中心位置を確定する(ステップ
S21)。この顔の中心位置は、操作者が、別に直接指
定してもよいし、図12に示すように、右目、左目、口
の中心座標を指定(図中の符号121、122、123
により示す)し、その中心を顔の中心位置として算出し
てもよい。
In this state, the operator first specifies the position information of the feature points (eyes, mouth, etc.) of the face by the position specifying unit 12, and determines the center position of the face on the original image (step S21). ). The center position of the face may be directly designated by the operator, or as shown in FIG. 12, the center coordinates of the right eye, the left eye, and the mouth are designated (reference numerals 121, 122, 123 in the figure).
Then, the center may be calculated as the center position of the face.

【0074】このようにして顔の中心位置を確定する
と、次に顔輪郭の近傍に初期輪郭の配置を行う(ステッ
プS22)。初期の配置は、例えば、目と口の領域を囲
むような閉領域を初期輪郭とする。すなわち、目や口の
相対距離を統計的にあらかじめ調べておいて、目と口を
囲むよな楕円輪郭線を配置すればよい。このようにして
中心位置131および初期輪郭132を確定した画像を
図13に示す。
After the center position of the face is determined in this way, the initial contour is then arranged near the face contour (step S22). In the initial arrangement, for example, a closed area that surrounds the eye and mouth areas is used as the initial contour. That is, the relative distance between the eyes and the mouth may be statistically checked in advance, and the elliptical contour line surrounding the eyes and the mouth may be arranged. An image in which the center position 131 and the initial contour 132 are thus determined is shown in FIG.

【0075】次に、このようにして確定した原画像と中
心位置131および初期輪郭132とに基づいて、顔中
心座標と初期輪郭上の各座標とを結ぶ直線上の隣り合う
画素間の色差を算出し、対象画素間の座標中点を座標値
として、算出した色差を画素値にもつ画像(色差マップ
画像)を作成する(ステップS23)。
Next, based on the original image thus determined, the center position 131, and the initial contour 132, the color difference between adjacent pixels on the straight line connecting the face center coordinates and each coordinate on the initial contour is calculated. An image (color difference map image) having the calculated color difference as the pixel value is created by using the coordinate midpoint between the target pixels as the coordinate value (step S23).

【0076】ここで、色差を算出する方法としては、例
えば、画像データの各単色光ごとの輝度値を画素間でそ
れぞれ減算処理することにより差分値を算出し、各単色
光ごとに算出した差分値の合計値を色差として算出す
る。また、別の方法としては、例えば画素データを各単
色光の輝度値から、色相(H)、彩度(S)、輝度
(V)で表現されるHSV値に変換し、色差を求める2
画素のHSV空間上での位置を求め、その間の距離値を
色差としてもよい。また、隣り合う画素間ではなく、例
えば連続する複数の画素単位ごとに平均色を求め、その
平均色同士の色差を求めてもよい。
Here, as a method of calculating the color difference, for example, the difference value is calculated by subtracting the luminance value of each monochromatic light of the image data between pixels, and the difference calculated for each monochromatic light is calculated. The total value is calculated as the color difference. As another method, for example, the pixel data is converted from the luminance value of each monochromatic light into an HSV value represented by hue (H), saturation (S), and luminance (V), and a color difference is obtained 2.
The position of the pixel in the HSV space may be obtained, and the distance value between them may be used as the color difference. Further, instead of between the adjacent pixels, for example, the average color may be obtained for each of a plurality of consecutive pixel units, and the color difference between the average colors may be obtained.

【0077】また、色差の算出時には、対象が人物顔で
あることを利用して色差の検出精度を変更してもよい。
例えば、色差を算出する際に比較する2画素の画素値が
肌色を表す画素値に近い値をもつ場合、その2点の画素
は顔輪郭内の画素である可能性が高いとみなし、色差の
検出精度を低くして、ノイズ等の影響を軽減することが
できる。一方、顎と首とはどちらも肌色を表す画素値を
もつ可能性が高く、その境目である顎境界を検出する際
には、検出精度を上げた方がよい。従って、中心から首
方向への直線上の色差検出では、色差の検出精度を高め
るようにして、顎境界を検出し易くする。なお、首の位
置は、例えば口の座標が既知であるならば、その座標か
ら方向を推定することが可能である。
When the color difference is calculated, the detection accuracy of the color difference may be changed by utilizing the fact that the target is a human face.
For example, when the pixel value of two pixels to be compared when calculating the color difference has a value close to the pixel value representing the skin color, it is considered that the pixels at the two points are likely to be pixels within the face contour, and It is possible to reduce the detection accuracy and reduce the influence of noise and the like. On the other hand, both the chin and the neck are highly likely to have a pixel value representing the skin color, and it is better to increase the detection accuracy when detecting the chin boundary which is the boundary between them. Therefore, in the color difference detection on the straight line from the center to the neck direction, the detection accuracy of the color difference is increased to facilitate the detection of the jaw boundary. If the coordinates of the mouth are known, the position of the neck can be estimated from the coordinates.

【0078】例えば、図14に示すような顔中心131
と初期輪郭132の上の座標点141を結ぶ直線142
上の色差を求める場合の模式図を図15に示す。図15
において、符号151で示す各値が直線上の画素値の並
びを示し、符号152で示す値が隣り合う2点間の画素
値の差分を示している。すなわち、この例では、符号1
52で示す配列が色差の並びを示している。
For example, the face center 131 as shown in FIG.
And a straight line 142 connecting the coordinate point 141 on the initial contour 132
FIG. 15 shows a schematic diagram for obtaining the above color difference. Figure 15
In, the values indicated by reference numeral 151 indicate the arrangement of pixel values on a straight line, and the value indicated by reference numeral 152 indicates the difference in pixel value between two adjacent points. That is, in this example, reference numeral 1
The array indicated by 52 indicates the arrangement of color differences.

【0079】また、このようにして色差を検出した後
に、さらに人物顔輪郭独自の特徴性を利用して、より顔
輪郭形状に特化した色差マップ画像を作成してもよい。
例えば、顔を楕円の相似形であると仮定し、図16
(a)、(b)に示すように、顔中心を中心とする任意
の大きさの楕円曲線161〜163上の1点と、これに
隣り合う2点の計3点の色差(符号164により示す)
を平均化して、その座標の色差として再格納することに
よりノイズの影響を抑制するようにしてもよい。図16
(b)では、3点の色差がそれぞれ32、28、34で
あるので、これを平均化して32[(32+28+3
4)÷3=31.33、、、(端数切り上げ)]として
いる。
Further, after detecting the color difference in this way, a color difference map image more specialized in the face contour shape may be created by further utilizing the characteristic features unique to the human face contour.
For example, assuming that the face has a similar shape of an ellipse,
As shown in (a) and (b), the color difference between one point on the elliptic curves 161 to 163 of arbitrary size centered on the face center and two points adjacent thereto (total of 3 points). Show)
May be averaged and stored again as the color difference of the coordinates to suppress the influence of noise. FIG.
In (b), since the color differences at the three points are 32, 28, and 34, respectively, they are averaged to 32 [(32 + 28 + 3
4) /3=31.33, (rounded up)].

【0080】このように、人物顔であることを制約条件
に用いることにより、鮮明な輪郭線が現れていない入力
画像やノイズの多い画像に対しても、顎形状の特徴を特
化した、より安定な色差マップ画像を作成することがで
きる。
As described above, by using the human face as a constraint condition, the jaw shape feature is specialized even for an input image or a noisy image in which a clear contour line does not appear. It is possible to create a stable color difference map image.

【0081】次に、このようにして作成した色差マップ
画像を利用して、初期輪郭を動的輪郭モデルに従って移
動させることにより、輪郭線を抽出(検出)する(ステ
ップS24)。
Next, using the color difference map image thus created, the initial contour is moved according to the active contour model to extract (detect) the contour line (step S24).

【0082】ここで、エネルギー関数Eとして、例え
ば、輪郭線のなめらかさを表す内部エネルギーE1、輪
郭を収縮しようとするエネルギーE2、物体輪郭を特徴
付ける画像エネルギーE3の和E=E1+E2+E3を
求め、このEを最小化するように輪郭を移動させる。な
お、動的輪郭モデルを用いて輪郭抽出を行う手法とし
て、ここではSnake法を利用している。Snake
法は、参考文献2(M.Kass.「Snakes:A
ctiveContourModels」,Int.
J.Comput.Vision,p.321,198
8)に開示されている。
Here, as the energy function E, for example, the sum E = E1 + E2 + E3 of the internal energy E1 representing the smoothness of the contour line, the energy E2 for contracting the contour, and the image energy E3 characterizing the contour of the object is obtained. Move the contour so as to minimize. Note that the Snake method is used here as a method for performing contour extraction using the active contour model. Snake
The method is described in Reference 2 (M. Kass. “Snakes: A
ctiveContourModels ", Int.
J. Comput. Vision, p. 321, 198
8).

【0083】ここで、画像エネルギーE3には、ステッ
プS23で作成した色差マップ画像を利用する。すなわ
ち、画像上の任意のP(x,y)における画像エネルギ
ーE3(P)は、Pに対応する色差マップ画像上の色差
値をD(P)としたとき、下式(1)から求められる。
Here, the color difference map image created in step S23 is used for the image energy E3. That is, the image energy E3 (P) at an arbitrary P (x, y) on the image is obtained from the following equation (1) when the color difference value on the color difference map image corresponding to P is D (P). .

【0084】 E3(P)=α×(MAX(D)−D(P))・・・(1) ただし、MAX(D):色差マップ画像中の色差の最大
値、係数α:エネルギー関数Eにおける画像エネルギー
の度合、である。
E3 (P) = α × (MAX (D) −D (P)) (1) where MAX (D): maximum value of color difference in the color difference map image, coefficient α: energy function E Is the degree of image energy at.

【0085】この式(1)に従えば、色差の小さいとこ
ろほど画像エネルギーは大きくなるので、エネルギーを
最小化する方向へと輪郭が移動しやすくなる。逆に色差
が大きいところほど画像エネルギーは小さくなり、輪郭
はそこから移動しにくくなる。すなわち、顔領域と背景
領域との境目のような物体の色領域の境目で画像エネル
ギーが低くなるので、輪郭はそのような領域の境目で収
束しやすくなる。
According to this equation (1), the image energy increases as the color difference decreases, so that the contour easily moves in the direction in which the energy is minimized. Conversely, the larger the color difference, the smaller the image energy, and the contour becomes harder to move from there. That is, since the image energy is low at the boundary between the color regions of the object such as the boundary between the face region and the background region, the contour is likely to converge at the boundary between such regions.

【0086】このように、画像エネルギーとしてステッ
プS23で求めた色差マップ画像を利用することによ
り、顎形状の特徴を加味したエネルギー画像を作成する
ことができ、鮮明な輪郭線が現れていない入力画像やノ
イズの多い画像に対しても、より安定な顎検出を行うこ
とができる。
As described above, by using the color difference map image obtained in step S23 as the image energy, an energy image in which the features of the jaw shape are added can be created, and an input image in which a clear contour line does not appear It is possible to perform more stable jaw detection even for images with a lot of noise.

【0087】次に、このようにして求めた輪郭線を元に
距離関数を算出する(ステップS25)。すなわち、輪
郭線を顔内部の既知の座標、例えば顔中心からの距離r
と方向(角度)θとからなる関数r=L(θ)として表
現する。この様子を模式的に示したのが図17である。
Next, a distance function is calculated based on the contour line thus obtained (step S25). That is, the contour line is a known coordinate inside the face, for example, the distance r from the center of the face.
And a direction (angle) θ are represented as a function r = L (θ). FIG. 17 schematically shows this state.

【0088】L(θ)は、θの値を単位角度ずつ変えた
ときのrを求めてもよいし、例えば顎形状をより顕著に
表す範囲(顔中心からみて首のある方向)は、単位角度
を狭くし、他の方向に比べてより情報量を多くしてもよ
い。また、距離関数を例えば下式(2)によって表され
るフーリエ記述子として表現してもよい。
L (θ) may be calculated as r when the value of θ is changed by a unit angle. For example, the range in which the jaw shape is more prominent (the direction of the neck when viewed from the face center) is expressed in units. The angle may be narrowed and the amount of information may be increased as compared with other directions. Further, the distance function may be expressed as a Fourier descriptor represented by the following expression (2), for example.

【0089】 ここで、A(n):曲線形状を表す係数、exp():
自然対数の底のベキ乗、s:曲線上の距離、L:閉曲線
の全長、である。フーリエ記述子に関する詳細は、例え
ば参考文献3(高木幹雄,下田陽久監修,「画像解析ハ
ンドブック」,東京大学出版会,1991.)に開示さ
れている。
[0089] Here, A (n): a coefficient representing the curve shape, exp ():
The power of the base of natural logarithm, s: distance on curve, L: total length of closed curve. Details regarding the Fourier descriptor are disclosed in, for example, Reference Document 3 (edited by Mikio Takagi and Yohisa Shimoda, “Image Analysis Handbook”, The University of Tokyo Press, 1991.).

【0090】次に、このようにして求めた距離関数の特
徴を、基準距離関数と比較することにより、顎の形状を
判定する(ステップS26)。ここで、基準距離関数と
は、基準となる顎形状の輪郭線からあらかじめ作成して
おいた距離関数のことである。基準となる顎形状の輪郭
線は、輪郭線があらかじめ手動で検出されている画像
を、類似の顎形状、例えば、ベース型、丸型等に分類
し、その分類ごとに手動検出の輪郭線を平均化したもの
を利用すればよい。
Next, the shape of the jaw is determined by comparing the characteristics of the distance function thus obtained with the reference distance function (step S26). Here, the reference distance function is a distance function created in advance from the reference contour line of the jaw shape. For the contour line of the jaw shape that serves as a reference, an image in which the contour line has been manually detected in advance is classified into similar jaw shapes, for example, base type, round shape, etc. What is averaged may be used.

【0091】距離関数の比較は、例えば、距離関数上の
変曲点の位置、変曲点数、変曲点間の傾きなどを、その
距離関数のもつ特徴と位置づけ、基準となる輪郭形状の
距離関数の特徴とそれぞれ比較することにより行う。比
較を行う際には、あらかじめ基準距離関数と位置とが整
合するように正規化を行っておく必要がある。
For comparison of the distance functions, for example, the position of the inflection point on the distance function, the number of inflection points, the slope between the inflection points, etc. are positioned as the features of the distance function, and the distance of the reference contour shape is determined. This is done by comparing each with the characteristics of the function. Before performing the comparison, it is necessary to perform normalization so that the reference distance function and the position match.

【0092】なお、変曲点の位置や数、変曲点間の傾き
は、基準形状の場合はあらかじめ求めておき、その情報
をメモリ(記憶装置13b)に格納しておき、ステップ
S25で求めた距離関数の変曲点の情報と適宜比較すれ
ばよい。そして、比較結果が最も近い基準距離関数をも
つ形状を、判定結果として決定する。
The position and number of the inflection points and the inclination between the inflection points are obtained in advance in the case of the reference shape, and the information is stored in the memory (storage device 13b) and obtained in step S25. The information may be compared appropriately with the information of the inflection point of the distance function. Then, the shape having the reference distance function with the closest comparison result is determined as the determination result.

【0093】なお、距離関数の比較は、より単純に基準
距離関数との差分和を比較することことにより行うこと
もできる。図18は、この様子を模式的に表現してい
る。図18中の符号zは、基準距離関数との差を示して
いる。ここで、基準距離関数をB(θ)としたとき、差
分和Z1は下式(3)により与えられる。
The distance functions can also be compared by simply comparing the sum of differences with the reference distance function. FIG. 18 schematically represents this situation. The symbol z in FIG. 18 indicates the difference from the reference distance function. Here, when the reference distance function is B (θ), the sum of differences Z1 is given by the following expression (3).

【0094】 すなわち、Z1が最小となるB(θ)をもつ形状を判定
形状として決定すればよい。この方法の場合は、θの範
囲分のB(θ)を基準形状分だけメモリ(記憶装置13
b)に用意しておく必要があるが、より詳細な形状の分
類、判定を簡便に行うことができる利点がある。
[0094] That is, the shape having B (θ) that minimizes Z1 may be determined as the determination shape. In the case of this method, B (θ) for the range of θ is stored in the memory (storage device 13
Although it is necessary to prepare in b), there is an advantage that more detailed shape classification and determination can be easily performed.

【0095】また、平面上の曲線を周波数領域で記述す
る手法、例えばフーリエ記述子を用いて距離関数を表現
すれば、これにより算出されるフーリエ係数をその距離
関数のもつ特徴として位置づけることができるので、こ
のフーリエ係数と、基準となる輪郭形状の距離関数のフ
ーリエ係数との比較を行うことにより、上記と同様に形
状判定を行うことができる。
If a distance function is expressed using a method of describing a curved line on a plane in the frequency domain, for example, a Fourier descriptor, the Fourier coefficient calculated by this can be positioned as a feature of the distance function. Therefore, by comparing this Fourier coefficient with the Fourier coefficient of the distance function of the reference contour shape, the shape determination can be performed in the same manner as described above.

【0096】基準距離関数をフーリエ記述子で表現し、
そのフーリエ係数をAb(n)としたとき、対象距離関
数のフーリエ係数との差分Z2を下式(4)により求
め、その求めたZ2が最小となるAb(n)をもつ形状
を判定形状として決定する。
The reference distance function is represented by a Fourier descriptor,
When the Fourier coefficient is Ab (n), the difference Z2 from the Fourier coefficient of the target distance function is obtained by the following equation (4), and the shape having Ab (n) that minimizes the obtained Z2 is set as the determination shape. decide.

【0097】 一般に、フーリエ係数の低次の項にはおおまかな曲線形
状、高次の項にはより詳細な曲線形状が反映されてい
る。従って、低次の項の比較、すなわち上記の式(4)
におけるnの範囲を小さくしてZ2を求めることによ
り、ノイズや個人差などの影響をなるべく排除した判定
結果を得ることができる。
[0097] In general, the lower order term of the Fourier coefficient reflects a rough curve shape, and the higher order term reflects a more detailed curve shape. Therefore, a comparison of lower order terms, ie, equation (4) above
By determining the value of Z2 by reducing the range of n in n, it is possible to obtain a determination result in which influences such as noise and individual differences are eliminated as much as possible.

【0098】以上の処理動作(ステップS21〜ステッ
プS26)は、特徴検出・判定手段13によって行われ
る。特徴点に基づいて得られた顎形状結果は、3次元モ
デル生成手段14に送られる。
The above-described processing operation (steps S21 to S26) is performed by the feature detecting / determining means 13. The jaw shape result obtained based on the feature points is sent to the three-dimensional model generation means 14.

【0099】3次元モデル生成手段14では、特徴検出
・判定手段13において判定された顎形状に基づいて3
次元モデルを決定し、所望の3次元モデルを生成する
(ステップS27)。
The three-dimensional model generating means 14 calculates the 3D model based on the jaw shape determined by the feature detecting / determining means 13.
A dimensional model is determined and a desired three-dimensional model is generated (step S27).

【0100】すなわち、顎形状の種類に応じて、プロの
デザイナーなどが作成した3次元モデルの構造情報を記
憶装置14bにあらかじめ格納しておき、判定された顎
形状に対応する顔の3次元モデル構造情報を記憶装置1
4bから読み出して再生成すればよい。その結果は、C
RTなどの出力部15によって表示される。ここで、判
定された顎形状に対応する顔が卵型、丸型、四角型であ
った場合に、それぞれの形状結果が対応する3次元モデ
ルの生成例を図19に示す。図19中、符号191で示
す3次元モデルが卵型、符号192で示す3次元モデル
が丸型、符号193で示す3次元モデルが四角型であ
る。
That is, the structural information of the three-dimensional model created by a professional designer or the like according to the type of jaw shape is stored in the storage device 14b in advance, and the three-dimensional model of the face corresponding to the determined jaw shape is stored. Structure information storage device 1
It may be read from 4b and regenerated. The result is C
It is displayed by the output unit 15 such as RT. Here, when the face corresponding to the determined jaw shape is an egg shape, a round shape, and a square shape, an example of generating a three-dimensional model corresponding to the respective shape results is shown in FIG. In FIG. 19, the three-dimensional model indicated by reference numeral 191 is an egg shape, the three-dimensional model indicated by reference numeral 192 is a round shape, and the three-dimensional model indicated by reference numeral 193 is a square shape.

【0101】以上の処理動作により、実写画像などの2
次元情報から、より安定な顎形状の検出と、その形状判
定とを行い、その判定結果に基づいて3次元モデルを生
成することができる。
By the above processing operation, the 2
It is possible to detect a more stable jaw shape from the dimension information and determine the shape thereof, and generate a three-dimensional model based on the determination result.

【0102】ところで、上記したように、顎形状によっ
て例えば同じ卵型の3次元モデルが選択された場合で
も、顔幅の広い人や狭い人など、個人差がある。そこ
で、このような個人差を考慮し、3次元モデルを生成す
る際に、別途求めた顔の各部位の特徴量を利用して、あ
らかじめ用意した基本となる3次元モデル構造を変形
し、3次元モデルを生成することが考えられる。
By the way, as described above, even when the same egg-shaped three-dimensional model is selected depending on the jaw shape, there are individual differences such as a person with a wide face and a person with a narrow face. Therefore, in consideration of such individual differences, when the 3D model is generated, the basic 3D model structure prepared in advance is modified by utilizing the separately obtained feature amount of each part of the face. It is conceivable to generate a dimensional model.

【0103】このようにするためには、図10に示す特
徴検出・判定手段13に、顎形状の特徴検出だけでな
く、例えば両目間の距離、目と口との距離などといった
顔の各部位間の距離や、距離の比率を検出する機能を追
加し、その検出結果を3次元モデル生成手段14での3
次元モデル生成時に利用すればよい。この場合、3次元
モデル生成手段14は、3次元モデルを生成する際に、
同時に変形処理も行うように機能追加しておく必要があ
る。
In order to do so, the feature detection / determination means 13 shown in FIG. 10 is used not only for detecting the features of the jaw shape but also for each face part such as the distance between both eyes and the distance between the eyes and the mouth. A function for detecting the distance between the two and the distance ratio is added, and the detection result is detected by the three-dimensional model generation means 14 to
It may be used when the dimensional model is generated. In this case, the three-dimensional model generation means 14 generates the three-dimensional model when
At the same time, it is necessary to add a function so that the transformation process can be performed.

【0104】すなわち、各部位間の距離は、操作者が位
置指定部12で指定した各部位の位置情報に基づき、算
出する。ここで、人物顔においては、各顔部品の位置関
係および大きさは一定の拘束条件に従っているため、両
目と口との位置関係や、両目間の距離と顔幅との比率関
係など、各部位の位置関係はある範囲内での推定が可能
である。すなわち、これら顔特有の各部位の位置関係
を、あらかじめ複数の人物顔について計測(例えば、両
目間の距離と顔幅について計測)し、その比率の平均や
分散を求めておけば、顔幅などの情報を操作者が入力し
なくても、両目の間隔などから推定することが可能とな
る。これにより、顔の各部位の特徴量を検出する際の操
作者の負担を軽減することができる。
That is, the distance between each part is calculated based on the position information of each part designated by the operator in the position designation section 12. Here, in the human face, since the positional relationship and size of each face part are subject to certain constraint conditions, each part such as the positional relationship between both eyes and the mouth, the ratio relationship between the distance between both eyes and the face width, etc. The positional relationship of can be estimated within a certain range. In other words, the positional relationship of each part peculiar to these faces is measured in advance for a plurality of human faces (for example, the distance between both eyes and the face width), and if the average or variance of the ratios is obtained, the face width, etc. It is possible to estimate from the distance between both eyes even if the operator does not input the information. As a result, it is possible to reduce the burden on the operator when detecting the feature amount of each part of the face.

【0105】このようにして検出した顔の各部位の特徴
量に基づき、顔の3次元モデルを変形する。変形の対象
となる顔の基本モデルは、上記した顎形状の判定結果に
基づいて決定する。
The three-dimensional model of the face is transformed based on the feature amount of each part of the face thus detected. The basic model of the face to be deformed is determined based on the above-mentioned determination result of the jaw shape.

【0106】ここでは、顔の各部位の特徴量として、各
部位間の距離の比率、例えば両目間の距離と、目口間の
距離の比率(縦横比)を用いる場合について説明する。
Here, the case where the ratio of the distance between the parts, for example, the ratio of the distance between both eyes and the distance between the eye openings (aspect ratio) is used as the feature amount of each part of the face will be described.

【0107】あらかじめ複数の人物顔について求めてお
いた比率の平均値と入力画像中の人物顔から得た比率と
を比較し、顔の3次元モデル全体を比率に合わせて拡
大、縮小する。
The average value of the ratios obtained in advance for a plurality of human faces is compared with the ratio obtained from the human faces in the input image, and the entire three-dimensional model of the face is enlarged or reduced according to the ratio.

【0108】例えば、入力画像中の人物顔から、図20
に符号201で示す3次元モデルが基準3次元モデルと
して選択されている場合に、特徴量から得た縦横比が平
均の比率と比べて縦方向が長い場合の変形例を同図の符
号202により示し、横方向が長い場合の変形例を同図
の符号203により示す。
For example, from the human face in the input image, as shown in FIG.
In the case where the three-dimensional model indicated by reference numeral 201 is selected as the reference three-dimensional model, a modification example in which the aspect ratio obtained from the feature amount is longer in the vertical direction than the average ratio is indicated by reference numeral 202 in FIG. A modification in the case where the horizontal direction is long is shown by reference numeral 203 in the figure.

【0109】以上の処理動作により、操作者が位置指定
部12にりよ指定した顔の各部位の位置情報に基づい
て、基準となる3次元モデルを変形させることができ
る。これにより、同じ3次元モデルが選択された場合で
も、例えば顔幅の広い人や狭い人などの個人差に応じ
て、その人の特徴を生かした3次元モデルを容易に生成
することが可能となる。
By the above processing operation, the reference three-dimensional model can be deformed based on the position information of each part of the face designated by the operator by the position designation unit 12. As a result, even when the same three-dimensional model is selected, it is possible to easily generate a three-dimensional model that makes the most of the characteristics of the person according to individual differences such as a person with a wide face and a person with a narrow face. Become.

【0110】以上、上記各実施の形態のモデル生成装置
は、その装置のモデルの生成処理を、記憶部1および記
憶装置13b、14bに格納されているモデル生成プロ
グラムによって実現される。このプログラムは、コンピ
ュータ読み取り可能な記録媒体に格納されている。本発
明では、この記録媒体は、図示していないが、モデル生
成装置の内部にプログラム読み取り装置を備え、そこに
記録媒体を挿入することで読み取り可能なプログラムメ
ディアであってもよいし、あるいは本実施の形態のよう
に、装置内部のプログラムメモリ等の記憶手段に格納さ
れているものであってもよい。いずれの場合において
も、格納されているプログラムは直接アクセスして実行
させる構成であってもよいし、あるいはいずれの場合も
プログラムを読み出し、読み出されたプログラムは、図
示していない主記憶メモリにダウンロードされて、その
プログラムが実行される方式であってもよい。このダウ
ンロード用のプログラムは、あらかじめ装置本体に格納
されているものとする。
As described above, the model generation device of each of the above-described embodiments realizes the model generation process of the device by the model generation program stored in the storage unit 1 and the storage devices 13b and 14b. This program is stored in a computer-readable recording medium. In the present invention, although not shown, this recording medium may be a program medium that is provided with a program reading device inside the model generating device and can be read by inserting the recording medium into the model generating device, or It may be stored in a storage means such as a program memory inside the apparatus as in the embodiment. In any case, the stored program may be directly accessed and executed, or in any case, the program is read and the read program is downloaded to a main memory (not shown). The program may be executed by executing the program. It is assumed that this download program is stored in the apparatus body in advance.

【0111】ここで、上記プログラムメディアは、本体
と分離可能に構成される記録媒体であり、磁気テープや
カセットテープ等のテープ系、フロッピディスクやハー
ドディスク等の磁気ディスクや、CD−ROM、MO、
MD、DVD等の光ディスクのディスク系、ICカード
や光カード等のカード系、あるいはマスクROM、EP
ROM、EEPROM、フラッシュROM等による半導
体メモリを含めた固定的にプログラムを担持する媒体で
あってもよい。
Here, the program medium is a recording medium which can be separated from the main body, and is a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a floppy disk or a hard disk, a CD-ROM, an MO,
Disc system of optical discs such as MD and DVD, card system such as IC card and optical card, mask ROM, EP
It may be a medium that fixedly carries the program, including a semiconductor memory such as a ROM, an EEPROM, and a flash ROM.

【0112】また、本発明においては外部との通信が可
能な手段(無線通信機能、あるいはインターネット等の
公衆回線を介する有線通信機能)を備えている場合に
は、これを用いて外部と接続し、そこからプログラムを
ダウンロードするように流動的にプログラムを担持する
媒体であってもよい。なお、このように通信ネットワー
クからプログラムをダウンロードする場合には、そのダ
ウンロード用プログラムはあらかじめ装置本体に格納し
ておくか、あるいは別の記録媒体からインストールされ
るものであってもよい。
Further, in the present invention, when a means capable of communicating with the outside (a wireless communication function or a wired communication function via a public line such as the Internet) is provided, this is used to connect to the outside. The medium may be a medium that fluidly carries the program so that the program can be downloaded from the medium. When the program is downloaded from the communication network in this manner, the download program may be stored in the apparatus main body in advance, or may be installed from another recording medium.

【0113】[0113]

【発明の効果】本発明のモデル生成装置、モデル生成方
法およびモデル生成プログラムを記録した記録媒体によ
れば、以下に示す種々の効果を奏する。
According to the model generating apparatus, the model generating method, and the recording medium recording the model generating program of the present invention, the following various effects are achieved.

【0114】すなわち、あらかじめ定めた方向以外の方
向から撮影された画像を入力画像とした場合であって
も、あらかじめ定めた方向から入力した画像と同様に扱
い、かつ容易に3次元モデルを生成することができる。
That is, even when an image taken from a direction other than a predetermined direction is used as an input image, it is treated in the same manner as an image input from a predetermined direction, and a three-dimensional model is easily generated. be able to.

【0115】また、あらかじめ定めた方向以外の方向か
ら撮影された画像を入力画像とした場合であっても、あ
らかじめ定めた方向から入力した画像と同様に扱ってモ
デルを生成することができ、かつ、概略形状と対象物体
の形状とに差異がある場合でも、生成されるモデルの輪
郭付近への対象物体以外の色の混入を防ぎ、より質の高
いモデルを生成することができる。
Further, even when an image taken from a direction other than the predetermined direction is used as the input image, the model can be generated in the same manner as the image input from the predetermined direction, and Even if there is a difference between the rough shape and the shape of the target object, it is possible to prevent mixing of colors other than the target object in the vicinity of the contour of the generated model and generate a higher quality model.

【0116】また、あらかじめ定めた方向からの画像を
使用することにより、複数のモデルに対して単一の貼り
付け画像データを用意するだけでよいので、モデルを生
成する際の手間が大幅に軽減される。
Further, by using images from a predetermined direction, it is only necessary to prepare a single pasted image data for a plurality of models, so that the time and effort required to generate the models are greatly reduced. To be done.

【0117】また、貼り付け画像データの作成に関し、
あらかじめ定めた方向以外から撮影された画像でも使用
可能となるので、さまざまな画像からモデルを作成する
ことができる。また、形状モデル同士の組み合わせに関
し、あらかじめ整合するように作成されているため、操
作者が調整や整合を行う必要がないので、操作者の負担
が大きく軽減される。また、形状モデル同士の組み合わ
せに関し、組み合わせるための形状モデルを用意する場
合に、さまざまな画像からモデルを作成し、用意するこ
とが可能となるので、モデルを作成し用意する手間が大
きく軽減される。また、入力画像上の対象物体の形状に
近い形状のモデルが自動的に選択されるため、操作者が
形状モデルを選択する必要がなくなるので、操作者の負
担が軽減される。
Regarding the creation of the pasted image data,
Since it is possible to use images taken from directions other than the predetermined direction, it is possible to create models from various images. Further, since the combinations of the shape models are created so as to be matched in advance, it is not necessary for the operator to perform adjustment or matching, so that the burden on the operator is greatly reduced. Further, regarding the combination of shape models, when preparing a shape model to be combined, it is possible to create and prepare a model from various images, which greatly reduces the trouble of creating and preparing the model. . Further, since a model having a shape close to the shape of the target object on the input image is automatically selected, it is not necessary for the operator to select a shape model, which reduces the burden on the operator.

【0118】また、操作者は、顔の目や口などの数箇所
の特徴点を入力するだけで、実写画像などの2次元の顔
画像から、より安定な顎検出とその形状判定とを行い、
その判定結果に基づいてモデルを容易に生成することが
できる。また、操作者は、顔の目や口などの数箇所の特
徴点を入力するだけで、実写画像などの2次元の顔画像
から、その顔画像の特徴を生かしたモデルを容易に生成
することができる。
Further, the operator can more stably detect the chin and determine the shape of the chin from a two-dimensional face image such as a photographed image only by inputting a few feature points such as the eyes and mouth of the face. ,
A model can be easily generated based on the determination result. Further, the operator can easily generate a model that takes advantage of the features of the face image from a two-dimensional face image such as a photographed image by simply inputting several feature points such as the eyes and mouth of the face. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のモデル生成装置の一実施の形態を示す
システム構成図である。
FIG. 1 is a system configuration diagram showing an embodiment of a model generation device of the present invention.

【図2】本発明のモデル生成装置による3次元モデルの
生成動作を示すフローチャートである。
FIG. 2 is a flowchart showing a three-dimensional model generation operation by the model generation device of the present invention.

【図3】(a)は画像入力部より入力された画像例を示
す説明図、(b)は推定した位置および方向による標準
顔形状データの投影結果も模式的に表した図、(c)は
入力画像から生成されたテクスチャ画像の説明図、
(d)は所定の大きさおよび位置で正面から標準顔形状
モデルを投影した結果を模式的に表した図である。
3A is an explanatory diagram showing an example of an image input from an image input unit, FIG. 3B is a diagram schematically showing a projection result of standard face shape data according to an estimated position and direction, and FIG. Is an illustration of the texture image generated from the input image,
FIG. 7D is a diagram schematically showing the result of projecting the standard face shape model from the front with a predetermined size and position.

【図4】入力画像の座標指定の例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of specifying coordinates of an input image.

【図5】(a)は輪郭付近で画素値を取得するエリアの
例を示す説明図、(b)は輪郭付近で色を塗るエリアの
例を示す説明図である。
FIG. 5A is an explanatory diagram showing an example of an area for obtaining a pixel value near the contour, and FIG. 5B is an explanatory diagram showing an example of an area for painting a color near the contour.

【図6】輪郭の比較の様子を模式に表した説明図であ
る。
FIG. 6 is an explanatory diagram schematically showing how contours are compared.

【図7】複数の概略顔形状モデルに対し、単一のテクス
チャ画像を適用して3次元モデルを生成する様子を模式
的に表した説明図である。
FIG. 7 is an explanatory diagram schematically showing how a single texture image is applied to a plurality of schematic face shape models to generate a three-dimensional model.

【図8】任意の顔と髪型の3次元モデルの組み合わせを
可能にする方法を模式的に表した説明図である。
FIG. 8 is an explanatory diagram schematically showing a method that enables combination of arbitrary three-dimensional models of a face and a hairstyle.

【図9】生成された3頭部の3次元モデルの例を示す説
明図である。
FIG. 9 is an explanatory diagram illustrating an example of a generated three-dimensional model of three heads.

【図10】本発明のモデル生成装置の他の実施の形態を
示すシステム構成図である。
FIG. 10 is a system configuration diagram showing another embodiment of the model generation device of the present invention.

【図11】他の実施の形態における3次元モデル生成動
作を示すフローチャートである。
FIG. 11 is a flowchart showing a three-dimensional model generation operation in another embodiment.

【図12】位置指定の例を示す説明図である。FIG. 12 is an explanatory diagram showing an example of position designation.

【図13】入力画像中の中心座標および初期輪郭の配置
を示す説明図である。
FIG. 13 is an explanatory diagram showing the arrangement of center coordinates and initial contours in the input image.

【図14】初期輪郭上の一点と中心座標とを結ぶ直線上
の色差算出を行う方法を説明するための図である。
FIG. 14 is a diagram for explaining a method of calculating a color difference on a straight line connecting a point on the initial contour and a center coordinate.

【図15】色差の算出例を模式的に示した説明図であ
る。
FIG. 15 is an explanatory diagram schematically showing an example of calculation of color difference.

【図16】(a)、(b)は顔輪郭形状に特化した色差
算出を行う手法として顔が楕円形状であることを利用す
る場合について説明するための図である。
16 (a) and 16 (b) are diagrams for explaining a case in which the fact that the face has an elliptical shape is used as a method for performing color difference calculation specialized for the face contour shape.

【図17】抽出した顔輪郭線から距離関数を算出する手
法を説明するための図である。
FIG. 17 is a diagram for explaining a method of calculating a distance function from the extracted face contour line.

【図18】入力画像から得られた距離関数と基準距離関
数とを比較する手法を説明するための図である。
FIG. 18 is a diagram illustrating a method of comparing a distance function obtained from an input image with a reference distance function.

【図19】顎形状の判定結果に対する顔の3次元モデル
の例を示す説明図である。
FIG. 19 is an explanatory diagram showing an example of a three-dimensional model of a face with respect to a determination result of a jaw shape.

【図20】顔の特徴量に基づいて3次元モデルを変形し
た例を示す説明図である。
FIG. 20 is an explanatory diagram showing an example in which a three-dimensional model is modified based on a feature amount of a face.

【符号の説明】[Explanation of symbols]

1 記憶部 2 画像入力部 3 ユーザ入力部 4 表示部 5 3次元モデル生成部 11 画像入力部 12 位置指定部 13 特徴検出・判定手段 14 3次元モデル生成手段 13a、14a 演算装置 13b、14b 記憶装置 15 出力部 1 memory 2 Image input section 3 User input section 4 Display 5 3D model generator 11 Image input section 12 Positioning part 13 Feature detection / determination means 14 Three-dimensional model generation means 13a, 14a arithmetic unit 13b, 14b storage device 15 Output section

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 17/40 G06T 17/40 B (72)発明者 佐伯 和裕 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 高橋 俊哉 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 (72)発明者 鈴木 恭一 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 5B050 AA09 BA12 CA07 DA07 EA06 EA07 EA13 EA19 EA27 EA28 EA30 FA09 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB13 CB16 CD11 CD14 CE08 DA07 DA17 DB02 DB06 DB09 DC08 DC09 DC16 DC25 DC32 5L096 AA02 AA06 AA09 CA24 FA06 FA66 FA67 FA69 GA41 JA11─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 17/40 G06T 17/40 B (72) Inventor Kazuhiro Saeki 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Inside the Sharp Corporation (72) Toshiya Takahashi 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Prefecture Inside the Sharp Corporation (72) Kyoichi Suzuki 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka Prefecture Inner F-term (reference) 5B050 AA09 BA12 CA07 DA07 EA06 EA07 EA13 EA19 EA27 EA28 EA30 FA09 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB13 CB16 CD11 CD14 CE08 DA07 A09 DC02 DC06 A06 DC16 A06 DC25 A16 DC25 A0 DC16 A0 A6 A0 DC12 A0 DC12 A0 FA67 FA69 GA41 JA11

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 画像に含まれる対象物体のモデルを生成
する装置であって、画像中の任意の位置を指定すること
のできる位置指定部と、前記画像中の対象物体の概略形
状モデルを含む各種データをあらかじめ記憶している記
憶部と、これら画像情報、位置指定部により指定された
位置情報および記憶部に記憶されている各種データに基
づいてモデルを生成するモデル生成部とからなり、 前記モデル生成部は、 入力された画像中の対象物体の大きさ、位置および方向
を検出する手段と、 前記記憶部に記憶されている概略形状モデルを、検出し
た同じ大きさ、位置および方向に投影した場合の各頂点
の画像上の位置を計算する第1の計算手段と、 同じ概略形状モデルをあらかじめ定めた規定の大きさ、
位置および方向に投影した場合の各頂点の画像上の位置
を計算する第2の計算手段と、 これら第1の計算手段および第2の計算手段により計算
された同じ頂点の両画像上の座標の対応関係に基づいて
画像の変形を行うことにより、対象物体をあらかじめ定
めた規定の大きさ、位置および方向から見た場合の近似
画像を生成する手段とを備えたことを特徴とするモデル
生成装置。
1. A device for generating a model of a target object included in an image, including a position specifying unit capable of specifying an arbitrary position in the image, and a schematic shape model of the target object in the image. A storage unit that stores various data in advance, and a model generation unit that generates a model based on the image information, the position information designated by the position designation unit, and the various data stored in the storage unit, The model generation unit projects the size, position and direction of the target object in the input image and the rough shape model stored in the storage unit onto the same detected size, position and direction. The first calculation means for calculating the position of each vertex on the image in the case of
Second calculating means for calculating the position of each vertex on the image when projected in the position and direction, and the coordinates of the same vertex on both images calculated by the first calculating means and the second calculating means. A model generation device comprising: a unit configured to generate an approximate image when the target object is viewed from a predetermined size, position, and direction by deforming the image based on the correspondence relationship. .
【請求項2】 前記第1の計算手段および第2の計算手
段により計算された同じ頂点の両画像上の座標の対応関
係に基づいて画像の変形を行う手段と、 前記概略形状モデルをあらかじめ定めた規定の大きさ、
位置および方向に投影した場合の輪郭付近および/また
は輪郭の外側に相当する領域を、輪郭の内側の画素値に
より埋めることにより、対象物体をあらかじめ定めた規
定の大きさ、位置および方向から見た場合の近似画像を
生成する手段とをさらに備えたことを特徴とする請求項
1に記載のモデル生成装置。
2. A means for deforming an image based on a correspondence relationship between coordinates of the same vertex on both images calculated by the first calculating means and the second calculating means, and the general shape model is determined in advance. Stipulated size,
The target object is viewed from a predetermined size, position and direction by filling the area corresponding to the vicinity of the contour and / or the area outside the contour when projected in the position and direction with the pixel value inside the contour. The model generation device according to claim 1, further comprising: a means for generating an approximate image in the case.
【請求項3】 前記近似画像を概略形状モデルに貼り付
ける貼り付け画像データとして画像付きモデルを生成す
る手段をさらに備えたことを特徴とする請求項1または
請求項2に記載のモデル生成装置。
3. The model generation device according to claim 1, further comprising means for generating a model with an image as pasted image data for pasting the approximate image onto a rough shape model.
【請求項4】前記記憶部は、あらかじめ画像の貼り付け
規則を一定に定めた複数の概略形状モデルを記憶してお
り、前記モデル生成部は、あらかじめ定めた画像の貼り
付け規則に適合するように画像を作成し、用意された複
数の概略形状モデルから1つのモデルを選択し、選択し
た概略形状モデルと作成された画像とを組み合わせて画
像付きモデルを生成することを特徴とする請求項1ない
し請求項3のいずれかに記載のモデル生成装置。
4. The storage unit stores a plurality of schematic shape models in which image pasting rules are fixed in advance, and the model generating unit conforms to the preset image pasting rules. 2. An image is created in step 1, one model is selected from a plurality of prepared rough shape models, and a model with an image is generated by combining the selected rough shape model and the created image. The model generation device according to claim 3.
【請求項5】 あらかじめ作成した対象物体の構成部品
である複数のモデルを、あらかじめ定めた規則に従って
組み合わせて使用することにより、対象物体のモデルを
生成する装置であって、組み合わせる前記部品同士の大
きさ、位置および方向があらかじめ決められており、か
つ、組み合わせる接合部分の形状があらかじめ統一して
作成されていることを特徴とするモデル生成装置。
5. An apparatus for generating a model of a target object by using a plurality of models, which are component parts of a target object created in advance, in combination according to a predetermined rule, and the size of the parts to be combined. A model generation device, characterized in that the position, the direction, and the direction are predetermined, and the shapes of the joints to be combined are made uniform in advance.
【請求項6】組み合わせて生成したモデルを、必要に応
じて拡大、縮小、回転、移動等する手段を備えたことを
特徴とする請求項5に記載のモデル生成装置。
6. The model generation device according to claim 5, further comprising means for enlarging, reducing, rotating, moving, etc., the models generated by the combination as necessary.
【請求項7】 画像に含まれる対象物体のモデルを生成
する装置であって、画像に含まれる対象物体の各部位を
指定することのできる位置指定部と、これら画像情報お
よび位置指定部により指定された位置情報に基づいて対
象物体のモデルを生成するモデル生成部とからなり、 前記モデル生成部は、 前記位置指定部により指定された1つ以上の位置情報に
基づいて対象部位の輪郭特徴を検出し、その検出した対
象部位の輪郭特徴から対象物体の形状を判定する輪郭検
出・判定手段と、 この判定結果に対応する構造のモデルを選択して、所望
のモデルを生成するモデル生成手段とを備えたことを特
徴とするモデル生成装置。
7. A device for generating a model of a target object included in an image, the position specifying unit capable of specifying each part of the target object included in the image, and the image information and the position specifying unit. And a model generation unit that generates a model of the target object based on the determined position information, wherein the model generation unit determines the contour feature of the target region based on the one or more position information designated by the position designation unit. Contour detection / determination means for detecting and determining the shape of the target object from the detected contour characteristics of the target region, and model generation means for selecting a model of the structure corresponding to the determination result and generating a desired model. A model generation device comprising:
【請求項8】 前記輪郭検出・判定手段は、 対象物体の特徴点の位置情報を前記位置指定部により指
定して、画像上の対象物体の中心位置を確定する手段
と、 対象物体の輪郭の近傍に初期輪郭の配置を行う手段と、 画像上の対象物体の中心位置と初期輪郭とに基づいて、
対象物体の中心座標と初期輪郭上の各座標とを結ぶ直線
上の隣り合う画素間の色差を算出し、対象画素間の座標
中点を座標値として、算出した色差を画素値にもつ色差
マップ画像を作成する手段と、 作成した色差マップ画像を利用して、初期輪郭を動的輪
郭モデルに従って移動させることにより、輪郭線を抽出
する手段と、 抽出した輪郭線を元に距離関数を算出する手段と、 算出した距離関数の特徴を、基準となる対象部位の形状
の輪郭線からあらかじめ作成しておいた距離関数と比較
することにより、対象部位の形状を判定する手段とを含
むことを特徴とする請求項7に記載のモデル生成装置。
8. The contour detecting / determining means designates the position information of the feature points of the target object by the position designating section to determine the center position of the target object on the image, and Based on the means for arranging the initial contour in the vicinity and the center position and the initial contour of the target object on the image,
A color difference map that calculates the color difference between adjacent pixels on a straight line connecting the center coordinates of the target object and each coordinate on the initial contour, and uses the calculated color difference as the pixel value, with the coordinate midpoint between the target pixels as the coordinate value. A means for creating an image, a means for extracting the contour line by moving the initial contour according to the active contour model using the created color difference map image, and a distance function is calculated based on the extracted contour line. And a means for determining the shape of the target part by comparing the calculated feature of the distance function with a distance function created in advance from the contour line of the shape of the target part serving as a reference. The model generation device according to claim 7.
【請求項9】 前記輪郭検出・判定手段は、 前記位置指定部により指定された1つ以上の位置情報に
基づいて対象物体の各部位の特徴量を検出する特徴量抽
検出段をさらに含み、前記モデル生成手段は、検出した
対象物体の各部位の特徴量に基づいて、選択されたモデ
ルの構造を変形する手段を含むことを特徴とする請求項
8に記載のモデル生成装置。
9. The contour detecting / determining means further includes a feature quantity extraction detecting stage for detecting a feature quantity of each part of the target object based on one or more pieces of position information designated by the position designating unit, 9. The model generation device according to claim 8, wherein the model generation unit includes a unit that deforms the structure of the selected model based on the detected feature amount of each part of the target object.
【請求項10】 画像に含まれる対象物体のモデルを生
成するモデル生成装置によるモデル生成方法であって、 画像中の対象物体の大きさ、位置および方向を検出する
ステップと、 記憶部に記憶されている概略形状モデルを、検出した同
じ大きさ、位置および方向に投影した場合の各頂点の画
像上の位置を計算する計算ステップと、 同じ概略形状モデルをあらかじめ定めた規定の大きさ、
位置および方向に投影した場合の各頂点の画像上の位置
を計算する計算ステップと、 これら計算ステップにより計算された同じ頂点の両画像
上の座標の対応関係に基づいて画像の変形を行ことによ
り、対象物体をあらかじめ定めた規定の大きさ、位置お
よび方向から見た場合の近似画像を生成するステップと
を備えたことを特徴とするモデル生成方法。
10. A model generation method by a model generation device for generating a model of a target object included in an image, the method comprising: detecting the size, position and direction of the target object in the image, The calculation step of calculating the position on the image of each vertex when projecting the rough shape model having the same detected size, position and direction, and the prescribed size predetermined for the same rough shape model,
By calculating the position of each vertex on the image when projected in the position and direction, and transforming the image based on the correspondence between the coordinates of the same vertex on both images calculated by these calculation steps. And a step of generating an approximate image when the target object is viewed from a predetermined size, position and direction defined in advance.
【請求項11】 前記各計算ステップにより計算された
同じ頂点の両画像上の座標の対応関係に基づいて画像の
変形を行うステップと、 前記概略形状モデルをあらかじめ定めた規定の大きさ、
位置および方向に投影した場合の輪郭付近および/また
は輪郭の外側に相当する領域を、輪郭の内側の画素値に
より埋めることにより、対象物体をあらかじめ定めた規
定の大きさ、位置および方向から見た場合の近似画像を
生成するステップとをさらに備えたことを特徴とする請
求項10に記載のモデル生成方法。
11. A step of deforming an image based on a correspondence relationship between coordinates of the same vertex on both images calculated by each of the calculation steps, and a predetermined size for predetermining the schematic shape model,
The target object is viewed from a predetermined size, position and direction by filling the area corresponding to the vicinity of the contour and / or the area outside the contour when projected in the position and direction with the pixel value inside the contour. The method according to claim 10, further comprising the step of generating an approximate image of the case.
【請求項12】 前記近似画像を概略形状モデルに貼り
付ける貼り付け画像データとして画像付きモデルを生成
するステップをさらに備えたことを特徴とする請求項1
0または請求項11に記載のモデル生成方法。
12. The method according to claim 1, further comprising the step of generating a model with an image as pasted image data for pasting the approximate image onto the general shape model.
0 or the model generation method according to claim 11.
【請求項13】 画像に含まれる対象物体のモデルを生
成する方法であって、 対象物体の各部位を位置指定部によって指定するステッ
プと、 位置指定部により指定された1つ以上の位置情報に基づ
いて対象部位の輪郭特徴を検出し、その検出した対象部
位の輪郭特徴から対象部位の形状を判定するステップ
と、 この判定結果に対応する構造のモデルを選択して、所望
のモデルを生成するステップとを備えたことを特徴とす
るモデル生成方法。
13. A method for generating a model of a target object included in an image, comprising the step of designating each part of the target object by a position designating unit, and the one or more position information designated by the position designating unit. Detecting the contour feature of the target region based on the step, and determining the shape of the target region from the detected contour feature of the target region; and selecting a structure model corresponding to the determination result to generate a desired model. And a step of creating a model.
【請求項14】 画像に含まれる対象物体のモデルを生
成する方法であって、 対象物体の特徴点の位置情報を位置指定部により指定し
て、画像上の対象物体の中心位置を確定するステップ
と、 対象物体の輪郭の近傍に初期輪郭の配置を行うステップ
と、 画像上の対象物体の中心位置と初期輪郭とに基づいて、
対象物体の中心座標と初期輪郭上の各座標とを結ぶ直線
上の隣り合う画素間の色差を算出し、対象画素間の座標
中点を座標値として、算出した色差を画素値にもつ色差
マップ画像を作成するステップと、 作成した色差マップ画像を利用して、初期輪郭を動的輪
郭モデルに従って移動させることにより、輪郭線を抽出
するステップと、 抽出した輪郭線を元に距離関数を算出するステップと、
算出した距離関数の特徴を、基準となる対象部位の形状
の輪郭線からあらかじめ作成しておいた距離関数と比較
することにより、対象部位の形状を判定するステップと
を備えたことを特徴とするモデル生成方法。
14. A method of generating a model of a target object included in an image, comprising: specifying position information of feature points of the target object by a position specifying unit to determine a center position of the target object on the image. And a step of placing an initial contour in the vicinity of the contour of the target object, and based on the center position of the target object on the image and the initial contour,
A color difference map that calculates the color difference between adjacent pixels on a straight line connecting the center coordinates of the target object and each coordinate on the initial contour, and sets the calculated color difference as the pixel value with the coordinate midpoint between the target pixels as the coordinate value. The step of creating an image, the step of extracting the contour line by moving the initial contour according to the active contour model using the created color difference map image, and calculating the distance function based on the extracted contour line Steps,
Comparing the characteristic of the calculated distance function with a distance function prepared in advance from the contour line of the shape of the reference target region, and determining the shape of the target region. Model generation method.
【請求項15】 画像に含まれる対象物体のモデルを生
成するプログラムを記録したコンピュータ読み取り可能
な記録媒体であって、 画像中の対象物体の大きさ、位置および方向を検出する
ステップと、 記憶部に記憶されている概略形状モデルを、検出した同
じ大きさ、位置および方向に投影した場合の各頂点の画
像上の位置を計算する計算ステップと、 同じ概略形状モデルをあらかじめ定めた規定の大きさ、
位置および方向に投影した場合の各頂点の画像上の位置
を計算する計算ステップと、 これら計算ステップにより計算された同じ頂点の両画像
上の座標の対応関係に基づいて画像の変形を行ことによ
り、対象物体をあらかじめ定めた規定の大きさ、位置お
よび方向から見た場合の近似画像を生成するステップと
を含むことを特徴とするモデル生成プログラムを記録し
た記録媒体。
15. A computer-readable recording medium recording a program for generating a model of a target object included in an image, the step of detecting the size, position, and direction of the target object in the image, and a storage unit. The calculation step for calculating the position on the image of each vertex when the schematic shape model stored in is projected in the same detected size, position and direction, and the same schematic shape model with a predetermined size ,
By calculating the position of each vertex on the image when projected in the position and direction, and transforming the image based on the correspondence between the coordinates of the same vertex on both images calculated by these calculation steps. And a step of generating an approximate image when the target object is viewed from a predetermined size, position and direction defined in advance, the recording medium having a model generation program recorded therein.
【請求項16】 前記各計算ステップにより計算された
同じ頂点の両画像上の座標の対応関係に基づいて画像の
変形を行うステップと、 前記概略形状モデルをあらかじめ定めた規定の大きさ、
位置および方向に投影した場合の輪郭付近および/また
は輪郭の外側に相当する領域を、輪郭の内側の画素値に
より埋めることにより、対象物体をあらかじめ定めた規
定の大きさ、位置および方向から見た場合の近似画像を
生成するステップとをさらに含むことを特徴とする請求
項15に記載のモデル生成プログラムを記録した記録媒
体。
16. A step of deforming an image based on a correspondence relationship between coordinates of the same vertex on both images calculated by each of the calculation steps, and a predetermined size of the rough shape model set in advance,
By filling the area near the contour and / or the area corresponding to the outside of the contour when projected in the position and direction with the pixel value inside the contour, the target object is viewed from a predetermined size, position, and direction determined in advance. A recording medium storing the model generation program according to claim 15, further comprising a step of generating an approximate image in the case.
【請求項17】 前記近似画像を概略形状モデルに貼り
付ける貼り付け画像データとして画像付きモデルを生成
するステップをさらに含むことを特徴とする請求項15
または請求項16に記載のモデル生成プログラムを記録
した記録媒体。
17. The method according to claim 15, further comprising the step of generating a model with an image as the pasted image data for pasting the approximate image onto the general shape model.
A recording medium recording the model generation program according to claim 16.
【請求項18】 画像に含まれる対象物体のモデルを生
成するプログラムを記録したコンピュータ読み取り可能
な記録媒体であって、 対象物体の各部位を位置指定部によって指定するステッ
プと、 位置指定部により指定された1つ以上の位置情報に基づ
いて対象部位の輪郭特徴を検出し、その検出した対象部
位の輪郭特徴から対象部位の形状を判定するステップ
と、 この判定結果に対応する構造のモデルを選択して、所望
のモデルを生成するステップとを含むことを特徴とする
モデル生成プログラムを記録した記録媒体。
18. A computer-readable recording medium in which a program for generating a model of a target object included in an image is recorded, the step of designating each part of the target object by a position designating unit, and designating by the position designating unit. Detecting contour features of the target portion based on the one or more pieces of positional information obtained, and determining the shape of the target portion from the detected contour features of the target portion; and selecting a model of the structure corresponding to this determination result. And a step of generating a desired model, the recording medium having a model generation program recorded therein.
【請求項19】 画像に含まれる対象物体のモデルを生
成するプログラムを記録したコンピュータ読み取り可能
な記録媒体であって、 対象物体の特徴点の位置情報を位置指定部により指定し
て、画像上の対象物体の中心位置を確定するステップ
と、 対象物体の輪郭の近傍に初期輪郭の配置を行うステップ
と、 画像上の対象物体の中心位置と初期輪郭とに基づいて、
対象物体の中心座標と初期輪郭上の各座標とを結ぶ直線
上の隣り合う画素間の色差を算出し、対象画素間の座標
中点を座標値として、算出した色差を画素値にもつ色差
マップ画像を作成するステップと、 作成した色差マップ画像を利用して、初期輪郭を動的輪
郭モデルに従って移動させることにより、輪郭線を抽出
するステップと、 抽出した輪郭線を元に距離関数を算出するステップと、 算出した距離関数の特徴を、基準となる対象部位の形状
の輪郭線からあらかじめ作成しておいた距離関数と比較
することにより、対象部位の形状を判定するステップと
を含むことを特徴とするモデル生成プログラムを記録し
た記録媒体。
19. A computer-readable recording medium in which a program for generating a model of a target object included in an image is recorded, wherein position information of feature points of the target object is specified by a position specifying unit, Based on the step of determining the center position of the target object, the step of placing the initial contour in the vicinity of the contour of the target object, and the center position and the initial contour of the target object on the image,
A color difference map that calculates the color difference between adjacent pixels on a straight line connecting the center coordinates of the target object and each coordinate on the initial contour, and sets the calculated color difference as the pixel value with the coordinate midpoint between the target pixels as the coordinate value. The step of creating an image, the step of extracting the contour line by moving the initial contour according to the active contour model using the created color difference map image, and calculating the distance function based on the extracted contour line And a step of determining the shape of the target region by comparing the calculated feature of the distance function with a distance function created in advance from the contour line of the shape of the target region serving as a reference. A recording medium on which the model generation program is recorded.
JP2002180541A 2002-06-20 2002-06-20 Device and method for generating model and recording medium with model generation program recorded thereon Pending JP2003044841A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002180541A JP2003044841A (en) 2002-06-20 2002-06-20 Device and method for generating model and recording medium with model generation program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002180541A JP2003044841A (en) 2002-06-20 2002-06-20 Device and method for generating model and recording medium with model generation program recorded thereon

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP28338799A Division JP3639475B2 (en) 1999-10-04 1999-10-04 3D model generation apparatus, 3D model generation method, and recording medium on which 3D model generation program is recorded

Publications (1)

Publication Number Publication Date
JP2003044841A true JP2003044841A (en) 2003-02-14

Family

ID=19195308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002180541A Pending JP2003044841A (en) 2002-06-20 2002-06-20 Device and method for generating model and recording medium with model generation program recorded thereon

Country Status (1)

Country Link
JP (1) JP2003044841A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287558A (en) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd Video phone terminal, virtual character forming device, and virtual character movement control device
JP2005309914A (en) * 2004-04-23 2005-11-04 Omron Corp Method for processing color image and image processor
JP2007272578A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image processing apparatus and method
JP2007299070A (en) * 2006-04-27 2007-11-15 Toshiba Corp Face shape model generation apparatus and method
JP2010182330A (en) * 2010-04-05 2010-08-19 Omron Corp Method for processing color image and image processor
JP2010186485A (en) * 2010-04-05 2010-08-26 Omron Corp Method of processing color image and image processing apparatus
JP2010218560A (en) * 2010-04-05 2010-09-30 Omron Corp Method for processing color image and image processing apparatus
JP2011024913A (en) * 2009-07-28 2011-02-10 Toshiba Corp Medical image processor, medical image processing program, and x-ray ct apparatus
CN110348286A (en) * 2019-05-24 2019-10-18 广东工业大学 A kind of shape of face fitting and matching process based on least square method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287558A (en) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd Video phone terminal, virtual character forming device, and virtual character movement control device
JP2005309914A (en) * 2004-04-23 2005-11-04 Omron Corp Method for processing color image and image processor
JP4513394B2 (en) * 2004-04-23 2010-07-28 オムロン株式会社 Color image processing method and image processing apparatus
JP2007272578A (en) * 2006-03-31 2007-10-18 Toyota Motor Corp Image processing apparatus and method
JP2007299070A (en) * 2006-04-27 2007-11-15 Toshiba Corp Face shape model generation apparatus and method
JP2011024913A (en) * 2009-07-28 2011-02-10 Toshiba Corp Medical image processor, medical image processing program, and x-ray ct apparatus
JP2010186485A (en) * 2010-04-05 2010-08-26 Omron Corp Method of processing color image and image processing apparatus
JP2010218560A (en) * 2010-04-05 2010-09-30 Omron Corp Method for processing color image and image processing apparatus
JP2010182330A (en) * 2010-04-05 2010-08-19 Omron Corp Method for processing color image and image processor
JP4670995B2 (en) * 2010-04-05 2011-04-13 オムロン株式会社 Color image processing method and image processing apparatus
JP4670993B2 (en) * 2010-04-05 2011-04-13 オムロン株式会社 Color image processing method and image processing apparatus
JP4670994B2 (en) * 2010-04-05 2011-04-13 オムロン株式会社 Color image processing method and image processing apparatus
CN110348286A (en) * 2019-05-24 2019-10-18 广东工业大学 A kind of shape of face fitting and matching process based on least square method

Similar Documents

Publication Publication Date Title
JP3639475B2 (en) 3D model generation apparatus, 3D model generation method, and recording medium on which 3D model generation program is recorded
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
US6532011B1 (en) Method of creating 3-D facial models starting from face images
US20070019882A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
JP2603445B2 (en) Hair image adaptation method and computer system
JP4999731B2 (en) Face image processing device
JP5299173B2 (en) Image processing apparatus, image processing method, and program
US10467793B2 (en) Computer implemented method and device
JP2000067267A (en) Method and device for restoring shape and pattern in there-dimensional scene
JP2001109913A (en) Picture processor, picture processing method, and recording medium recording picture processing program
WO1994023390A1 (en) Apparatus for identifying person
JPWO2006049147A1 (en) Three-dimensional shape estimation system and image generation system
JP2000357221A (en) Method and device for image processing and recording medium with image processing program recorded
KR20190043925A (en) Method, system and non-transitory computer-readable recording medium for providing hair styling simulation service
JP2003044841A (en) Device and method for generating model and recording medium with model generation program recorded thereon
JP2009211148A (en) Face image processor
JP2021073619A (en) Image generation device, image generation method, and program
JP5419777B2 (en) Face image synthesizer
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
JP5639499B2 (en) Face image processing device
JP5419773B2 (en) Face image synthesizer
JP2000339498A (en) Three-dimensional shape data processor
JP2017122993A (en) Image processor, image processing method and program
JP2000331019A (en) Method and device for indexing aspect image and recording medium with aspect image indexing program recorded
JP4316114B2 (en) Model deformation method and modeling apparatus