JP2001297333A - Device and method for processing image and recording medium - Google Patents

Device and method for processing image and recording medium

Info

Publication number
JP2001297333A
JP2001297333A JP2000112073A JP2000112073A JP2001297333A JP 2001297333 A JP2001297333 A JP 2001297333A JP 2000112073 A JP2000112073 A JP 2000112073A JP 2000112073 A JP2000112073 A JP 2000112073A JP 2001297333 A JP2001297333 A JP 2001297333A
Authority
JP
Japan
Prior art keywords
data
image
hair
hairstyle
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000112073A
Other languages
Japanese (ja)
Inventor
Seiji Kobayashi
誠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000112073A priority Critical patent/JP2001297333A/en
Publication of JP2001297333A publication Critical patent/JP2001297333A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To change the hairstyle of hair to be expressed for each hair by means of CF corresponding to plural different head forms. SOLUTION: A hairstyle data reading part 21 of a hairstyle mapping processing part 4 reads hairstyle data, which are selected by using a controller, out of a hairstyle data base 7 and outputs them to a mapping position calculating part 22. The mapping position calculating part 22 calculates a position for mapping hair data, which comprise the hairstyle data, (corresponding to one hair) to a three-dimensional(3D) head model. A hair data interpolating processing part 23 interpolates the part, where the hair data are not mapped, of the head. A coordinate transforming part 24 transforms the coordinate of the mapped and interpolated hair data from the object coordinate system of hair data to the object coordinate system of the 3D head model.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに記録媒体に関し、例えば、頭髪を除く頭
部の3次元形状画像に、コンピュータグラフィックスに
より表現する頭髪画像を合成する場合に用いて好適な画
像処理装置および方法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and a recording medium, and is used, for example, when synthesizing a hair image expressed by computer graphics with a three-dimensional shape image of a head excluding hair. And a suitable image processing apparatus and method, and a recording medium.

【0002】[0002]

【従来の技術】従来、コンピュータグラフィックス(以
下、CGと略記する)によって人の頭髪を表現する方法
として、図1(A)に示すように、髪型全体をポリゴンモ
デルを用いて近似し、その表面に髪の毛のテクスチャを
貼り付ける方法や、光源位置または視点位置により異な
る反射強度を示す異方性反射モデルを用いてレンダリン
グする方法が用いられている。
2. Description of the Related Art Conventionally, as a method of expressing human hair by computer graphics (hereinafter abbreviated as CG), as shown in FIG. 1A, an entire hairstyle is approximated using a polygon model. A method of attaching the texture of the hair to the surface and a method of rendering using an anisotropic reflection model showing a different reflection intensity depending on a light source position or a viewpoint position are used.

【0003】これらの方法については、「山名、末
永、”異方性反射モデルを用いた頭髪表現”、信学技
報、PRU87-3,pp.115-120,1989」に記述されている。こ
のような方法においては、髪型の表現はポリゴンモデル
の形状そのものであり、髪型の変更はポリゴンモデルの
形状を変形することによって実現している。
[0003] These methods are described in "Yamana and Suenaga," Hair expression using anisotropic reflection model ", IEICE Technical Report, PRU87-3, pp.115-120,1989". In such a method, the expression of the hairstyle is the shape of the polygon model itself, and the change of the hairstyle is realized by deforming the shape of the polygon model.

【0004】また、頭髪をパーティクルシステムによっ
て表現する方法が提案されている。パーティクルシステ
ムは、多量の粒子状の物体を扱う時に、粒子の質量など
の特性をパラメータとして与え、ある法則に従って粒子
を発生させることによって、容易に多量の粒子状の物体
を表現する方法である。
[0004] A method of expressing hair by a particle system has been proposed. The particle system is a method of easily expressing a large number of particulate objects by giving characteristics such as the mass of the particles as parameters and generating particles according to a certain rule when handling a large number of particulate objects.

【0005】また、図1(B)に示すような髪の毛の一本
ずつを曲線近似する方法を、本願出願人は、例えば、特
願平10−164545号として提案しており、この方
法によって自然な髪型画像の表現に成功している。
[0005] The applicant of the present invention has proposed a method of approximating each individual hair as a curve as shown in FIG. 1B, for example, as Japanese Patent Application No. 10-164545. Successful expression of hairstyle images.

【0006】また、曲線近似された複数の髪の毛をまと
めて編集することにより、髪型をデザインする方法が
「岸、三枝、森島、”房モデルによるヘアデザインシス
テムの開発”、信学技報、MVE97-102,pp.67-74,1998」
に記述されている。
Also, a method of designing a hairstyle by editing a plurality of hairs whose curves are approximated collectively is described in "Kishi, Saegusa, Morishima," Development of Hair Design System Using Tuft Model ", IEICE Technical Report, MVE97. -102, pp.67-74,1998 ''
It is described in.

【0007】[0007]

【発明が解決しようとしている課題】しかしながら、ポ
リゴンモデルによって髪型全体を近似する方法では、複
雑な髪型を表現することが困難であり、また、髪の毛の
動き(流れ)を表現することができなかった。
However, in the method of approximating the entire hairstyle by the polygon model, it is difficult to express a complicated hairstyle, and it is not possible to express the movement (flow) of the hair. .

【0008】一方、パーティクルシステムによって頭髪
を表現する方法や、髪の毛の一本ずつを幾何学的形状で
近似する方法では、任意の髪型を表現することができ、
且つ、髪の毛の動きを表現することができる。しかしな
がら、パーティクルシステムによって頭髪を表現する方
法では、髪型を制御するためには、頭髪を表現する粒子
のパラメータを制御する必要があり、直感的な制御が難
しいので、意図する髪型を生成することが困難であっ
た。
On the other hand, a method of expressing hair by a particle system or a method of approximating hair one by one by a geometric shape can express an arbitrary hairstyle.
In addition, the movement of the hair can be expressed. However, in the method of expressing hair by a particle system, in order to control the hairstyle, it is necessary to control the parameters of the particles expressing the hair, and it is difficult to intuitively control the hairstyle. It was difficult.

【0009】上述した「岸、三枝、森島、”房モデルに
よるヘアデザインシステムの開発”、信学技報、MVE97-
102,pp.67-74,1998」に記述されている方法では、意図
する髪型を比較的容易に生成することが可能であるが、
この方法では、固定された頭部形状に対応した頭髪を意
図する髪型に変化させることができるだけであり、複数
の異なる頭部形状に対応して、頭髪を意図する髪型に変
化させることができない課題があった。
"Kishi, Saegusa, Morishima," Development of Hair Design System Using Tuft Model "", IEICE Technical Report, MVE97-
102, pp. 67-74, 1998, it is possible to generate the intended hairstyle relatively easily,
With this method, it is only possible to change the hair corresponding to the fixed head shape to the intended hairstyle, and it is not possible to change the hair to the intended hairstyle corresponding to a plurality of different head shapes. was there.

【0010】本発明はこのような状況に鑑みてなされた
ものであり、CGによって1本毎に表現する頭髪の髪型
を、複数の異なる頭部形状に対応して変化させることが
できるようにすることを目的とする。
[0010] The present invention has been made in view of such a situation, and enables the hairstyle of each hair expressed by CG to be changed corresponding to a plurality of different head shapes. The purpose is to:

【0011】[0011]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、髪型データが記録されているデータベースか
ら髪型データを読み出す読み出し手段と、読み出し手段
が読み出した髪型データに含まれる1本の髪の毛に対応
する頭髪データを、頭部の3次元形状画像の所定の位置
にマッピングするマッピング手段とを含み、前記マッピ
ング手段はさらに、第1の座標系で表現されている頭髪
データを、頭部の3次元形状画像が表現されている第2
の座標系のデータに変換する座標変換手段を含むことを
特徴とする。
According to the first aspect of the present invention, there is provided an image processing apparatus comprising: reading means for reading hairstyle data from a database in which hairstyle data is recorded; and one piece of hairstyle data included in the hairstyle data read by the reading means. Mapping means for mapping the hair data corresponding to the hair to a predetermined position of the three-dimensional shape image of the head, wherein the mapping means further converts the hair data expressed in the first coordinate system into the head data. 2D in which the three-dimensional shape image of
And a coordinate conversion means for converting the data into data of the coordinate system.

【0012】前記座標変換手段は、第1の座標系で表現
されている頭髪データを、頭部の表面に原点を有する局
所座標系のデータに変換した後、頭部の3次元形状画像
が表現されている第2の座標系のデータに変換するよう
にすることができる。
The coordinate conversion means converts the hair data expressed in the first coordinate system into data in a local coordinate system having an origin on the surface of the head, and then displays a three-dimensional image of the head. It can be converted to the data of the second coordinate system.

【0013】前記座標変換手段は、第1の座標系で表現
されている頭髪データを、頭部の3次元形状画像が表現
されている第2の座標系のデータに変換するとき、乱数
に基づいて、座標軸回転および原点移動のうち、少なく
とも一方を実行するようにすることができる。
The coordinate conversion means converts the hair data expressed in the first coordinate system into data in the second coordinate system in which a three-dimensional shape image of the head is expressed, based on a random number. Thus, at least one of coordinate axis rotation and origin movement can be executed.

【0014】前記マッピング手段はさらに、頭部の3次
元形状画像を任意に変形する変形手段を含むことがで
き、読み出し手段が読み出した髪型データに含まれる1
本の髪の毛に対応する頭髪データを、変形手段が変形し
た頭部の3次元形状画像の所定の位置にマッピングする
ようにすることができる。
[0014] The mapping means may further include a deforming means for arbitrarily deforming the three-dimensional shape image of the head.
The hair data corresponding to the hair of the book can be mapped to a predetermined position of the three-dimensional shape image of the head deformed by the deforming means.

【0015】請求項7に記載の画像処理方法は、髪型デ
ータが記録されているデータベースから髪型データを読
み出す読み出しステップと、読み出しステップの処理で
読み出された髪型データに含まれる1本の髪の毛に対応
する頭髪データを、頭部の3次元形状画像の所定の位置
にマッピングするマッピングステップとを含み、前記マ
ッピングステップの処理ではさらに、第1の座標系で表
現されている頭髪データを、頭部の3次元形状画像が表
現されている第2の座標系のデータに変換する座標変換
ステップを含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided an image processing method comprising: a reading step of reading hairstyle data from a database in which hairstyle data is recorded; and a method for reading one hair included in the hairstyle data read in the processing of the reading step. Mapping the corresponding hair data to a predetermined position in the three-dimensional shape image of the head. The mapping step further includes: converting the hair data expressed in the first coordinate system to the head data. A coordinate conversion step of converting the data into the data of the second coordinate system in which the three-dimensional shape image is expressed.

【0016】請求項8に記載の記録媒体のプログラム
は、髪型データが記録されているデータベースから髪型
データを読み出す読み出しステップと、読み出しステッ
プの処理で読み出された髪型データに含まれる1本の髪
の毛に対応する頭髪データを、頭部の3次元形状画像の
所定の位置にマッピングするマッピングステップとを含
み、前記マッピングステップの処理ではさらに、第1の
座標系で表現されている頭髪データを、頭部の3次元形
状画像が表現されている第2の座標系のデータに変換す
る座標変換ステップを含むことを特徴とする。
According to another aspect of the present invention, there is provided a program for a recording medium, comprising: a reading step of reading hairstyle data from a database in which hairstyle data is recorded; and one hair included in the hairstyle data read in the reading step processing. And mapping the hair data corresponding to the head data to a predetermined position of the three-dimensional shape image of the head. In the processing of the mapping step, the hair data expressed in the first coordinate system is further converted to the head data. A coordinate conversion step of converting the data into a data of a second coordinate system in which a three-dimensional shape image of the part is expressed.

【0017】請求項9に記載の画像処理装置は、第1の
座標系で表現されている第1の画像データを、第2の画
像が表現されている第2の座標系のデータに変換する座
標変換手段を含み、前記座標変換手段は、第1の座標系
で表現されている第1の画像データを、第2の画像が表
現されている第2の座標系のデータに変換するとき、乱
数に基づいて、座標軸回転および原点移動のうち、少な
くとも一方を実行することを特徴とする。
According to a ninth aspect of the present invention, the image processing apparatus converts the first image data represented by the first coordinate system into data of the second coordinate system representing the second image. A coordinate conversion unit that converts the first image data expressed in the first coordinate system into data in the second coordinate system in which the second image is expressed, At least one of rotation of the coordinate axis and movement of the origin is executed based on a random number.

【0018】請求項10に記載の画像処理方法は、第1
の座標系で表現されている第1の画像データを、第2の
画像が表現されている第2の座標系のデータに変換する
座標変換ステップを含み、前記座標変換ステップの処理
では、第1の座標系で表現されている第1の画像データ
を、第2の画像が表現されている第2の座標系のデータ
に変換するとき、乱数に基づいて、座標軸回転および原
点移動のうち、少なくとも一方を実行することを特徴と
する。
According to a tenth aspect of the present invention, there is provided the image processing method according to the first aspect.
A coordinate conversion step of converting the first image data expressed in the coordinate system of the first coordinate system into data of the second coordinate system in which the second image is expressed. When converting the first image data expressed in the coordinate system of the first coordinate system into data of the second coordinate system in which the second image is expressed, at least one of coordinate axis rotation and origin movement based on a random number It is characterized in that one of them is executed.

【0019】請求項11に記載の記録媒体のプログラム
は、第1の座標系で表現されている第1の画像データ
を、第2の画像が表現されている第2の座標系のデータ
に変換する座標変換ステップを含み、前記座標変換ステ
ップの処理では、第1の座標系で表現されている第1の
画像データを、第2の画像が表現されている第2の座標
系のデータに変換するとき、乱数に基づいて、座標軸回
転および原点移動のうち、少なくとも一方を実行するこ
とを特徴とする。
According to another aspect of the present invention, a program for a recording medium converts first image data represented in a first coordinate system into data in a second coordinate system representing a second image. And converting the first image data represented in the first coordinate system into data in the second coordinate system representing the second image. Then, at least one of rotation of the coordinate axis and movement of the origin is executed based on a random number.

【0020】請求項1に記載の画像処理装置、請求項7
に記載の画像処理方法、および請求項8に記載の記録媒
体のプログラムにおいては、髪型データが記録されてい
るデータベースから髪型データが読み出され、読み出さ
れた髪型データに含まれる1本の髪の毛に対応する頭髪
データが、頭部の3次元形状画像の所定の位置にマッピ
ングされる。マッピングステップの処理ではさらに、第
1の座標系で表現されている頭髪データが、頭部の3次
元形状画像が表現されている第2の座標系のデータに変
換される。
[0020] The image processing apparatus according to claim 1, and claim 7.
In the image processing method according to the above, and the program of the recording medium according to the eighth aspect, the hairstyle data is read from a database in which the hairstyle data is recorded, and one hair included in the read hairstyle data. Is mapped to a predetermined position in the three-dimensional shape image of the head. In the processing in the mapping step, the hair data expressed in the first coordinate system is further converted into data in the second coordinate system in which a three-dimensional shape image of the head is expressed.

【0021】請求項9に記載の画像処理装置、請求項1
0に記載の画像処理方法、および請求項11に記載の記
録媒体のプログラムにおいては、第1の座標系で表現さ
れている第1の画像データが、第2の画像が表現されて
いる第2の座標系のデータに変換される。この座標変換
の処理では、第1の座標系で表現されている第1の画像
データが、第2の画像が表現されている第2の座標系の
データに変換されるとき、乱数に基づいて、座標軸回転
および原点移動のうち、少なくとも一方が実行される。
An image processing apparatus according to claim 9, wherein
In the image processing method according to the first aspect, the first image data represented by the first coordinate system is replaced with the second image represented by the second image. Is converted to data of the coordinate system. In this coordinate conversion process, when the first image data expressed in the first coordinate system is converted into data in the second coordinate system in which the second image is expressed, based on a random number, , At least one of coordinate axis rotation and origin movement is executed.

【0022】[0022]

【発明の実施の形態】本発明を適用した頭髪合成システ
ムについて、図2を参照して説明する。この頭髪合成シ
ステムは、人の首部(首から上の部分)を撮影する撮影
装置1、撮影した首部の画像に基づいて、首部の3次元
形状モデルを生成し、任意の髪型のCGを合成して髪型
整合画像を生成する画像処理装置2、および、生成され
た髪型整合画像を表示する表示装置9から構成される。
この頭髪合成システムを、例えば、美容院、理髪店等に
設置すれば、客の髪型の選択を支援する用途などに用い
ることができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A hair synthesis system to which the present invention is applied will be described with reference to FIG. This hair synthesis system generates a three-dimensional model of a neck based on a captured image of a neck, and synthesizes a CG of an arbitrary hairstyle based on a captured image of the neck (a portion above the neck). The image processing device 2 generates a hairstyle matching image by using the image processing device 2 and the display device 9 that displays the generated hairstyle matching image.
If this hair synthesis system is installed in, for example, a beauty salon, a barber shop, or the like, it can be used for purposes such as assisting a customer in selecting a hairstyle.

【0023】頭髪合成システムの撮影装置1は、ステレ
オカメラやレンジファインダなどの3次元形状計測装
置、およびCCD(Charge Coupled Device)等の2次元画像
入力装置を組み合わせたものである。撮影装置1の3次
元形状計測装置は、ステレオカメラの場合には、被写体
となる人(美容院等の顧客)の首部を異なる方向から複
数回撮影して所定の画像処理を施し、顔部(首部のう
ち、頭髪部が除去されたもの)の3次元形状を得る。レ
ンジファインダの場合には、被写体となる人の首部をレ
ーザスキャンすることによって距離を計測し、顔部の3
次元形状を得る。撮像装置1の2次元画像入力装置は、
被写体となる人の首部を撮影して、顔部の3次元形状に
対応したテクスチャを得る。
The photographing device 1 of the hair synthesis system is a combination of a three-dimensional shape measuring device such as a stereo camera and a range finder, and a two-dimensional image input device such as a CCD (Charge Coupled Device). In the case of a stereo camera, the three-dimensional shape measuring device of the photographing device 1 performs a predetermined image processing by photographing the neck of a person (customer such as a beauty salon) a plurality of times from different directions, and performs predetermined image processing. A three-dimensional shape of the neck portion (from which the hair portion has been removed) is obtained. In the case of a range finder, the distance is measured by laser scanning the neck of the person to be the subject, and the distance of the face is measured.
Get a dimensional shape. The two-dimensional image input device of the imaging device 1 includes:
An image of the neck of the person to be the subject is taken to obtain a texture corresponding to the three-dimensional shape of the face.

【0024】一般に、撮影装置1の3次元形状計測装置
は、被写体の光を吸収する色の濃い部分(例えば、黒髪
の頭部等)、および、金属のように光を反射する部分の
3次元形状データを取得することができない。したがっ
て、撮影装置1からは、被写体の首部のうち、頭髪を除
く顔等の部分(以下、顔部と記述する)の3次元形状デ
ータ、および、顔部分の3次元形状データと対応付けら
れたテクスチャ画像データが出力される。
In general, the three-dimensional shape measuring device of the photographing device 1 includes a three-dimensional shape measuring part for darkening the light of the subject (for example, the head of a black hair) and a part reflecting light such as metal. Shape data cannot be obtained. Therefore, from the photographing apparatus 1, the three-dimensional shape data of the part of the neck of the subject, such as the face excluding the hair (hereinafter referred to as the face part), and the three-dimensional shape data of the face part are associated with each other. The texture image data is output.

【0025】なお、撮影装置1を構成する3次元形状計
測装置および2次元画像入力装置は、被写体となる人
(以下、顧客と記述する)の首部を多方向から計測する
ために複数あってもよい。
It should be noted that the three-dimensional shape measuring device and the two-dimensional image input device constituting the photographing device 1 may be plural in order to measure the neck of a person (hereinafter referred to as a customer) as a subject from multiple directions. Good.

【0026】画像処理装置2は、撮影装置1から入力さ
れる顔部の3次元形状データに、頭部データベース6か
ら読み出す頭部の3次元形状データを合成して、首部の
3次元形状モデルを構築する3次元頭部再構築処理部
3、首部の3次元形状モデルに髪型データベース5から
読み出す髪型データをマッピングする髪型マッピング処
理部4、髪型データがマッピングされた首部の3次元形
状モデルにレンダリングを施して髪型整合画像データを
生成するレンダリング部5、複数の頭部の3次元形状デ
ータが予め記録されている頭部データベース6、複数の
髪型データが予め記録されている髪型データベース7、
および、頭部データベース6に記憶されている頭部の3
次元形状データの選択、髪型データベース7に記憶され
ている髪型データの選択等を指示するとき、ユーザが操
作するコントローラ8から構成される。
The image processing device 2 combines the three-dimensional shape data of the head read from the head database 6 with the three-dimensional shape data of the face input from the photographing device 1 to generate a three-dimensional shape model of the neck. The three-dimensional head reconstruction processing unit 3 to be constructed, the hairstyle mapping processing unit 4 that maps hairstyle data read from the hairstyle database 5 to the three-dimensional shape model of the neck, and rendering to the three-dimensional shape model of the neck to which the hairstyle data is mapped Rendering unit 5 for generating hairstyle matched image data, a head database 6 in which a plurality of three-dimensional shape data of the head are recorded in advance, a hairstyle database 7 in which a plurality of hairstyle data are recorded in advance,
And 3 of the head stored in the head database 6
The controller 8 is operated by a user when instructing selection of dimensional shape data, selection of hairstyle data stored in the hairstyle database 7, and the like.

【0027】髪型データベース7に記憶されている髪型
データは、3次元グラフィックスモデラ等を使って編
集、生成されたものである。したがって、実際には整髪
することが困難であるような髪型であっても、その髪型
データを生成し、記憶させておくことが可能である。な
お、髪型データベース7のデータ構造については、図1
1を参照して後述する。
The hairstyle data stored in the hairstyle database 7 has been edited and generated using a three-dimensional graphics modeler or the like. Therefore, it is possible to generate and store hairstyle data for a hairstyle that is actually difficult to style. The data structure of the hairstyle database 7 is shown in FIG.
1 will be described later.

【0028】表示装置9は、LCD(Liquid Crystal Displ
ay)またはCRT(Cathode Ray Tube)などよりなり、画像処
理装置2から入力される髪型整合画像を表示する。
The display device 9 is an LCD (Liquid Crystal Displ.).
ay) or a CRT (Cathode Ray Tube), etc., and displays a hairstyle matching image input from the image processing apparatus 2.

【0029】次に、頭髪合成システムの動作について、
図3のフローチャートおよび図4を参照して説明する。
ステップS1において、撮影装置1は、被写体となる顧
客の首部を撮影、またはレーザスキャンして3次元形状
を計測し、顧客の首部の3次元形状データおよびテクス
チャ画像データを画像処理装置2に出力する。
Next, the operation of the hair synthesis system will be described.
This will be described with reference to the flowchart of FIG. 3 and FIG.
In step S <b> 1, the photographing device 1 measures a three-dimensional shape by photographing or laser-scanning the neck of a customer serving as a subject, and outputs three-dimensional shape data and texture image data of the customer's neck to the image processing device 2. .

【0030】3次元形状の計測方法は、ステレオカメラ
を用いる方法、レンジファインダを用いる方法など、い
ずれの方法でも構わない。しかしながら、上述したよう
に、撮影装置1の3次元形状計測装置は、頭髪部分の3
次元形状データを取得することができないので、ステッ
プS1の処理では、撮影した顧客の顔部の3次元形状デ
ータおよびテクスチャ画像データ(図4においては、顔
部の3次元形状データにテクスチャ画像を貼付した計測
データとして図示している)が出力される。なお、撮影
装置1に複数の3次元形状計測装置および2次元画像入
力装置が備えられている場合には、顔部の3次元形状デ
ータおよびテクスチャ画像データの組が複数出力される
ことになる。
As a method of measuring the three-dimensional shape, any method such as a method using a stereo camera and a method using a range finder may be used. However, as described above, the three-dimensional shape measuring device of the photographing device 1 uses the 3
Since the three-dimensional shape data cannot be obtained, in the process of step S1, the three-dimensional shape data and the texture image data of the photographed face of the customer (in FIG. 4, the texture image is pasted on the three-dimensional shape data of the face) (Illustrated as the measured data obtained). When the photographing apparatus 1 is provided with a plurality of three-dimensional shape measuring devices and two-dimensional image input devices, a plurality of sets of three-dimensional shape data and texture image data of the face are output.

【0031】ステップS2において、画像処理装置2の
3次元頭部再構築処理部2は、撮影装置1から入力され
た顔部の計測データ(3次元形状データおよびテクスチ
ャ画像データ)を用いて顧客の頭部の3次元形状モデル
を構築する。
In step S 2, the three-dimensional head reconstruction processing unit 2 of the image processing device 2 uses the measurement data of the face (three-dimensional shape data and texture image data) input from the photographing device 1 for the customer. Construct a three-dimensional shape model of the head.

【0032】具体的には、図4に示すように、頭部デー
タベース6から選択して読み出した頭部データを、顧客
の顔部の計測データと結合して、完全な顧客の頭部の3
次元モデルを再構築する。頭部データベース6は、複数
の任意形状の頭部のみの3次元モデルで構成されてい
る。頭部データには、顧客の顔部の計測データの大き
さ、向き等からスケーリング、位置合わせが施されて、
顧客の計測データに結合される。
More specifically, as shown in FIG. 4, the head data selected and read from the head database 6 is combined with the measurement data of the customer's face to obtain a complete customer's head 3
Rebuild the dimensional model. The head database 6 is composed of a three-dimensional model of only a plurality of heads of arbitrary shapes. The head data is scaled and aligned based on the size and orientation of the measurement data of the customer's face,
Combined with customer measurement data.

【0033】頭部データと顧客の計測データとの結合
は、両データの解放エッジ間に新たなポリゴンを発生さ
せるようにしてもよいし、一方のデータの解放エッジ部
を他方の解放エッジに合致するように変形させてもよ
い。
The combination of the head data and the measurement data of the customer may be such that a new polygon is generated between the release edges of both data, or the release edge portion of one data is matched with the other release edge. It may be deformed as follows.

【0034】構築された顧客の頭部3次元形状は、例え
ば、三角形ポリゴンモデルで表現されている。構築され
た顧客の頭部3次元モデルは、図4に示すような顧客の
実像から頭髪が取り除かれたものとなる。
The constructed three-dimensional shape of the customer's head is represented by, for example, a triangular polygon model. The constructed three-dimensional model of the customer's head is obtained by removing the hair from the real image of the customer as shown in FIG.

【0035】ステップS3において、髪型データベース
7に記憶されている髪型データを選択するユーザ(顧客
等)の操作が、コントローラ8により受け付け、選択さ
れた髪型データが髪型データベース7から読み出され
て、髪型マッピング処理部4に供給される。
In step S3, the operation of the user (customer or the like) for selecting the hairstyle data stored in the hairstyle database 7 is received by the controller 8, and the selected hairstyle data is read from the hairstyle database 7 and the hairstyle is read. It is supplied to the mapping processing unit 4.

【0036】この髪型選択の際、髪型を示すアイコンや
サムネイル等を表示装置9に表示させて、ユーザに選択
を促す。表示装置9の画面上のカーソル等を移動させる
ことにより選択するようにしてもよいし、髪型を示す番
号等を入力することにより選択するようにしてもよい。
At the time of this hairstyle selection, an icon or a thumbnail indicating the hairstyle is displayed on the display device 9 to urge the user to make a selection. The selection may be made by moving a cursor or the like on the screen of the display device 9, or may be made by inputting a number or the like indicating a hairstyle.

【0037】ステップS4において、画像処理装置2の
髪型マッピング処理部4は、供給された髪型データを、
3次元頭部再構築処理部3から供給された顧客の頭部3
次元モデルにマッピングして、レンダリング部5に出力
する。髪型データのマッピング処理は、髪型データに含
まれる1本毎の髪の毛に対応する頭髪データを、テクス
チャマッピングと同様の手法によって、頭部3次元モデ
ルの形状に従って頭部3次元モデル表面にマッピングす
るものである。なお、マッピング処理の詳細について
は、図5および図6を参照して後述する。
In step S4, the hair style mapping processing section 4 of the image processing device 2 converts the supplied hair style data into
Customer's head 3 supplied from the three-dimensional head reconstruction processing unit 3
The data is mapped to the dimensional model and output to the rendering unit 5. The hairstyle data mapping process maps the hair data corresponding to each individual hair included in the hairstyle data onto the surface of the head 3D model according to the shape of the head 3D model by the same method as texture mapping. It is. The details of the mapping process will be described later with reference to FIGS.

【0038】ステップS5において、レンダリング部5
は、髪型データがマッピングされた顧客の頭部3次元モ
デルをレンダリングして、図4に示すような髪型整合画
像データを生成して、表示装置9に出力する。レンダリ
ングの方法は、頭部3次元モデルの顔部に対しては、ポ
リゴンモデルのテクスチャマッピング処理などであり、
頭髪部に対しては、曲線モデルのレンダリング処理であ
る。曲線モデルのレンダリング処理は、例えば、「小
林、森島、原島、”糸状物体の運動モデルとCGによる
シミュレーション”、信学技報、PRU90-127,pp.15-20,1
991」に、その詳細が開示されている。
In step S5, the rendering unit 5
Renders the three-dimensional model of the customer's head to which the hairstyle data is mapped, generates hairstyle matched image data as shown in FIG. The rendering method includes texture mapping of a polygon model for the face of the three-dimensional head model,
For the hair part, this is rendering processing of a curve model. The rendering process of the curve model is described in, for example, “Kobayashi, Morishima, Harashima,“ Simulation Model of Threaded Object and Simulation by CG ””, IEICE Technical Report, PRU90-127, pp.15-20,1
991 ", the details of which are disclosed.

【0039】表示装置9は、入力された髪型整合画像デ
ータに対応する画像を表示する。コントローラ8は、画
像装置9に表示された髪型整合画像を満足したか否かを
入力するようにユーザ(顧客等)に促す。
The display device 9 displays an image corresponding to the input hairstyle matching image data. The controller 8 prompts the user (customer or the like) to input whether or not the hairstyle matching image displayed on the image device 9 is satisfied.

【0040】このとき、ユーザは、コントローラ8を操
作して、視点位置や照明位置を変化させながら髪型整合
画像を見ることができる。視点位置や照明位置が変化し
た場合、レンダリング部5は、変化された条件(視点位
置や照明位置)に対応するように、頭部3次元モデルと
髪型データのレンダリング処理を再度実行して表示装置
9に出力する。
At this time, the user can operate the controller 8 to view the hairstyle matching image while changing the viewpoint position and the illumination position. When the viewpoint position or the lighting position changes, the rendering unit 5 executes the rendering process of the head three-dimensional model and the hairstyle data again so as to correspond to the changed condition (the viewpoint position or the lighting position) and displays the display device. 9 is output.

【0041】ステップS5において、ユーザが満足し廷
内ことを示す入力を受け付けた場合、ステップS3に戻
り、以降の処理が繰り返される。ステップS5におい
て、満足したことを示すユーザの入力を受け付けたと判
定された場合、この処理は終了される。
If it is determined in step S5 that the user has received an input indicating that the court is satisfied, the process returns to step S3, and the subsequent processing is repeated. If it is determined in step S5 that the input of the user indicating satisfaction has been received, the process ends.

【0042】次に、ステップS4の髪型マッピング処理
部4の髪型マッピング処理の詳細について説明するが、
その前に、髪型マッピング処理部4の構成例について、
図5を参照して説明する。
Next, the details of the hair style mapping processing of the hair style mapping processing section 4 in step S4 will be described.
Before that, regarding the configuration example of the hairstyle mapping processing unit 4,
This will be described with reference to FIG.

【0043】髪型マッピング処理部4の髪型データ読み
出し部21は、コントローラ8を用いて選択された髪型
データを、髪型データベース7から読み出してマッピン
グ位置計算部22に出力する。マッピング位置計算部2
2は、髪型データを構成する頭髪データ(1本の髪の毛
に相当する)を頭部3次元モデルに対してマッピングす
る位置を計算する。頭髪データ補間処理部23は、マッ
ピングされる頭髪データを、髪型データの周囲の頭髪デ
ータから補間することによって求める。座標変換部24
は、補間された頭髪データを、頭髪データの物体座標系
から頭部3次元モデルの物体座標系に座標変換すること
によってマッピングする。
The hair style data reading section 21 of the hair style mapping processing section 4 reads out the hair style data selected by the controller 8 from the hair style database 7 and outputs it to the mapping position calculating section 22. Mapping position calculator 2
2 calculates a position at which the hair data (corresponding to one hair) constituting the hairstyle data is mapped to the three-dimensional head model. The hair data interpolation processing unit 23 obtains the mapped hair data by interpolating the hair data around the hairstyle data. Coordinate converter 24
Performs mapping by transforming the interpolated hair data from the object coordinate system of the hair data to the object coordinate system of the three-dimensional head model.

【0044】次に、髪型マッピング処理部4の髪型マッ
ピング処理の詳細について、図6のフローチャートを参
照して説明する。髪型マッピング処理部4のマッピング
位置計算部22には、既に、ステップS3の処理によっ
て、髪型データ読み出し部21から髪型データが供給さ
れているものとする。
Next, details of the hair style mapping process of the hair style mapping processing section 4 will be described with reference to the flowchart of FIG. It is assumed that the hairstyle data is already supplied from the hairstyle data reading unit 21 to the mapping position calculation unit 22 of the hairstyle mapping processing unit 4 by the process of step S3.

【0045】マッピング位置計算部22に供給されてい
る髪型データは、図7に示すように、3次元形状を持つ
オブジェクトで近似された頭髪データが2次元配列され
たものである。
The hairstyle data supplied to the mapping position calculator 22 is a two-dimensional array of hair data approximated by an object having a three-dimensional shape, as shown in FIG.

【0046】図7(A)の例では、3次B-spline曲線など
の空間曲線で1本の頭髪が近似されている。図7(B)の
例では、ポリゴンモデルによって1本の頭髪が近似され
ている。2次元配列のアドレスは、テクスチャマッピン
グ処理と同様に、髪型がマッピングされる頭部3次元モ
デルに与えられているマッピング座標値と対応する。
In the example of FIG. 7A, one hair is approximated by a space curve such as a cubic B-spline curve. In the example of FIG. 7B, one hair is approximated by the polygon model. The address of the two-dimensional array corresponds to the mapping coordinate value given to the three-dimensional head model to which the hairstyle is mapped, similarly to the texture mapping process.

【0047】例えば、頭部3次元モデルの所定のポリゴ
ンの頂点にマッピング座標(u,v)=(0.1,0.
1)が与えられている場合、その頂点にマッピングされ
る頭髪データの髪型データ配列でのアドレスは(0.1
max,0.1vmax)となる。ここで、umaxは髪型デ
ータ配列のu方向のデータ数であり、vmaxは髪型デー
タ配列のv方向のデータ数である。
For example, the mapping coordinates (u, v) = (0.1, 0...) On the vertices of a predetermined polygon of the head three-dimensional model.
When 1) is given, the address in the hairstyle data array of the hair data mapped to the vertex is (0.1).
u max , 0.1 v max ). Here, u max is the number of data in the u-direction of the hairstyle data array, and vmax is the number of data in the v-direction of the hairstyle data array.

【0048】髪型データは、任意の3次元形状を有した
頭髪データを2次元配列したものであるため、任意の髪
型を表現することが可能であり、現実的にカットするこ
とが困難である髪型の髪型データであっても生成するこ
とができる。なお、髪型データを生成する方法について
は、図16を参照して後述する。
Since the hairstyle data is a two-dimensional array of hair data having an arbitrary three-dimensional shape, it is possible to express an arbitrary hairstyle, and it is difficult to actually cut the hairstyle. Can be generated even if the hairstyle data is The method of generating the hairstyle data will be described later with reference to FIG.

【0049】始めに、ステップS11において、マッピ
ング位置計算部22は、髪型データ配列の縦方向のカウ
ント値vを0.0に初期化し、ステップS12におい
て、髪型データ配列の横方向のカウント値uを0.0に
初期化する。
First, in step S11, the mapping position calculation unit 22 initializes the vertical count value v of the hairstyle data array to 0.0, and in step S12, converts the horizontal count value u of the hairstyle data array. Initialize to 0.0.

【0050】ステップS13において、マッピング位置
計算部22は、髪型データ配列のアドレス(u,v)で
表される頭髪データを、頭部3次元モデルのどの位置に
マッピングするかを計算する。
In step S13, the mapping position calculation unit 22 calculates to which position in the three-dimensional head model the hair data represented by the address (u, v) in the hairstyle data array is mapped.

【0051】具体的に説明する。図8は、頭部3次元モ
デル上の任意の三角形ポリゴンを示している。三角形ポ
リゴンの頂点A,B,Cは、それぞれ頭部3次元モデル
の属性を表す属性ベクトルAattr,Battr,Cattrを有
している。
A specific description will be given. FIG. 8 shows an arbitrary triangular polygon on the three-dimensional head model. The vertices A, B, and C of the triangular polygon have attribute vectors A attr , B attr , and C attr representing the attributes of the three-dimensional head model, respectively.

【0052】ここで、属性とは、頭部3次元モデルの物
体座標値、頂点における局所座標軸、頭髪のマッピング
座標値から構成される。三角形ポリゴンABCの任意の
2辺を成すベクトルをベクトルV1,V2とすれば、ベ
クトルV1,V2を各頂点の属性ベクトルを用いて、例
えば次式(1)で示すことができる。 V1=Battr−Aattr V2=Cattr−Aattr ・・・(1)
Here, the attribute is composed of the object coordinate value of the three-dimensional head model, the local coordinate axis at the vertex, and the mapping coordinate value of the hair. Assuming that vectors forming arbitrary two sides of the triangular polygon ABC are vectors V1 and V2, the vectors V1 and V2 can be expressed by, for example, the following equation (1) using attribute vectors of respective vertices. V1 = B attr -A attr V2 = C attr -A attr (1)

【0053】ベクトルV1,V2を三角形ポリゴンAB
Cの座標軸として考えれば、三角形ポリゴンABC上の
任意の点Phは次式(2)で表すことができる。 Ph=Aattr+aV1+bV2 ・・・(2)
The vectors V1 and V2 are converted to a triangular polygon AB
Given a C axis of an arbitrary point P h on the triangular polygon ABC can be expressed by the following equation (2). P h = A attr + aV1 + bV2 ··· (2)

【0054】このとき、係数a,bは、図8に示すよう
に、任意の点Phから一方の軸に対して、他方の軸に平
行な線を下ろしたときに交わる点と任意の点Phの長さ
を、各軸ベクトルの長さで正規化したものである。
[0054] In this case, coefficients a, b, as shown in FIG. 8, with respect to one axis from any point P h, intersect point and the arbitrary point when the lower the line parallel to the other axis the length of the P h, is normalized by the length of each axis vector.

【0055】頂点A,B,Cのマッピング座標値をそれ
ぞれ(ua,va),(ub,vb),(uc,vc)とし
て、式(2)で表される点Phをマッピング座標値の要
素に関して注目すると、次式(3)が成立する。 Uh=Ua+a(Ub+Ua)+b(Uc−Ua) Vh=Va+a(Vb−Va)+b(Vc−Va) ・・・(3) 式(3)は、(U,V)空間における任意の点に対して
成立している。
[0055] vertex A, B, respectively a mapping coordinate values of C (u a, v a) , (u b, v b), (u c, v c) as a point represented by the formula (2) P When h is focused on the elements of the mapping coordinate values, the following equation (3) is established. U h = U a + a ( U b + U a) + b (U c -U a) V h = V a + a (V b -V a) + b (V c -V a) ··· (3) Equation (3 ) Holds for any point in the (U, V) space.

【0056】いま、カウンタ値u=up、カウンタ値v
=vpである場合、頭髪データがマッピングされるべき
頭部3次元モデル上の点Phが三角形ポリゴンの内部に
あるための条件は次式(4)で表される。 a+b≦1 ・・・(4)
[0056] Now, the counter value u = u p, counter value v
= V if it is p, the condition for the point P h on the 3D head model to hair data is mapped is inside the triangular polygon is expressed by the following equation (4). a + b ≦ 1 (4)

【0057】つまり、頭部3次元モデルの任意の三角形
ポリゴンにおいて、式(3)に、u h=up、vh=vp
代入して求めた係数a,bが、式(4)を満たす場合、
点P hは、当該三角形ポリゴンの内部に存在するので、
髪型データ配列の(up,vp)で表される頭髪データ
は、当該三角形ポリゴン上にマッピングされることにな
る。したがって、このときの頭髪データの頭部3次元モ
デルへのマッピング位置は、マッピングされる三角形ポ
リゴンにおいて式(2)を用いて計算される。
That is, an arbitrary triangle of the three-dimensional head model
In the polygon, in equation (3), u h= Up, Vh= VpTo
When the coefficients a and b obtained by the substitution satisfy Expression (4),
Point P hExists inside the triangular polygon,
(U in the hairstyle data arrayp, Vp) Hair data represented by
Will be mapped onto the triangular polygon.
You. Therefore, the head 3D model of the hair data at this time is
The mapping position to Dell is determined by the triangle point to be mapped.
Calculated using equation (2) in Ligon.

【0058】図6に戻り、ステップS14において、マ
ッピング位置計算部22は、マッピングされる頭部3次
元モデルの三角形ポリゴンが、頭髪生成領域か否かを判
定する。この判定は、頭部3次元モデルの各三角形ポリ
ゴンに付与されている頭髪データをマッピングするか否
かを示すフラグ(正、または負)に基づいて行われる。
Returning to FIG. 6, in step S14, the mapping position calculation unit 22 determines whether or not the triangular polygon of the three-dimensional model of the head to be mapped is a hair generation area. This determination is made based on a flag (positive or negative) indicating whether to map the hair data assigned to each triangular polygon of the three-dimensional head model.

【0059】ステップS13の処理で求められたマッピ
ング位置を含む三角形ポリゴンのマッピングフラグが正
である場合、当該三角形ポリゴンは頭髪生成領域である
と判定し、ステップS15に進む。
If the mapping flag of the triangular polygon including the mapping position obtained in the process of step S13 is positive, it is determined that the triangular polygon is a hair generation area, and the process proceeds to step S15.

【0060】ステップS15において、頭髪データ補間
処理部23は、(up,vp)で表されるマッピングされ
るべき頭髪データを、髪型データ配列に格納されている
頭髪データを用いて補間する。補間方法は、4近傍点の
平均値を用いてもよいし、4近傍点の加重平均値を用い
てもよいし、補間をせずに最近傍点をそのまま用いても
よい。
[0060] In step S15, the hair data interpolation processing unit 23 interpolates using hair data stored (u p, v p) the hair data to be mapped represented by the hairstyle data array. As the interpolation method, an average value of four neighboring points may be used, a weighted average value of four neighboring points may be used, or the nearest neighbor point may be used without interpolation.

【0061】図9は、4近傍点からの加重平均値を用い
る方法を示している。いま、カウンタ値u=up、カウ
ンタ値v=vpであるとき、マッピングされる頭髪デー
タの髪型データ配列アドレスはPa=(mp,np)=
(up・umax,vp・vmax)である。点Paにおける頭
髪データをHpとして、近傍4点を、図9に示すように
点P1乃至P4として、点P1乃至P4のそれぞれにお
ける頭髪データをH1乃至H4とする。
FIG. 9 shows a method of using a weighted average value from four neighboring points. Now, the counter value u = u p, when the counter value v = v p, hairstyle data array address of the hair data mapped is P a = (m p, n p) =
(U p · u max, v p · v max) is. As Hp the hair data at point P a, the 4-point neighborhood, as the point P1 to P4 as shown in FIG. 9, the hair data at each point P1 to P4 to as H1 to H4.

【0062】4近傍点からの加重平均方法では、マッピ
ングされる頭髪データHpは、次式(5)を用いて4近
傍点のデータから補間する。 Hp=dm(dn・H2+(1−dn)H1) +(1−dm)(dn・H4+(1−dn)H3)) ・・・(5)
In the weighted averaging method from the four neighboring points, the hair data Hp to be mapped is interpolated from the data of the four neighboring points using the following equation (5). Hp = dm (dn · H2 + (1-dn) H1) + (1-dm) (dn · H4 + (1-dn) H3)) (5)

【0063】ここで、頭髪データが図7(A)に示したよ
うな3次B-spline曲線等の空間曲線でである場合には、
頭髪データの補間処理は、各制御点のデータの補間で求
められる。一方、頭髪データが図7(B)に示したような
ポリゴンモデルである場合には、頭髪データの補間処理
は、各ポリゴン頂点データの補間で求められる。なお、
式(4)におけるdmはmpの小数部であり、dnはnp
の小数部である。
Here, when the hair data is a space curve such as a cubic B-spline curve as shown in FIG.
The interpolation processing of the hair data is obtained by interpolating the data of each control point. On the other hand, when the hair data is a polygon model as shown in FIG. 7B, the interpolation processing of the hair data is obtained by interpolating each polygon vertex data. In addition,
In the equation (4), dm is a decimal part of m p , and dn is n p
Is the decimal part.

【0064】図6に戻り、ステップS16において、座
標変換部24は、補間処理された頭髪データを、頭髪デ
ータの物体座標系から頭部3次元モデルの物体座標系に
座標変換する。
Referring back to FIG. 6, in step S16, the coordinate conversion unit 24 converts the interpolated hair data from the object coordinate system of the hair data to the object coordinate system of the three-dimensional head model.

【0065】座標変換の概念について、図10を参照し
て説明する。髪型データ配列における任意の頭髪データ
をHとする。頭髪データHは、頭髪データの物体座標系
(I,J,K)で表されている。頭髪データの物体座標
系(I,J,K)は、頭髪データHの始点を原点とする
3次元座標系であれば任意であり、例えば、髪型データ
配列の横方向をI、縦方向をJとし、それらに直交する
方向をKとするような直交座標系である。このようにし
て、頭髪データHの始点は(I,J,K)=(0,0,
0)で表され、その他の制御点は頭髪データの始点から
の相対位置で表されている。
The concept of coordinate conversion will be described with reference to FIG. Let H be any hair data in the hairstyle data array. The hair data H is represented in the object coordinate system (I, J, K) of the hair data. The object coordinate system (I, J, K) of the hair data is arbitrary as long as it is a three-dimensional coordinate system whose origin is the starting point of the hair data H. For example, the horizontal direction of the hairstyle data array is I, and the vertical direction is J. And a direction orthogonal to them as K. Thus, the starting point of the hair data H is (I, J, K) = (0, 0,
0), and the other control points are represented by relative positions from the start point of the hair data.

【0066】一方、頭部3次元モデルは物体座標系
(X,Y,Z)で表されている。頭部3次元モデルの物
体座標系は、一般的には3次元直交座標系であり、例え
ば、頭部の重心位置を原点として、右耳方向をX、頭頂
方向をY、鼻方向をZとするような直交座標系である。
On the other hand, the three-dimensional head model is represented by the object coordinate system (X, Y, Z). The object coordinate system of the head three-dimensional model is generally a three-dimensional orthogonal coordinate system. For example, with the center of gravity of the head as the origin, the right ear direction is X, the parietal direction is Y, and the nose direction is Z. It is an orthogonal coordinate system such as

【0067】座標変換部24では、頭髪データの物体座
標系(I,J,K)で表されている頭髪データHを、ス
テップS13で求められた頭部3次元モデルのマッピン
グ位置Phにおける局所座標系(T,S,N)に変換す
る。この点Phにおける局所座標系(T,S,N)は、
点Phを原点とする3次元座標系であれば任意であり、
例えば、点Phにおける法線方向ベクトルをNとし、頭
部3次元モデルの縦方向の中心軸(図10におけるY
軸)から点Phに向かう放射線方向ベクトルと法線方向
ベクトルNの外積として求められる接線方向ベクトルを
Tとし、法線方向Nと接線方向Tと直交するベクトルを
Sとするような直交座標系である。
[0067] The coordinate transformation unit 24, the object coordinate system of the hair data (I, J, K) the hair data H, represented by the local at the mapping position P h of the 3D head model which is obtained in step S13 Convert to a coordinate system (T, S, N). Local coordinate system in this respect P h (T, S, N ) is
Any three-dimensional coordinate system with the point Ph as the origin is arbitrary.
For example, the normal vector at the point P h and N, Y in the longitudinal direction of the central axis (FIG. 10 of the 3D head model
The tangential vector is determined as the outer product of the radiation direction vector from the axis) to a point P h and normal vector N is T, the orthogonal coordinate system as the S vector perpendicular to the normal direction N and tangential direction T It is.

【0068】ここで、頭部3次元モデルの各頂点におけ
る局所座標系は、頭部データベースに予め与えられてい
るものとする。従って、点Phにおける局所座標系
(T,S,N)は、マッピング位置の計算と同様に、マ
ッピングされる三角形ポリゴンにおいて式(2)を用い
て計算される。いま、頭髪データHの任意の制御点Ci
の物体座標系(I,J,K)におけるデータを(i,
j,k)とすると、制御点Ciは、点Phにおける局所
座標系(T,S,N)において、次式(6)で表され
る。 Ci=iT+jS+kN ・・・(6)
Here, it is assumed that the local coordinate system at each vertex of the three-dimensional head model is given in advance to the head database. Therefore, the local coordinate system at the point P h (T, S, N), as well as the calculation of the mapping position is calculated using equation (2) in the triangle polygon is mapped. Now, an arbitrary control point Ci of the hair data H
In the object coordinate system (I, J, K) of (i, J, K)
j, k) and when the control points Ci is the local coordinate system at the point P h (T, S, N) in is expressed by the following equation (6). Ci = iT + jS + kN (6)

【0069】ここで、局所座標系(T,S,N)の各単
位ベクトルは、頭部3次元モデルの物体座標系(X,
Y,Z)の値を持っている。
Here, each unit vector of the local coordinate system (T, S, N) corresponds to the object coordinate system (X,
Y, Z).

【0070】従って、式(6)で表される制御点Ci
は、頭部3次元モデルの物体座標系(X,Y,Z)で表
されることになる。
Therefore, the control point Ci represented by the equation (6)
Is expressed in the object coordinate system (X, Y, Z) of the three-dimensional head model.

【0071】図6に戻り、ステップS17において、マ
ッピング位置計算部22は、カウンタ値uが1.0を超
過したか否かを判定する。カウンタ値uが1.0を超過
していないと判定された場合、ステップS18に進む。
ステップS18において、マッピング位置計算部22
は、カウンタ値uを刻み値duだけインクリメントす
る。刻み値duは、髪型データ配列に格納されている頭
髪データを横方向にどの程度の間隔でマッピングするか
を示す値である。
Returning to FIG. 6, in step S17, the mapping position calculating section 22 determines whether or not the counter value u has exceeded 1.0. When it is determined that the counter value u has not exceeded 1.0, the process proceeds to step S18.
In step S18, the mapping position calculation unit 22
Increments the counter value u by the step value du. The step value du is a value indicating at what interval the hair data stored in the hairstyle data array is mapped in the horizontal direction.

【0072】その後、ステップS13に戻り、以降の処
理が繰り返され、ステップS17において、カウンタ値
uが1.0を超過したと判定された場合、横方向のマッ
ピング処理が髪型データ配列の1行の終わりに到達した
ことを意味するので、ステップS19に進む。
Thereafter, the process returns to step S13, and the subsequent processes are repeated. If it is determined in step S17 that the counter value u has exceeded 1.0, the horizontal mapping process is performed for one row of the hairstyle data array. Since it means that the end has been reached, the process proceeds to step S19.

【0073】ステップS19において、マッピング位置
計算部22は、カウンタ値vが1.0を超過したか否か
を判定する。カウンタ値vが1.0を超過していないと
判定された場合、ステップS20に進む。ステップS2
0において、マッピング位置計算部22は、カウンタ値
vを刻み値dvだけインクリメントする。刻み値dv
は、髪型データ配列に格納されている頭髪データを縦方
向にどの程度の間隔でマッピングするかを示す値であ
る。
In step S19, the mapping position calculator 22 determines whether the counter value v has exceeded 1.0. When it is determined that the counter value v does not exceed 1.0, the process proceeds to step S20. Step S2
At 0, the mapping position calculation unit 22 increments the counter value v by the step value dv. Step value dv
Is a value indicating at what interval the hair data stored in the hairstyle data array is mapped in the vertical direction.

【0074】その後、ステップS12に戻り、以降の処
理が繰り返され、ステップS19において、カウンタ値
vが1.0を超過したと判定された場合、全ての行のマ
ッピング処理が終了したことを意味するので、当該頭髪
マッピング処理は終了され、図3のステップS5に進む
ことになる。
Thereafter, the flow returns to step S12, and the subsequent processing is repeated. If it is determined in step S19 that the counter value v has exceeded 1.0, it means that the mapping processing for all rows has been completed. Therefore, the hair mapping process ends, and the process proceeds to step S5 in FIG.

【0075】なお、ステップS14において、ステップ
S13の処理で求められたマッピング位置を含む三角形
ポリゴンのマッピングフラグが負である場合、当該三角
形ポリゴンは頭髪生成領域ではないと判定され、ステッ
プS15およびステップS16の処理はスキップされ
る。
In step S14, if the mapping flag of the triangular polygon including the mapping position obtained in the processing of step S13 is negative, it is determined that the triangular polygon is not a hair generation area, and steps S15 and S16 Is skipped.

【0076】このようにマッピングフラグを用いて頭髪
生成領域を指定することにより、髪型データベース7か
ら読み出した髪型データを構成する全ての頭髪データを
マッピングせずに、頭部3次元モデルの任意の領域だけ
にマッピングさせることが可能である。したがって、例
えば、いわゆるモヒカン刈りのような髪型や、星型に刈
り込んだ髪型などを簡単に生成することができる。
By specifying the hair generation area using the mapping flag in this manner, all the hair data constituting the hairstyle data read out from the hairstyle database 7 are not mapped, and an arbitrary area of the head three-dimensional model is mapped. It is possible to map only. Therefore, for example, a hairstyle such as a so-called mohawk haircut or a haircut cut into a star shape can be easily generated.

【0077】また、この髪型マッピング処理によれば、
髪型データベース7に記憶されている各髪型データは、
頭髪の物体座標系で表現されており、人物頭部の形状に
は依存せず、任意の形状の頭部3次元モデルにマッピン
グが可能である。
According to the hairstyle mapping process,
Each hairstyle data stored in the hairstyle database 7 is
It is expressed in the object coordinate system of the hair, and can be mapped to a three-dimensional model of the head of an arbitrary shape without depending on the shape of the human head.

【0078】次に、髪型データベース7のデータ構造に
ついて、図11を参照して説明する。髪型データベース
7は、複数の髪型データから構成される。髪型データ
は、上述したように2次元配列であり、先頭に配列の横
方向のデータ数umax、縦方向のデータ数vmaxが記述さ
れ、以降にumax×vmax本分の頭髪データが記述されて
いる。
Next, the data structure of the hairstyle database 7 will be described with reference to FIG. The hairstyle database 7 includes a plurality of hairstyle data. The hairstyle data is a two-dimensional array as described above, and the number of data u max in the horizontal direction and the number of data v max in the vertical direction of the array are described at the beginning, and thereafter, u max × v max pieces of hair data are described. It has been described.

【0079】頭髪データには、先頭にグループ情報(後
述)が記述されることがある。以降には、頭髪データが
頭髪データが3次パラメトリック曲線等で近似される場
合、複数の制御点データが記述される。制御点データ
は、頭髪物体座標系(I,J,K)で表現される。
In the hair data, group information (described later) may be described at the head. Hereinafter, when the hair data is approximated by a cubic parametric curve or the like, a plurality of control point data are described. The control point data is expressed in the hair object coordinate system (I, J, K).

【0080】なお、頭髪データは、3次元ポリゴンデー
タであってもよい。この場合、頭髪データとして、複数
のポリゴン頂点データが記述される。
The hair data may be three-dimensional polygon data. In this case, a plurality of polygon vertex data is described as hair data.

【0081】頭髪データに記述されたグループ情報につ
いて説明する。グループ情報は、上述した髪型マッピン
グ処理(図6)のステップS15の頭髪データ補間処理
において用いることが可能である。
The group information described in the hair data will be described. The group information can be used in the hair data interpolation process in step S15 of the hair style mapping process (FIG. 6) described above.

【0082】グループ情報が与えられている場合におけ
る頭髪データ補間処理について、図12を参照にして説
明する。いま、カウンタ値u=up、カウンタ値v=vp
であるとき、マッピングされる頭髪データの髪型データ
配列でのアドレスはPa=(mp,np)=(up
max,vp・vmax)である。
The hair data interpolation process when group information is given will be described with reference to FIG. Now, the counter value u = u p, counter value v = v p
When it is, the address of hairstyle data array of the hair data mapped P a = (m p, n p) = (u p ·
u max , v p · v max ).

【0083】点Paにおける頭髪データをHpとし、近
傍4点を、図12に示すように点P1乃至P4とし、点
P1乃至P4のそれぞれの頭髪データをH1乃至H4と
する。さらに、頭髪データH1には、グループ情報とし
て1が記述され、頭髪データH2乃至H4には、グルー
プ情報として2が記述されているとする。すなわち、こ
の例においては、頭髪データH1だけがグループ1に属
し、その他の頭髪データH2乃至H4は、グループ2に
属している。グループ情報が与えられている場合、頭髪
データ補間処理では、同じグループに属する頭髪データ
だけを用いて補間が行われる。
[0083] and Hp the hair data at point P a, the 4-point near the points P1 to P4 as shown in FIG. 12, each of the hair data of the point P1 to P4 to as H1 to H4. Further, it is assumed that 1 is described as group information in the hair data H1, and 2 is described as group information in the hair data H2 to H4. That is, in this example, only the hair data H1 belongs to the group 1 and the other hair data H2 to H4 belong to the group 2. When group information is given, in the hair data interpolation processing, interpolation is performed using only hair data belonging to the same group.

【0084】具体的には、始めにマッピングされる点P
aの4近傍点のうち、最近傍点が求められ、そのグルー
プ情報が取得される。図12の場合、最近傍点は点P3
である。次に、4近傍点P1乃至P4のうち、最近傍点
と同じグループに属する近傍点の数が求められる。
Specifically, the point P to be mapped first is
Of the four adjacent points of a, nearest neighbor is determined, the group information is obtained. In the case of FIG. 12, the nearest point is the point P3.
It is. Next, the number of neighboring points belonging to the same group as the nearest neighboring point among the four neighboring points P1 to P4 is obtained.

【0085】4近傍点P1乃至P4のうち、最近傍点と
同じグループに属する近傍点が他にない場合、最近傍点
の頭髪データがそのまま点Paにも用いられる。
[0085] 4 of the neighboring point P1 to P4, neighboring points belonging recently to the same group as neighbor if no other closest point of the hair data are directly be used in the point P a.

【0086】4近傍点P1乃至P4のうち、最近傍点と
同じグループに属する近傍点の数が最近傍点を含めて2
である場合、補間には当該2点間の線形補間値が用いら
れる。
Of the four neighboring points P1 to P4, the number of neighboring points belonging to the same group as the nearest point is 2 including the nearest point.
, The linear interpolation value between the two points is used for the interpolation.

【0087】4近傍点P1乃至P4のうち、最近傍点と
同じグループに属する近傍点の数が最近傍点を含めて3
である場合、すなわち、図12に示すような場合、次式
(7)によって補間値が計算される。 Hp=(1−r)H32+r・H34 H32=dn・H2+(1−dn)H3 H34=dn・H4+(1−dn)H3 r=(mp−m32)/(m34−m32) ・・・(7)
Among the four neighboring points P1 to P4, the number of neighboring points belonging to the same group as the nearest point is 3 including the nearest point.
, That is, in the case as shown in FIG. 12, the interpolation value is calculated by the following equation (7). Hp = (1-r) H32 + r · H34 H32 = dn · H2 + (1-dn) H3 H34 = dn · H4 + (1-dn) H3 r = (m p -m32) / (m34-m32) ··· ( 7)

【0088】ただし、dnはnpの小数部であり、m3
2は点P32でのmアドレスであり、m34は点P34
でのmアドレスである。
Where dn is the decimal part of n p and m3
2 is the m address at point P32, and m34 is the point P34.
Is the m address.

【0089】このようにして、頭髪データにグループ情
報を記述しておくことにより、例えば、髪の毛の分け目
のような補間によって不都合が生じるような髪形も表現
できるようになる。つまり、分け目を境にしてグループ
分けをしておけば、4近傍点が分け目をまたがるような
場合においても、分け目の両側の頭髪データを用いて不
自然な頭髪が生成されてしまうようなことを抑止するこ
とができる。
In this manner, by describing the group information in the hair data, it is possible to express a hairstyle that causes inconvenience due to interpolation, such as a division of hair. In other words, if the grouping is performed at the boundary, even if the four neighboring points straddle the boundary, unnatural hair may be generated using the hair data on both sides of the boundary. Can be deterred.

【0090】次に、上述した髪型マッピング処理(図
6)のステップS16の処理における座標変換の応用例
について、図12および図13を参照して説明する。
Next, an application example of coordinate transformation in the processing of step S16 of the above-described hairstyle mapping processing (FIG. 6) will be described with reference to FIGS.

【0091】ステップS16の座標変換処理において、
乱数を用いて髪型のばらつきを表現することが可能であ
る。図13(A)に示す髪型のばらつきを表現していない
状態に対して、図13(B)は、座標変換において、乱数
を用いて局所座標系を回転させることによって、髪型の
ばらつきを表現した状態の一例を示している。
In the coordinate conversion process of step S16,
It is possible to express the variation of the hairstyle using random numbers. FIG. 13B illustrates the hairstyle variation by rotating the local coordinate system using random numbers in the coordinate transformation, whereas the hairstyle variation illustrated in FIG. 13A is not represented. 4 shows an example of a state.

【0092】具体的には、頭部の局所座標系(T,S,
N)を、Nを軸にして、発生した乱数に対応して軸回転
を行った後、頭部モデルの物体座標系(X,Y,Z)に
変換する。このような処理により、頭髪データがマッピ
ングされる位置を変えることなく、一本一本の頭髪の生
える方向を微妙に変化させることができる。
Specifically, the local coordinate system (T, S,
After N) is rotated around the axis of N with respect to the generated random number, it is converted to the object coordinate system (X, Y, Z) of the head model. By such a process, the direction in which each hair grows can be slightly changed without changing the position where the hair data is mapped.

【0093】図14(A)に示す髪型のばらつきを表現し
ていない状態に対して、図14(B)は、座標変換におい
て、乱数を用いてマッピング位置を変化させることによ
って、髪型のばらつきを表現した状態の一例を示してい
る。
FIG. 14 (B) shows a variation of the hairstyle by changing the mapping position using random numbers in the coordinate transformation, while the variation of the hairstyle shown in FIG. 14 (A) is not represented. An example of the expressed state is shown.

【0094】具体的には、局所座標系(T,S,N)の
原点であるPhの位置を、発生した乱数に対応してPn
ずらした後、頭部モデルの物体座標系(X,Y,Z)に
変換する。このような処理により、髪型を変えることな
く、頭髪の生える位置を微妙に変化させることができ
る。
[0094] Specifically, the local coordinate system (T, S, N) the position of P h is the origin of, after shifting to the P n corresponding to the generated random number, the object coordinate system of the head model ( X, Y, Z). By such a process, the position where the hair grows can be finely changed without changing the hairstyle.

【0095】なお、乱数を用いて、変換する座標系の軸
を回転させたり、原点を移動することにより、合成した
画像に自然なばらつきを表現させることは、頭髪の画像
を合成するとき以外にも適用することが可能である。
It is to be noted that the use of random numbers to rotate the axis of the coordinate system to be transformed or to move the origin to express a natural variation in the synthesized image is not limited to the synthesis of the hair image. It is also possible to apply.

【0096】ところで、この頭髪合成システムでは、3
次元頭部再構築処理部3により頭部3次元モデルを任意
の形状に変形させた後、髪型データをマッピングするこ
とができる。図15(A)に示す頭部3次元モデルを変形
させていない状態に対して、図15(B)は、頭部3次元
モデルをY軸方向に1.5倍に拡大した状態を示してい
る。
In this hair synthesis system, 3
After the three-dimensional head model is transformed into an arbitrary shape by the three-dimensional head reconstruction processing unit 3, the hairstyle data can be mapped. FIG. 15B shows a state in which the three-dimensional head model shown in FIG. 15A is not deformed, and the three-dimensional head model is enlarged 1.5 times in the Y-axis direction. I have.

【0097】頭部3次元モデルの拡大縮小処理は、アフ
ィン変換処理によって行う。このとき、頭部3次元モデ
ルの任意のポリゴン頂点に与えられている局所座標系
(T,S,N)についても同様のアフィン変換処理を行
う。
The enlargement / reduction processing of the three-dimensional head model is performed by affine transformation processing. At this time, the same affine transformation processing is performed for the local coordinate system (T, S, N) given to an arbitrary polygon vertex of the head three-dimensional model.

【0098】図15(B)に示すように、頭部3次元モデ
ルをY軸方向に1.5倍に拡大する場合には、Y軸方向に
1.5倍する変換行列が、T,S,Nのそれぞれのベク
トルにかけられて、縦方向に引き伸ばされた局所座標系
(T’,S’,N’)が得られる。このように変形され
た局所座標系(T’,S’,N’)に頭髪データHをマ
ッピングすることによって、髪型は頭部に合わせてY軸
方向に1.5倍に拡大されたような形状になる。このよ
うな処理により、同じ髪型データを、任意の形状に変形
させた頭部3次元モデルにマッピングすることができ
る。
As shown in FIG. 15 (B), when the three-dimensional head model is enlarged 1.5 times in the Y-axis direction, the transformation matrix for 1.5 times in the Y-axis direction is T, S , N to obtain a local coordinate system (T ′, S ′, N ′) which is stretched in the vertical direction. By mapping the hair data H to the local coordinate system (T ′, S ′, N ′) thus deformed, the hairstyle is enlarged 1.5 times in the Y-axis direction in accordance with the head. Shape. By such processing, the same hairstyle data can be mapped to a three-dimensional head model deformed into an arbitrary shape.

【0099】次に、髪型データの生成について、図16
を参照して説明する。図16は、頭部を取巻く円柱座標
系を示している。円柱座標系は、円柱の中心を通る軸を
Y軸とし、Y軸に垂直な平面上のY軸からの距離をrと
し、この平面上において基準方向からの角度をθとする
座標系である。
Next, generation of hairstyle data will be described with reference to FIG.
This will be described with reference to FIG. FIG. 16 shows a cylindrical coordinate system surrounding the head. The cylinder coordinate system is a coordinate system in which an axis passing through the center of the cylinder is the Y axis, a distance from the Y axis on a plane perpendicular to the Y axis is r, and an angle from the reference direction on this plane is θ. .

【0100】頭部表面の任意の点Phは、円柱座標系を
用いてPh=(yp,rp,θp)と表すことができる。さ
らに、円柱座標系のY=yp、θ=θpで定まる直線と頭
部表面の接点が必ず1点だけである場合、頭部表面の任
意の点Phは(yp,θp)で表現することができる。
[0100] Any point P h of the head surface can be expressed P h = using cylindrical coordinates (y p, r p, θ p) and. Furthermore, in the case of the cylindrical coordinate system Y = y p, the contact lines and the head surface determined by theta = theta p is only always one point, any point P h of the head surface expressed in (yp, theta] p) can do.

【0101】つまり、頭部表面の形状が円周方向に向か
って常に凸であれば、上記条件(円柱座標系のY=
p、θ=θpで定まる直線と頭部表面の接点が必ず1点
だけである)を満たすことになる。
That is, if the shape of the head surface is always convex in the circumferential direction, the above condition (Y = Y in the cylindrical coordinate system)
(the point of contact between the straight line defined by y p and θ = θ p and the surface of the head is always one point).

【0102】顔を除いた頭皮部分を考えてみると、一般
的には円周方向に向かって常に凸であると考えられるた
め、頭部モデルの頭皮部分の任意の点PhをPh=(y
p,θp)で表現することが可能である。
[0102] Considering the scalp portion excluding the face, because in general considered to be always convex toward the circumferential direction, an arbitrary point P h of the scalp portion of the head model P h = (Y
p, θp).

【0103】髪型データの作成は、「岸、三枝、森
島、”房モデルによるヘアデザインシステムの開発”、
信学技報、MVE97-102,pp.67-74,1998」に開示されてい
るシステムを用いることによって、比較的容易に行うこ
とができる。そのシステムでは、与えられた頭部モデル
上に生成した頭髪データを編集することによって髪型デ
ータを作成する。このシステムから出力される頭髪デー
タは、与えられた頭部モデルの物体座標系で表現されて
いる。
The hairstyle data creation is described in “Kishi, Saegusa, Morishima,“ Development of Hair Design System Using Tuft Model ””,
By using the system disclosed in IEICE Technical Report, MVE97-102, pp. 67-74, 1998, it can be performed relatively easily. In that system, hairstyle data is created by editing the hair data generated on a given head model. Hair data output from this system is expressed in the object coordinate system of a given head model.

【0104】本発明の頭髪データベース7には、この頭
髪データを円柱座標系の(y,θ)で表される空間にマ
ッピングすることによって2次元配列に格納した髪型デ
ータが記録されている。(y,θ)空間から、図7に示
すような2次元配列の(u,v)空間への変換は、例え
ば、次式(8)が用いられる。 u=θp/2π v=(yp−ymin)/(ymax−ymin) ・・・(8)
The hair database 7 of the present invention records hairstyle data stored in a two-dimensional array by mapping this hair data to a space represented by (y, θ) in a cylindrical coordinate system. For conversion from the (y, θ) space to the (u, v) space of a two-dimensional array as shown in FIG. 7, for example, the following equation (8) is used. u = θ p / 2π v = (y p -y min) / (y max -y min) ··· (8)

【0105】ここで、yminは、頭部表面の円柱座標系
のY軸の最小値であり、ymaxは、頭部表面の円柱座標
系のY軸の最大値である。
Here, y min is the minimum value of the Y axis in the cylindrical coordinate system on the head surface, and y max is the maximum value of the Y axis in the cylindrical coordinate system on the head surface.

【0106】(y、θ)空間から(u,v)空間への変
換は非線形でもよく、例えば、頭頂部に近くなるほど、
v方向の刻みを小さくするような変換をするようにすれ
ば、頭頂部近辺のサンプリングが粗くなってしまうこと
を避けるようにすることができる。
The conversion from the (y, θ) space to the (u, v) space may be non-linear. For example, the closer to the top of the head, the more
By performing the conversion so as to reduce the step in the v direction, it is possible to prevent the sampling near the top of the head from becoming coarse.

【0107】以上のように(u,v)空間に変換された
頭髪データから成る髪型データが髪型データベース7に
は記録されている。
The hairstyle data composed of the hair data converted into the (u, v) space as described above is recorded in the hairstyle database 7.

【0108】なお、本発明は、CGにより髪の毛以外の
糸状物体を表現する場合にも適用することが可能であ
る。
The present invention can be applied to a case where a thread-like object other than hair is represented by CG.

【0109】ところで、画像処理装置2の上述した一連
の処理は、ハードウェアにより実行させることもできる
が、ソフトウェアにより実行させることもできる。一連
の処理をソフトウェアにより実行させる場合には、その
ソフトウェアを構成するプログラムが、専用のハードウ
ェアに組み込まれているコンピュータ、または、各種の
プログラムをインストールすることで、各種の機能を実
行することが可能な、例えば汎用のパーソナルコンピュ
ータなどに、記録媒体からインストールされる。
The above-described series of processes of the image processing apparatus 2 can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a computer built into dedicated hardware or installing various programs. It is installed from a recording medium into a possible general-purpose personal computer or the like.

【0110】図17は、画像処理装置2を実現するパー
ソナルコンピュータの構成例を示している。このパーソ
ナルコンピュータは、CPU(Central Processing Unit)4
1を内蔵している。CPU41にはバス44を介して、入
出力インタフェース45が接続されている。入出力イン
タフェース45には、コントローラ8に相当するキーボ
ード、マウスなどの入力デバイスよりなる入力部46、
処理結果としての髪型整合画像を表示装置9に出力する
画像出力部47、プログラムや各種データを格納するハ
ードディスクドライブなどよりなる記憶部48、インタ
ネット等を介してデータを通信する通信部49、およ
び、磁気ディスク51乃至半導体メモリ54などの記録
媒体に対してデータを読み書きするドライブ50が接続
されている。バス44には、ROM(Read Only Memory)4
2およびRAM(Random Access Memory)43が接続されて
いる。
FIG. 17 shows an example of the configuration of a personal computer for realizing the image processing apparatus 2. This personal computer has a CPU (Central Processing Unit) 4
1 is built in. An input / output interface 45 is connected to the CPU 41 via a bus 44. The input / output interface 45 includes an input unit 46 including an input device such as a keyboard and a mouse corresponding to the controller 8.
An image output unit 47 that outputs a hairstyle matching image as a processing result to the display device 9; a storage unit 48 that includes a hard disk drive or the like that stores programs and various data; a communication unit 49 that communicates data via the Internet; A drive 50 for reading and writing data from and to a recording medium such as the magnetic disk 51 to the semiconductor memory 54 is connected. The bus 44 has a ROM (Read Only Memory) 4
2 and a random access memory (RAM) 43 are connected.

【0111】このパーソナルコンピュータに画像処理装
置2としての動作を実行させる画像処理用プログラム
は、磁気ディスク51乃至半導体メモリ54に格納され
た状態でパーソナルコンピュータに供給され、ドライブ
50によって読み出されて、記憶部48に内蔵されるハ
ードディスクドライブにインストールされている。記憶
部48にインストールされている画像処理用プログラム
は、入力部46に入力されるユーザからのコマンドに対
応するCPU41の指令によって、記憶部48からRAM43
にロードされて実行される。
An image processing program for causing the personal computer to execute the operation as the image processing apparatus 2 is supplied to the personal computer in a state where it is stored in the magnetic disk 51 to the semiconductor memory 54, read out by the drive 50, and It is installed in a hard disk drive built in the storage unit 48. The image processing program installed in the storage unit 48 is transmitted from the storage unit 48 to the RAM 43 by a command from the CPU 41 corresponding to a command from the user input to the input unit 46.
Is loaded and executed.

【0112】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
In this specification, the steps for describing the program recorded on the recording medium are not limited to the processing performed in chronological order according to the described order, but are not necessarily performed in chronological order. Alternatively, it also includes individually executed processing.

【0113】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0114】[0114]

【発明の効果】以上のように、請求項1に記載の画像処
理装置、請求項7に記載の画像処理方法、および請求項
8に記載の記録媒体のプログラムによれば、髪型データ
が記録されているデータベースから読み出した髪型デー
タに含まれる1本の髪の毛に対応する頭髪データを、頭
部の3次元形状画像の所定の位置にマッピングし、その
とき、第1の座標系で表現されている頭髪データを、頭
部の3次元形状画像が表現されている第2の座標系のデ
ータに変換するようにしたので、CGによって1本毎に
表現する頭髪の髪型を、複数の異なる頭部形状に対応し
て変化させることが可能となる。
As described above, according to the image processing apparatus of the first aspect, the image processing method of the seventh aspect, and the program of the recording medium of the eighth aspect, the hairstyle data is recorded. The hair data corresponding to one hair included in the hairstyle data read from the database is mapped to a predetermined position in the three-dimensional shape image of the head, and is then represented in the first coordinate system. Since the hair data is converted into data of a second coordinate system in which a three-dimensional shape image of the head is represented, the hairstyle of each hair expressed by CG can be converted into a plurality of different head shapes. Can be changed in accordance with.

【0115】また、請求項9に記載の画像処理装置、請
求項10に記載の画像処理方法、および請求項11に記
載の記録媒体のプログラムによれば、第1の座標系で表
現されている第1の画像データを、第2の画像が表現さ
れている第2の座標系のデータに変換するとき、乱数に
基づいて、座標軸回転および原点移動のうち、少なくと
も一方を変換するようにしたので、合成する画像に自然
なばらつきを与えることが可能となる。
According to the image processing apparatus of the ninth aspect, the image processing method of the tenth aspect, and the program of the recording medium of the eleventh aspect, the image is represented by the first coordinate system. When converting the first image data into the data of the second coordinate system in which the second image is expressed, at least one of the coordinate axis rotation and the origin movement is converted based on the random number. Thus, it is possible to give a natural variation to an image to be synthesized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の頭髪表現の一例を示す図である。FIG. 1 is a diagram showing an example of a conventional hair expression.

【図2】本発明の適用した頭髪合成システムの構成例を
示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration example of a hair synthesis system to which the present invention has been applied.

【図3】頭髪合成システムの動作を説明するフローチャ
ートである。
FIG. 3 is a flowchart illustrating an operation of the hair synthesis system.

【図4】頭髪合成システムの動作を説明するための図で
ある。
FIG. 4 is a diagram for explaining the operation of the hair synthesis system.

【図5】図2の髪型マッピング処理部4の構成例を示す
ブロック図である。
FIG. 5 is a block diagram illustrating a configuration example of a hairstyle mapping processing unit 4 in FIG. 2;

【図6】髪型マッピング処理部4の処理を説明するフロ
ーチャートである。
FIG. 6 is a flowchart illustrating processing of a hairstyle mapping processing unit 4;

【図7】頭髪データが2次元配列された髪型データを説
明するための図である。
FIG. 7 is a diagram for explaining hairstyle data in which hair data is two-dimensionally arranged.

【図8】図6のステップS13のマッピング位置計算を
説明するための図である。
FIG. 8 is a diagram for explaining mapping position calculation in step S13 in FIG. 6;

【図9】図6のステップS15の頭髪データ補間処理を
説明するための図である。
FIG. 9 is a diagram for explaining the hair data interpolation process in step S15 of FIG. 6;

【図10】図6のステップS16の座標変換を説明する
ための図である。
FIG. 10 is a diagram for explaining coordinate conversion in step S16 of FIG. 6;

【図11】図1の髪型データベース7のデータ構造を示
す図である。
11 is a diagram showing a data structure of a hairstyle database 7 of FIG.

【図12】頭髪データに含まれるグループ情報を用いた
補間処理を説明するための図である。
FIG. 12 is a diagram illustrating an interpolation process using group information included in hair data.

【図13】座標変換における座標軸回転を説明するため
の図である。
FIG. 13 is a diagram for explaining coordinate axis rotation in coordinate conversion.

【図14】座標変換における座標軸移動を説明するため
の図である。
FIG. 14 is a diagram for explaining coordinate axis movement in coordinate conversion.

【図15】任意に変形された頭部3次元モデルに対する
マッピングを説明するために図である。
FIG. 15 is a diagram for explaining mapping for an arbitrarily deformed three-dimensional head model.

【図16】髪型データが生成される際の円柱座標系を図
である。
FIG. 16 is a diagram illustrating a cylindrical coordinate system when hairstyle data is generated.

【図17】画像処理装置2を実現するパーソナルコンピ
ュータの構成例を示す図である。
FIG. 17 is a diagram illustrating a configuration example of a personal computer that realizes the image processing apparatus 2.

【符号の説明】[Explanation of symbols]

1 撮影装置, 2 画像処理装置, 3 3次元頭部
再構築処理部, 4髪型マッピング処理部, 5 レン
ダリング部, 6 頭部データベース, 7髪型データ
ベース, 8 コントローラ, 9 表示装置, 21
髪型データ読み出し部, 22 マッピング位置計算
部, 23 頭髪データ補間処理部, 24 座標変換
部, 51 磁気ディスク, 52 光ディスク, 5
3光磁気ディスク, 54 半導体メモリ
Reference Signs List 1 shooting device, 2 image processing device, 3 three-dimensional head reconstruction processing unit, 4 hair type mapping processing unit, 5 rendering unit, 6 head database, 7 hair type database, 8 controller, 9 display device, 21
Hairstyle data readout unit, 22 mapping position calculation unit, 23 hair data interpolation processing unit, 24 coordinate conversion unit, 51 magnetic disk, 52 optical disk, 5
3 magneto-optical disks, 54 semiconductor memory

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 頭部の3次元形状画像に頭髪画像を合成
して髪型整合画像を生成する画像処理装置において、 髪型データが記録されているデータベースから前記髪型
データを読み出す読み出し手段と、 前記読み出し手段が読み出した前記髪型データに含まれ
る1本の髪の毛に対応する頭髪データを、前記頭部の3
次元形状画像の所定の位置にマッピングするマッピング
手段とを含み、 前記マッピング手段はさらに、第1の座標系で表現され
ている前記頭髪データを、前記頭部の3次元形状画像が
表現されている第2の座標系のデータに変換する座標変
換手段を含むことを特徴とする画像処理装置。
1. An image processing apparatus for generating a hairstyle matching image by combining a hair image with a three-dimensional shape image of a head, wherein the hairstyle data is read from a database in which hairstyle data is recorded; The hair data corresponding to one hair included in the hair style data read out by the means is stored in the 3D of the head.
Mapping means for mapping to a predetermined position of a three-dimensional shape image, wherein the mapping means further expresses the hair data expressed in a first coordinate system in a three-dimensional shape image of the head. An image processing apparatus, comprising: a coordinate conversion unit that converts data into data of a second coordinate system.
【請求項2】 前記座標変換手段は、前記第1の座標系
で表現されている前記頭髪データを、前記頭部の表面に
原点を有する局所座標系のデータに変換した後、前記頭
部の3次元形状画像が表現されている前記第2の座標系
のデータに変換することを特徴とする請求項1に記載の
画像処理装置。
2. The method according to claim 1, wherein the coordinate conversion unit converts the hair data expressed in the first coordinate system into data in a local coordinate system having an origin on the surface of the head. The image processing apparatus according to claim 1, wherein the image data is converted into data of the second coordinate system representing a three-dimensional shape image.
【請求項3】 前記座標変換手段は、前記第1の座標系
で表現されている前記頭髪データを、前記頭部の3次元
形状画像が表現されている前記第2の座標系のデータに
変換するとき、乱数に基づいて、座標軸回転および原点
移動のうち、少なくとも一方を実行することを特徴とす
る請求項1に記載の画像処理装置。
3. The coordinate conversion means converts the hair data expressed in the first coordinate system into data in the second coordinate system in which a three-dimensional shape image of the head is expressed. 2. The image processing apparatus according to claim 1, wherein, when performing, at least one of rotation of a coordinate axis and movement of an origin is executed based on a random number.
【請求項4】 前記マッピング手段はさらに、 前記頭部の3次元形状画像を任意に変形する変形手段を
含み、 前記読み出し手段が読み出した前記髪型データに含まれ
る1本の髪の毛に対応する頭髪データを、前記変形手段
が変形した前記頭部の3次元形状画像の所定の位置にマ
ッピングすることを特徴とする請求項1に記載の画像処
理装置。
4. The mapping means further includes a deformation means for arbitrarily deforming the three-dimensional image of the head, and hair data corresponding to one hair included in the hairstyle data read by the reading means. 2. The image processing apparatus according to claim 1, wherein the mapping is performed at a predetermined position of the three-dimensional shape image of the head deformed by the deforming unit.
【請求項5】 前記1本の髪の毛に対応する前記頭髪デ
ータは、複数の制御点からなる3次元曲線データである
ことを特徴とする請求項1に記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the hair data corresponding to the one hair is three-dimensional curve data including a plurality of control points.
【請求項6】 前記1本の髪の毛に対応する前記頭髪デ
ータは、複数のポリゴンからなるポリゴンデータである
ことを特徴とする請求項1に記載の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the hair data corresponding to the one hair is polygon data including a plurality of polygons.
【請求項7】 頭部の3次元形状画像に頭髪画像を合成
して髪型整合画像を生成する画像処理装置の画像処理方
法において、 髪型データが記録されているデータベースから前記髪型
データを読み出す読み出しステップと、 前記読み出しステップの処理で読み出された前記髪型デ
ータに含まれる1本の髪の毛に対応する頭髪データを、
前記頭部の3次元形状画像の所定の位置にマッピングす
るマッピングステップとを含み、 前記マッピングステップの処理ではさらに、 第1の座標系で表現されている前記頭髪データを、前記
頭部の3次元形状画像が表現されている第2の座標系の
データに変換する座標変換ステップを含むことを特徴と
する画像処理方法。
7. An image processing method of an image processing apparatus for generating a hairstyle matching image by combining a hair image with a three-dimensional shape image of a head, wherein the hairstyle data is read from a database in which hairstyle data is recorded. And hair data corresponding to one hair included in the hairstyle data read in the processing of the reading step,
And a mapping step of mapping the hair data represented in a first coordinate system to the three-dimensional shape image of the head. An image processing method including a coordinate conversion step of converting data into data of a second coordinate system in which a shape image is expressed.
【請求項8】 頭部の3次元形状画像に頭髪画像を合成
して髪型整合画像を生成する画像処理用のプログラムで
あって、 髪型データが記録されているデータベースから前記髪型
データを読み出す読み出しステップと、 前記読み出しステップの処理で読み出された前記髪型デ
ータに含まれる1本の髪の毛に対応する頭髪データを、
前記頭部の3次元形状画像の所定の位置にマッピングす
るマッピングステップとを含み、 前記マッピングステップの処理ではさらに、 第1の座標系で表現されている前記頭髪データを、前記
頭部の3次元形状画像が表現されている第2の座標系の
データに変換する座標変換ステップを含むことを特徴と
するコンピュータが読み取り可能なプログラムが記録さ
れている記録媒体。
8. A program for image processing for generating a hairstyle matching image by combining a hair image with a three-dimensional shape image of a head, and reading out the hairstyle data from a database in which hairstyle data is recorded. And hair data corresponding to one hair included in the hairstyle data read in the processing of the reading step,
And a mapping step of mapping the hair data represented in a first coordinate system to the three-dimensional shape image of the head. A recording medium on which a computer-readable program is recorded, comprising a coordinate conversion step of converting data into a second coordinate system in which a shape image is expressed.
【請求項9】 第1の画像データを第2の画像データに
合成する画像処理装置において、 第1の座標系で表現されている前記第1の画像データ
を、前記第2の画像が表現されている前記第2の座標系
のデータに変換する座標変換手段を含み、 前記座標変換手段は、 前記第1の座標系で表現されている前記第1の画像デー
タを、前記第2の画像が表現されている前記第2の座標
系のデータに変換するとき、乱数に基づいて、座標軸回
転および原点移動のうち、少なくとも一方を実行するこ
とを特徴とする画像処理装置。
9. An image processing apparatus for synthesizing first image data with second image data, wherein the first image data expressed by a first coordinate system is expressed by the second image. Coordinate conversion means for converting the first image data represented in the first coordinate system into the second image. The image processing apparatus according to claim 1, wherein at least one of rotation of a coordinate axis and movement of an origin is executed based on a random number when converting the data into the expressed second coordinate system data.
【請求項10】 第1の画像データを第2の画像データ
に合成する画像処理装置の画像処理方法において、 第1の座標系で表現されている前記第1の画像データ
を、前記第2の画像が表現されている前記第2の座標系
のデータに変換する座標変換ステップを含み、 前記座標変換ステップの処理では、 前記第1の座標系で表現されている前記第1の画像デー
タを、前記第2の画像が表現されている前記第2の座標
系のデータに変換するとき、乱数に基づいて、座標軸回
転および原点移動のうち、少なくとも一方を実行するこ
とを特徴とする画像処理方法。
10. An image processing method of an image processing apparatus for combining first image data with second image data, wherein the first image data expressed in a first coordinate system is converted to the second image data. A coordinate conversion step of converting the image data into data of the second coordinate system, wherein the processing of the coordinate conversion step includes: converting the first image data represented by the first coordinate system into: When converting into the data of the said 2nd coordinate system in which the said 2nd image is represented, at least one of coordinate axis rotation and origin movement is performed based on a random number, The image processing method characterized by the above-mentioned.
【請求項11】 第1の画像データを第2の画像データ
に合成する画像処理用のプログラムであって、 第1の座標系で表現されている前記第1の画像データ
を、前記第2の画像が表現されている前記第2の座標系
のデータに変換する座標変換ステップを含み、 前記座標変換ステップの処理では、 前記第1の座標系で表現されている前記第1の画像デー
タを、前記第2の画像が表現されている前記第2の座標
系のデータに変換するとき、乱数に基づいて、座標軸回
転および原点移動のうち、少なくとも一方を実行するこ
とを特徴とするコンピュータが読み取り可能なプログラ
ムが記録されている記録媒体。
11. An image processing program for combining first image data with second image data, wherein the first image data expressed in a first coordinate system is converted to the second image data. A coordinate conversion step of converting the image data into data of the second coordinate system, wherein the processing of the coordinate conversion step includes: converting the first image data represented by the first coordinate system into: When converting into the data of the second coordinate system in which the second image is expressed, at least one of rotation of a coordinate axis and movement of an origin is executed based on a random number, wherein the computer is readable. Media on which various programs are recorded.
JP2000112073A 2000-04-13 2000-04-13 Device and method for processing image and recording medium Withdrawn JP2001297333A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000112073A JP2001297333A (en) 2000-04-13 2000-04-13 Device and method for processing image and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000112073A JP2001297333A (en) 2000-04-13 2000-04-13 Device and method for processing image and recording medium

Publications (1)

Publication Number Publication Date
JP2001297333A true JP2001297333A (en) 2001-10-26

Family

ID=18624304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000112073A Withdrawn JP2001297333A (en) 2000-04-13 2000-04-13 Device and method for processing image and recording medium

Country Status (1)

Country Link
JP (1) JP2001297333A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059052A (en) * 2010-09-09 2012-03-22 Konami Digital Entertainment Co Ltd Image processor, image processor control method and program
WO2016131226A1 (en) * 2015-07-01 2016-08-25 中兴通讯股份有限公司 Intelligent terminal and image processing method and apparatus therefor
CN112426716A (en) * 2020-11-26 2021-03-02 网易(杭州)网络有限公司 Three-dimensional hair model processing method, device, equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059052A (en) * 2010-09-09 2012-03-22 Konami Digital Entertainment Co Ltd Image processor, image processor control method and program
WO2016131226A1 (en) * 2015-07-01 2016-08-25 中兴通讯股份有限公司 Intelligent terminal and image processing method and apparatus therefor
CN112426716A (en) * 2020-11-26 2021-03-02 网易(杭州)网络有限公司 Three-dimensional hair model processing method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2001357415A (en) Picture processing device and method, recording medium and program
JP5232358B2 (en) Rendering outline fonts
Parke Computer generated animation of faces
US7924278B2 (en) Real-time GPU rendering of piecewise algebraic surfaces
Herrera et al. Lighting hair from the inside: A thermal approach to hair reconstruction
TWI263947B (en) Image generation apparatus and image generation method
JP3466661B2 (en) Image processing apparatus and method
JP2001052194A (en) Reconfiguration for curved surface
JP2000227966A (en) 3d computer graphics processor and processing method
US20070103466A1 (en) System and Computer-Implemented Method for Modeling the Three-Dimensional Shape of An Object by Shading of a Two-Dimensional Image of the Object
US6724383B1 (en) System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object
JP2002083318A (en) Image processing device, method, and storage medium
CN113808272B (en) Texture mapping method in three-dimensional virtual human head and face modeling
Concheiro et al. Interactive rendering of NURBS surfaces
JPH06118349A (en) Spectacles fitting simulation device
US8009171B2 (en) Image processing apparatus and method, and program
JP2001297333A (en) Device and method for processing image and recording medium
US7477253B2 (en) Storage medium storing animation image generating program
JPH09138865A (en) Three-dimensional shape data processor
KR100450210B1 (en) System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function
Xu et al. Adaptive multi-resolution fitting and its application to realistic head modeling
JP2001297338A (en) Device and method for processing image and recording medium
JP2004227095A (en) Texture map formation method, program for texture map formation, and texture map formation device
JP2001084395A (en) Method and device for synthesizing three-dimensional data
Kherd et al. The Use of Biharmonic Dejdamrong Surface in Gray Image Enlargement Process

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070703