JPH1145349A - Wire frame model matching device, method therefor and recording medium - Google Patents

Wire frame model matching device, method therefor and recording medium

Info

Publication number
JPH1145349A
JPH1145349A JP9217031A JP21703197A JPH1145349A JP H1145349 A JPH1145349 A JP H1145349A JP 9217031 A JP9217031 A JP 9217031A JP 21703197 A JP21703197 A JP 21703197A JP H1145349 A JPH1145349 A JP H1145349A
Authority
JP
Japan
Prior art keywords
image
matching
wire frame
frame model
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9217031A
Other languages
Japanese (ja)
Inventor
Hiroshi Matsuzaki
弘 松崎
Hiroshi Harashima
博 原島
Masahide Kaneko
正秀 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP9217031A priority Critical patent/JPH1145349A/en
Publication of JPH1145349A publication Critical patent/JPH1145349A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to correctly extract feature point so as to obtain natural image even when side face is displayed. SOLUTION: This wire frame model matching device for matching a three- dimensional wire frame model with the image of the correspondent face is composed of a distance image input device 10 such as a range finder, arithmetic processor 30 for performing arithmetic processing based on an inputted distance image, and display device 20 for displaying the output of the arithmetic processor 30. At the arithmetic processor 30, a curvature operating part 36, beautiful part operating part 38 and feature extracting part 40 extract feature points on the face image corresponding to the control points of this wire frame model based on the information of a distance, which is inputted from the distance image input device 10, from a reference to each point on the face. Then, a matching part 42 at the arithmetic processor 30 matches the correspondent control points of this wire frame model with these respective extracted feature points on the face image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば顔画像の表
情合成を行うための顔のワイヤフレームモデルを顔画像
に整合するような、3次元ワイヤーフレームモデルを対
応する物体の画像に整合するワイヤーフレームモデル整
合装置及び方法、並びにそのような3次元ワイヤーフレ
ームモデルを対応する物体の画像に整合するための整合
プログラムを記録した機械読み取り可能な記録媒体に関
し、特に、距離画像を用いて物体の各部を自動的に特徴
抽出し、整合を行う手法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a wire for matching a three-dimensional wire frame model to a corresponding object image, for example, matching a face wire frame model for performing facial expression synthesis to a face image. The present invention relates to a frame model matching device and method, and a machine-readable recording medium storing a matching program for matching such a three-dimensional wire frame model to a corresponding object image, and in particular, to each part of an object using a distance image. Automatically extract features and perform matching.

【0002】[0002]

【従来の技術】例えば、遠隔地におけるコミュニケーシ
ョン、バーチャルリアリティ、ヒューマンインタフェー
スの分野において、顔画像を用いた画像処理で、顔の表
情を合成する技術が求められている。
2. Description of the Related Art For example, in the fields of communication in remote places, virtual reality, and human interface, a technique for synthesizing facial expressions by image processing using a facial image is required.

【0003】従来、顔画像処理において表情合成を行う
手法として、顔画像にワイヤフレームモデルを整合する
手法が用いられていた。顔画像を、ワイヤフレーム構造
で表現し、ワイヤフレームモデル上の頂点を移動するこ
とにより顔画像の変形操作を行うことにすれば、情報圧
縮の面においても有利になる。この手法は、信学論,J
73−A,1270−1280(1990)に示されて
いるように、標準的な顔の3次元形状に合わせて作成さ
れたワイヤフレームモデルを用いて、ワイヤフレームモ
デル上の制御点を、正面から撮影された顔画像の目、
鼻、口、眉、顔輪郭、髪等の特徴点に設定し、制御点以
外の点については、アフィン変換等で変換を行うことに
より、対象とする個人の顔画像にワイヤフレームモデル
を整合させるものである。この顔標準ワイヤフレームモ
デルは、FACS(Facial ActionCoding System, Cons
ulting Psychologist Press (1977))に基づいた、顔
の変形規則を用いることにより顔の表情合成を行うこと
ができるモデルとなっている。このモデルにより、顔の
基本6表情(怒り、嫌悪、恐れ、喜び、悲しみ、驚き)
を始めとして様々な表情の合成を行うことができるもの
である。
Conventionally, as a method of performing facial expression synthesis in face image processing, a method of matching a wire frame model with a face image has been used. If the face image is represented by a wireframe structure and the vertex on the wireframe model is moved to perform the face image deformation operation, it is advantageous in terms of information compression. This method is described in IEICE, J
73-A, 1270-1280 (1990), using a wireframe model created according to a standard three-dimensional shape of a face, the control points on the wireframe model are set from the front. Eyes of the face image taken,
Match the wireframe model to the target individual's face image by setting it to feature points such as nose, mouth, eyebrows, face contour, hair, etc., and transforming points other than control points by affine transformation etc. Things. This face standard wireframe model is based on the FACS (Facial Action Coding System, Cons
ulting Psychologist Press (1977)), which is a model capable of synthesizing facial expressions by using face deformation rules. With this model, six basic facial expressions (anger, disgust, fear, joy, sadness, surprise)
And various expressions can be synthesized.

【0004】また、信学論,J56−D,226−23
2(1973)や、信学技報,HC91−43(199
2)や、特開平8−77334に示されているように、
ワイヤフレームモデルを顔画像に自動整合を行うため
に、顔画像から特徴点検出を行い、抽出された特徴点に
ワイヤフレームモデルの制御点を整合させることによ
り、ワイヤフレームモデルの自動整合を行う例がある。
これは、撮影された顔画像にガウシアンフィルタやソー
ベルフィルタを作用させることによりエッジ等の特徴抽
出を行い、この特徴を顔特徴と対応付けしてワイヤフレ
ームモデルの自動整合を行うものである。
Further, IEICE, J56-D, 226-23
2 (1973), IEICE Technical Report, HC 91-43 (199
2) and as shown in JP-A-8-77334,
Example of performing automatic matching of a wireframe model by detecting feature points from a face image and matching control points of the wireframe model to extracted feature points in order to automatically match a wireframe model to a face image There is.
In this technique, a Gaussian filter or a Sobel filter is applied to a photographed face image to extract features such as edges, and the feature is associated with a face feature to automatically match a wireframe model.

【0005】さらに、信学技報,PRU92−79(1
992)に示されるように、奥行き方向も含めて正確に
わみ整合を行うために、距離画像を利用してワイヤフレ
ームモデルの奥行き情報の整合を行う手法に関して提案
されている。これは、整合が行われたワイヤフレームモ
デルに対し、各頂点の奥行き成分を正面距離画像を用い
て整合を行うものである。
Further, IEICE Technical Report, PRU92-79 (1)
992), there has been proposed a method of matching depth information of a wireframe model using a distance image in order to accurately perform deflection matching including the depth direction. In this method, the depth component of each vertex is matched using the front distance image with respect to the matched wire frame model.

【0006】[0006]

【発明が解決しようとする課題】ところが、従来の顔画
像へのワイヤフレームモデルの整合は、正面から撮影さ
れた顔画像を用いて行われているため、顔側面に対して
は正確な整合を行うことができず、横顔を表示したとき
に画像が不自然になるという課題がある。
However, since the conventional matching of the wireframe model to the face image is performed using the face image photographed from the front, accurate matching is performed for the face side. This cannot be performed, and there is a problem that an image becomes unnatural when a profile is displayed.

【0007】また、ワイヤフレームモデルの自動整合の
ための特徴点抽出において、色画像や濃淡画像を用いて
行ったものでは、照明条件など、撮影のときの条件によ
って抽出される特徴点が異なってしまう可能性があり、
常に同一条件で特徴抽出を行うことは困難であるという
課題がある。
In the feature point extraction for automatic matching of the wire frame model, which is performed using a color image or a gray-scale image, the feature points to be extracted differ depending on the photographing conditions such as lighting conditions. There is a possibility that
There is a problem that it is difficult to always extract features under the same conditions.

【0008】本発明は、上記の点に鑑みてなされたもの
で、正確な特徴点抽出を可能とし、もって、横顔を表示
したときでも自然な画像が得られるような3次元ワイヤ
ーフレームモデルを対応する物体の画像に整合するワイ
ヤーフレームモデル整合装置及び方法、並びにそのよう
な3次元ワイヤーフレームモデルを対応する物体の画像
に整合するための整合プログラムを記録した機械読み取
り可能な記録媒体を提供することを目的とする。
The present invention has been made in view of the above points, and enables a three-dimensional wire frame model that enables accurate feature point extraction and obtains a natural image even when a profile is displayed. Wire frame model matching device and method for matching an image of an object to be matched, and a machine-readable recording medium storing a matching program for matching such a three-dimensional wire frame model to a corresponding object image. With the goal.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明によるワイヤーフレームモデル整合装置
は、3次元ワイヤーフレームモデルを対応する物体の画
像に整合するワイヤーフレームモデル整合装置であっ
て、基準から上記物体上の各点までの距離情報に基づい
て、上記ワイヤーフレームモデルの制御点に対応する物
体画像上の特徴点を抽出する特徴点抽出手段と、上記特
徴点抽出手段によって抽出された上記物体画像上の各特
徴点に、上記ワイヤーフレームモデルの対応する制御点
を整合する整合手段とを具備することを特徴とする。
In order to achieve the above object, a wire frame model matching device according to the present invention is a wire frame model matching device for matching a three-dimensional wire frame model with a corresponding object image. A feature point extracting unit that extracts feature points on an object image corresponding to control points of the wireframe model based on distance information from a reference to each point on the object; and a feature point extracting unit that extracts feature points. And matching means for matching the control points of the wireframe model with each feature point on the object image.

【0010】また、本発明によるワイヤーフレームモデ
ル整合方法は、3次元ワイヤーフレームモデルを対応す
る物体の画像に整合するワイヤーフレームモデル整合方
法であって、基準から上記物体上の各点までの距離情報
を入力する工程と、上記距離情報に基づいて、上記ワイ
ヤーフレームモデルの制御点に対応する物体画像上の特
徴点を抽出する特徴点抽出工程と、抽出された上記物体
画像上の各特徴点に、上記ワイヤーフレームモデルの対
応する制御点を整合する整合工程とを具備することを特
徴とする。
A wire frame model matching method according to the present invention is a wire frame model matching method for matching a three-dimensional wire frame model to an image of a corresponding object, the distance information from a reference to each point on the object. And a feature point extraction step of extracting feature points on the object image corresponding to the control points of the wire frame model based on the distance information. And a matching step of matching corresponding control points of the wireframe model.

【0011】さらに、本発明の記録媒体は、3次元ワイ
ヤーフレームモデルを対応する物体の画像に整合するた
めの整合プログラムを記録した機械読み取り可能な記録
媒体であって、該整合プログラムは、コンピュータに、
基準から上記物体上の各点までの距離情報に基づいて上
記ワイヤーフレームモデルの制御点に対応する物体画像
上の特徴点を抽出させ、抽出された上記物体画像上の各
特徴点に、上記ワイヤーフレームモデルの対応する制御
点を整合させることを特徴とする。
Further, a recording medium according to the present invention is a machine-readable recording medium recording a matching program for matching a three-dimensional wireframe model to a corresponding object image, and the matching program is stored in a computer. ,
The feature points on the object image corresponding to the control points of the wire frame model are extracted based on distance information from the reference to each point on the object, and the feature points on the extracted object image are It is characterized in that the corresponding control points of the frame model are matched.

【0012】即ち、本発明のワイヤーフレームモデル整
合装置及び方法と記録媒体によれば、距離情報に基づい
て特徴点を抽出するようにしているので、正確な特徴点
抽出が可能となる。
That is, according to the wire frame model matching apparatus, method and recording medium of the present invention, feature points are extracted based on distance information, so that accurate feature point extraction becomes possible.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0014】[第1の実施の形態]図1の(A)は、本
発明の第1の実施の形態にかかるワイヤーフレームモデ
ル整合装置のブロック構成図である。本実施の形態のワ
イヤーフレームモデル整合装置は、距離画像入力装置1
0、表示装置20、及び演算処理装置30からなる。な
お、表示装置20と演算処理装置30の間は、近接位置
にあっても良いし、ネットワークを介した遠隔地にあっ
ても良い。
[First Embodiment] FIG. 1A is a block diagram of a wire frame model matching apparatus according to a first embodiment of the present invention. The wire frame model matching device according to the present embodiment is a distance image input device 1
0, a display device 20, and an arithmetic processing device 30. It should be noted that the display device 20 and the arithmetic processing device 30 may be at a close position or at a remote place via a network.

【0015】なお、本実施の形態は、表示装置20より
顔のワイヤフレームモデルの3次元構造を表示する場合
を例に説明する。ここで、図1の(B)乃至(D)は、
顔のワイヤフレームモデルの3次元構造を正面、斜め方
向、及び横方向から表示したものである。
In the present embodiment, a case where the three-dimensional structure of the face wireframe model is displayed on the display device 20 will be described as an example. Here, (B) to (D) of FIG.
The three-dimensional structure of the wireframe model of the face is displayed from the front, the oblique direction, and the lateral direction.

【0016】距離画像入力装置10は、測定対象物(本
実施の形態では顔)の画像の撮影に用いられる装置であ
り、例えば、測定対象物の周りを回転しながら、360
°の全周を測定することのできる全周型レンジファイン
ダである。この全周型レンジファインダでは、図2の
(A)及び(B)に示ような測定対象物の全周型色情報
(テクスチャ画像)100と全周型距離情報102とを
測定することができる。全周型距離画像102は、その
画像上の各点の値がレンジファインダの回転中心からの
距離を表すような画像である。この例においては、明る
く描かれている部分ほど回転中心からの距離が大きくな
るように描かれている。計測された全周型テクスチャ画
像及び距離画像100,102は、測定方向を示す角度
を横軸、測定対象物の測定された高さを縦軸とするよう
な画像として示される。
The range image input device 10 is a device used to capture an image of a measurement object (in the present embodiment, face).
This is a full range type rangefinder that can measure the entire circumference of °. The all-around type range finder can measure all-around type color information (texture image) 100 and all-around type distance information 102 of the measurement object as shown in FIGS. 2A and 2B. . The omnidirectional distance image 102 is an image in which the value of each point on the image represents the distance from the rotation center of the range finder. In this example, the brighter the portion is drawn, the greater the distance from the rotation center is. The measured all-around texture image and the distance images 100 and 102 are shown as images in which the horizontal axis indicates the angle indicating the measurement direction and the vertical axis indicates the measured height of the measurement target.

【0017】演算処理装置30は、このような距離画像
入力装置10から入力された測定対象物(顔)の全周型
テクスチャ画像及び距離画像100,102に基づいて
演算処理を行い、その演算結果として得られたワイヤー
フレームモデルを上記表示装置20に出力する。ここ
で、この演算処理装置30は、制御部32、メモリ3
4、曲率演算部36、微分演算部38、特徴抽出部4
0、整合部42、及び展開部44より構成されている。
なお、これら各部は、実際には1つのCPU及びメモリ
などから構成することができ、また、曲率演算部36、
微分演算部38、展開部44等は、専用のDSPにより
構成することもできる。
The arithmetic processing unit 30 performs arithmetic processing based on the full-circle type texture image and the distance images 100 and 102 of the measurement object (face) input from the distance image input device 10 and obtains the arithmetic result. Is output to the display device 20. Here, the arithmetic processing device 30 includes a control unit 32, a memory 3
4. Curvature calculation unit 36, differentiation calculation unit 38, feature extraction unit 4
0, a matching unit 42, and a developing unit 44.
Each of these units can be actually composed of one CPU and a memory, and the curvature calculation unit 36,
The differential operation unit 38, the expansion unit 44, and the like may be configured by a dedicated DSP.

【0018】制御部32は、当該演算処理装置30内の
制御を行うもので、信号線50を介して上記距離画像入
力装置10から上記全周型テクスチャ画像及び距離画像
100,102を受信し、また、演算処理結果を信号線
60を介して上記表示装置20へ送信する。メモリ34
は、上記制御部32に接続され、上記距離画像入力装置
10からの上記全周型テクスチャ画像及び距離画像10
0,102を格納するフレームメモリや、その他の情報
を格納するためのワークメモリ等を含む。
The control unit 32 controls the inside of the arithmetic processing unit 30. The control unit 32 receives the all-around type texture image and the distance images 100 and 102 from the distance image input device 10 via a signal line 50, Further, the result of the arithmetic processing is transmitted to the display device 20 via the signal line 60. Memory 34
Is connected to the control unit 32 and receives the omnidirectional texture image and the distance image 10 from the distance image input device 10.
And a work memory for storing other information.

【0019】曲率演算部36は、上記メモリ34に格納
された全周型距離画像102から対象物(顔)上の点に
おける曲率を計算する。微分演算部38は、ソーベルフ
ィルタなどの微分フィルタを有し、上記メモリ34に格
納された全周型距離画像102から対象物(顔)のエッ
ジ抽出を行う。特徴抽出部40は、上記曲率演算部36
で計算された曲率情報や上記微分演算部38で抽出され
たエッジ情報などの特徴量を基に、ワイヤーフレームモ
デルの制御点に対応する特徴点を抽出するための演算を
行う。整合部42は、上記特徴抽出部40で抽出された
特徴点にワイヤーフレームモデルの制御点を整合する。
展開部44は、奥行き成分の整合を行うため、上記メモ
リ34に格納された全周型距離画像102に整合すべき
展開ワイヤーフレームを生成する。
The curvature calculator 36 calculates the curvature at a point on the object (face) from the all-round distance image 102 stored in the memory 34. The differential operation unit 38 has a differential filter such as a Sobel filter, and extracts an edge of a target object (face) from the all-around distance image 102 stored in the memory 34. The feature extraction unit 40 is configured to perform the above-described curvature calculation unit 36
An operation for extracting a feature point corresponding to the control point of the wire frame model is performed based on the feature information such as the curvature information calculated in step (1) and the edge information extracted by the differential operation unit. The matching unit 42 matches the control points of the wireframe model with the feature points extracted by the feature extraction unit 40.
The developing unit 44 generates a developed wire frame to be matched with the all-around distance image 102 stored in the memory 34 in order to match the depth components.

【0020】即ち、上記全周型距離画像102に対し3
次元形状モデリングを行い、上下方向が正しく表示され
るように設定した上で上記全周型テクスチャ画像100
を用いて正面視点画像のテクスチャマッピング画像とし
て表示した正面テクスチャ画像が図2の(C)に参照番
号104で示す画像であり、この正面テクスチャ画像1
04に対してワイヤフレームモデルの整合を行うため
に、上記特徴抽出部40で、上記全周型距離画像102
を用いて顔画像の特徴点抽出を行う。この特徴点抽出を
行うため、各画像に対して前処理を施しておく必要があ
る。
In other words, 3
After performing dimensional shape modeling and setting so that the vertical direction is displayed correctly, the all-around texture image 100
The front texture image displayed as a texture mapping image of the front viewpoint image by using the front texture image 1 shown in FIG.
In order to match the wire frame model to the wireframe model 04, the feature extracting unit 40 uses
Is used to extract feature points of the face image. In order to perform this feature point extraction, it is necessary to perform preprocessing on each image.

【0021】図2の(D)は、上記正面テクスチャ画像
104と同一の視点から表示されるように設定された3
次元形状モデリング画像の表示平面に対する距離分布を
示した正面距離画像106であり、この正面距離画像1
06は、画像上の各点が、表示平面からの距離情報を示
すように表示される。この例では、明るい部分は表示平
面からの距離が大きい。
FIG. 2D shows a 3D image set to be displayed from the same viewpoint as the front texture image 104.
This is a front distance image 106 showing the distance distribution of the two-dimensional shape modeling image with respect to the display plane.
Reference numeral 06 is displayed so that each point on the image indicates distance information from the display plane. In this example, the bright part has a large distance from the display plane.

【0022】そして、上記曲率演算部36において、上
記全周型距離画像102に対して、その画像上の各点に
ついて、測定対象物上のその点が指し示す位置における
曲率を計算する。図3の(A)は、各画素が曲率の値を
持つように表示した全周型曲率画像108である。ここ
で、曲率の正負は、この全周型曲率画像108の表示平
面に対して、手前方向に凸である点を正、手前方向に凹
である点を負と定義する。この例では、明るいほど負の
曲率が大きく、暗いほど正の曲率が大きくなるように描
かれている。この曲率分布をテクスチャとみなして、3
次元形状モデリング画像に張り付け、正面から表示した
正面曲率画像が図3の(B)に参照番号110で示す画
像である。
The curvature calculator 36 calculates the curvature at the position indicated by the point on the object to be measured for each point on the whole circumference type distance image 102 with respect to the image. FIG. 3A is an all-round curvature image 108 displayed so that each pixel has a curvature value. Here, the positive and negative of the curvature are defined such that a point that is convex in the front direction with respect to the display plane of the full-circular curvature image 108 is positive, and a point that is concave in the front direction is negative. In this example, the negative curvature is increased as the brightness increases, and the positive curvature is increased as the brightness decreases. Considering this curvature distribution as a texture, 3
The front curvature image attached to the three-dimensional shape modeling image and displayed from the front is the image indicated by reference numeral 110 in FIG.

【0023】上記微分演算部38は、上記正面距離画像
106に対してエッジ抽出を行うためにソーベルフィル
タ(微分フィルタ)を作用させる。これにより、図3の
(C)に示すような正面エッジ画像112が得られる。
この例では、エッジ情報、即ち微分値が大きいほど明る
くなるように描かれている。上記全周型曲率画像10
8、正面曲率画像110、及び正面エッジ画像112
は、任意の点が上記全周型テクスチャ画像100,全周
型距離画像102又は上記正面テクスチャ画像104,
正面距離画像106と対応付けられてあり、距離情報も
色情報も参照できる。
The differential operation section 38 applies a Sobel filter (differential filter) to perform edge extraction on the front distance image 106. As a result, a front edge image 112 as shown in FIG. 3C is obtained.
In this example, the edge information, that is, the larger the differential value is, the brighter it is drawn. The above-mentioned all-around curvature image 10
8. Front curvature image 110 and front edge image 112
Is that any point is the entire circumference type texture image 100, the entire circumference type distance image 102 or the front side texture image 104,
It is associated with the front distance image 106, and both the distance information and the color information can be referred to.

【0024】このような前処理を行った、上記正面テク
スチャ画像104,正面距離画像106,全周型曲率画
像108,正面曲率画像110,及び正面エッジ画像1
12の一連の画像を用いて、上記特徴抽出部40にて特
徴点抽出を行う。そして、整合部42は、この特徴抽出
部40で抽出された特徴点を、図4の(A)に示すよう
なワイヤフレーム上の制御点のいくつかに対して整合さ
せることにより、ワイヤフレーム整合を行う。
The front texture image 104, the front distance image 106, the all-around curvature image 108, the front curvature image 110, and the front edge image 1 which have been subjected to such pre-processing.
The feature extraction unit 40 performs feature point extraction using a series of twelve images. Then, the matching unit 42 matches the feature points extracted by the feature extracting unit 40 with some of the control points on the wire frame as shown in FIG. I do.

【0025】上記特徴抽出部40で上記一連の画像10
4〜112から抽出する特徴点としては、鼻頂点、鼻下
端、鼻両端、上唇と下唇の境界線、口両端、口上下端、
顔輪郭を含む。各特徴点の抽出の順序は、図5に示す流
れに従って行う。
The above-mentioned series of images 10
The feature points to be extracted from 4 to 112 include the nose apex, the lower end of the nose, both ends of the nose, the boundary line between the upper lip and the lower lip, both ends of the mouth, upper and lower ends of the mouth,
Includes facial contours. The extraction order of each feature point is performed according to the flow shown in FIG.

【0026】即ち、最初に、顔の両端の抽出を行う必要
がある(ステップS10)。この特徴点は、目の位置の
水平線上と顔の輪郭の交点位置として定義された特徴点
である。この特徴点の検出は、目の位置を考慮しながら
微妙に調節を行うため、手動で行う。
That is, first, it is necessary to extract both ends of the face (step S10). This feature point is a feature point defined as the intersection point of the face outline on the horizontal line of the eye position. The detection of the feature points is manually performed in order to finely adjust the position while considering the position of the eyes.

【0027】次に、鼻頂点の抽出を行う(ステップS1
2)。この鼻頂点抽出は、正面距離画像106において
最も手前にある点の位置として抽出するが、まず、ノイ
ズを除去するために、平滑化フィルタによりノイズの除
去操作を行っておき、フィルタリングされた距離画像上
で距離値が最も手前にある点を鼻の位置とする。また、
レンジファインダで測定が困難である頭髪部を特徴点探
索の領域内に含めると、誤抽出の可能性が高くなる。そ
のため、表示領域内で、例えば下側の1/3の領域のみ
で鼻の検出を行うことにして、上記正面テクスチャ画像
104及び正面距離画像106を表示する際、頭髪部測
定困難である領域は上側1/3の領域に設定して表示を
行うようにして、鼻頂点検出の領域から除外しておく。
Next, a nose tip is extracted (step S1).
2). This nose apex extraction is extracted as the position of the foremost point in the front distance image 106. First, in order to remove noise, a noise removal operation is performed by a smoothing filter, and the filtered distance image The point where the distance value is closest to the above is set as the position of the nose. Also,
If a hair part that is difficult to measure with the range finder is included in the feature point search area, the possibility of erroneous extraction increases. For this reason, in the display area, for example, when the nose is detected only in the lower one-third area, and when the front texture image 104 and the front distance image 106 are displayed, the area where the hair part measurement is difficult is performed. The display is set in the upper third area, and is excluded from the nose apex detection area.

【0028】そして、上記正面曲率画像110から、負
の曲率が大きくなる位置として、鼻輪郭(鼻下端、鼻両
端)、上唇と下唇との境界線を抽出し、正の曲率の大き
な位置として口上端、口下端を抽出する。また、上記正
面エッジ画像112から顔下端の抽出と顔輪郭の抽出を
行う。
Then, from the front curvature image 110, the nose contour (the lower end of the nose, both ends of the nose) and the boundary line between the upper lip and the lower lip are extracted as the position where the negative curvature becomes large, and the position where the positive curvature is large is extracted. Extract the top and bottom of the mouth. Further, the lower edge of the face and the face outline are extracted from the front edge image 112.

【0029】即ち、鼻下端、鼻両端、口上下端、顔輪郭
を表す特徴点の抽出は、各特徴画像を用いて、図4の
(B)に示す手法で行う。ここで同図は、暗いところほ
ど細かいハッチングで示し、明るいところはハッチング
をしないことで表している。つまり、同図に示す画像で
は、明るく示されている領域ほど特徴量が大きいものと
する。そして、参照番号200で示すような形の特徴量
の大きな領域があるとき、長方形のウィンドウ202を
この画像上で走査する。即ち、抽出する特徴点は、特徴
量が極大または極小となる領域であり、このような領域
では、特徴量の極大または極小値に近い値をとる領域
が、細長い形をしているものが多い。従って、特徴点探
索を行う画像C(x,y)上で、点P(x,y)を中心
とする参照番号202で示す一定の大きさの長方形のウ
ィンドウw(x,y)を、参照番号204で示すような
一定の範囲で走査し、点P(x,y)を中心とする横の
長さwx ,縦の長さwy のウィンドウ内に含まれる画素
の特徴量の合計をf(x,y)と定義し、この関数が最
大、または最小となる位置を特徴点とすることにする。
この図においては、長方形ウィンドウ202が参照番号
206で示す位置にあるときに関数f(x,y)が最大
となり、この長方形の中心が特徴位置となる。ここで、
ウィンドウw(x,y)の大きさは、その特徴点を検出
する操作を行う手前の操作までに整合が行われているワ
イヤフレームモデルの大きさに従って決定される。
That is, the extraction of the characteristic points representing the lower end of the nose, both ends of the nose, the upper and lower ends of the mouth, and the face contour is performed by the method shown in FIG. In the figure, darker portions are indicated by finer hatching, and brighter portions are indicated by no hatching. In other words, in the image shown in the figure, it is assumed that the brighter the area, the larger the feature amount. Then, when there is an area having a large feature amount in the form indicated by reference numeral 200, the rectangular window 202 is scanned on this image. In other words, the feature points to be extracted are regions where the feature amount is maximum or minimum, and in such regions, the region having a value close to the maximum or minimum value of the feature amount is often elongated. . Therefore, a rectangular window w (x, y) of a fixed size indicated by reference numeral 202 centered on the point P (x, y) on the image C (x, y) on which the feature point search is performed is referred to. scanned within a certain range, as indicated at 204, point P (x, y) transverse length w x about the vertical of the total of the feature amount of the pixels included in the window of length w y It is defined as f (x, y), and the position at which this function is maximum or minimum is defined as a feature point.
In this figure, when the rectangular window 202 is at the position indicated by the reference numeral 206, the function f (x, y) is maximized, and the center of the rectangle is the characteristic position. here,
The size of the window w (x, y) is determined according to the size of the wireframe model that has been matched by the operation before the operation for detecting the feature point.

【0030】而して、ステップS16以降から行う各特
徴点の抽出では、そのときまでに整合の行われているワ
イヤフレームモデルの大きさ情報を用いる必要があるた
め、先ず、顔の下端の特徴点抽出を行い、ワイヤフレー
ムモデルの顎の先端の点を整合し、ある程度、ワイヤフ
レームモデルの大きさを顔画像に合わせておく(ステッ
プS14)。
Since it is necessary to use the size information of the wire frame model that has been matched up to that point in the extraction of each feature point starting from step S16, first, the feature at the lower end of the face is used. Point extraction is performed, the points at the tip of the jaw of the wire frame model are matched, and the size of the wire frame model is adjusted to the face image to some extent (step S14).

【0031】このステップS14での顔下端の特徴抽出
は、上記正面エッジ画像112を用いて、 wx ×wy =(ワイヤフレームモデル上の初期的に整合
した顔の両端の点の間隔/4)×5画素 の大きさのウィンドウ202を、上記ステップS12で
抽出した鼻頂点に対応する位置から、上記正面テクスチ
ャ画像104の画像下端に対応する位置まで走査し、エ
ッジ強度のf(x,y)が最大となる位置を顔下端とす
る。
The feature extraction of the lower end of the face in this step S14 is performed by using the front edge image 112 as follows: w x × w y = (interval of the two ends of the face of the initially matched face on the wire frame model / 4) ) × 5 pixels The window 202 is scanned from the position corresponding to the nose vertex extracted in step S12 to the position corresponding to the lower end of the front texture image 104, and the edge intensity f (x, y The position where () is the maximum is defined as the lower end of the face.

【0032】次に、鼻の下端を抽出する(ステップS1
6)。この鼻下端抽出は、上記正面曲率画像110を用
いて、 wx ×wy =(ワイヤフレームモデルの鼻の幅)×5画
素 の大きさのウィンドウ202を、上記ステップS12で
抽出した鼻頂点に対応する位置から、ワイヤフレームモ
デルの口上端の高さまで走査し、曲率のf(x,y)が
最小となる位置を鼻下端とする。
Next, the lower end of the nose is extracted (step S1).
6). In this nose lower end extraction, a window 202 having a size of w x × w y = (width of a nose of a wire frame model) × 5 pixels is added to the nose apex extracted in step S12 using the front curvature image 110. From the corresponding position, scanning is performed to the height of the upper end of the mouth of the wireframe model, and the position where the curvature f (x, y) becomes minimum is defined as the lower end of the nose.

【0033】次に、鼻の両端を抽出する(ステップS1
8)。この鼻両端抽出は、上記正面曲率画像110を用
いて、 wx ×wy =5×(ワイヤフレームモデルの鼻頂点から
鼻下端までの長さ)画素 の大きさのウィンドウ202を、ワイヤフレームモデル
の鼻頂点と鼻下端の中心の高さの水平線に沿って、上記
ステップS12で抽出した鼻頂点に対応する位置を含む
顔の中心線から左右に(上記ステップS10で抽出した
顔両端に基づく顔の幅/4)分だけ走査し、曲率のf
(x,y)が最小となる位置をそれぞれ鼻の一端とす
る。
Next, both ends of the nose are extracted (step S1).
8). This nose both ends extraction uses the front curvature image 110 to create a window 202 having a size of w x × w y = 5 × (the length from the nose vertex to the lower end of the nose of the wire frame model) pixels. Along the horizontal line of the height of the nose vertex and the center of the lower end of the nose from the center line of the face including the position corresponding to the nose vertex extracted in step S12 (the face based on both ends of the face extracted in step S10). Scan by the width of 4/4), and the curvature f
The position where (x, y) is minimum is defined as one end of the nose.

【0034】次に、口の特徴点の抽出を行う。この口特
徴点としては口両端、口中心、口上下端を含むが、これ
らを抽出するために、先ず、仮の口中心抽出を行い(ス
テップS20)、その抽出した仮の口中心を用いて、正
確な各口特徴点を抽出する。即ち、仮の口中心は、上記
正面曲率画像110を用いて、 wx ×wy =(ワイヤフレームモデルの口の幅)×5画
素 の大きさのウィンドウ202を、上記ステップS16で
抽出した鼻下端に対応する位置から上記ステップS14
で抽出した顔下端に対応する位置まで走査し、曲率のf
(x,y)が最小となる位置を仮の口中心とする。
Next, feature points of the mouth are extracted. The mouth feature points include the mouth both ends, the mouth center, and the upper and lower ends of the mouth. To extract these, first, a temporary mouth center is extracted (step S20), and the extracted temporary mouth center is used. , And extract accurate mouth feature points. That is, the mouth center tentative, by using the front curvature image 110, the w x × w y = (width of the mouth of the wire frame model) × 5 pixels in size of the window 202, extracted by the step S16 nose Step S14 from the position corresponding to the lower end
Is scanned to the position corresponding to the lower end of the face extracted in step
The position where (x, y) is minimum is set as the temporary mouth center.

【0035】そして、正確な各口特徴点抽出として、先
ず口両端抽出を行う(ステップS22)。この口両端抽
出は、上記正面曲率画像110を用い、上記ステップS
20で抽出した仮の口中心位置を中心とした、(ワイヤ
フレームモデル上の初期的に整合した顔の両端の点の間
隔/2)×(ワイヤフレームモデルの鼻下端から仮の口
中心までの長さ×2)画素の大きさの長方形領域を設定
し、この長方形領域内部の特徴量の平均値をCmean、標
準偏差をCstd としたとき、特徴値がCmean+Cstd
り大きな値を持つ点のうち最も左の点を口の左端、最も
右の点を口の右端とする。
Then, in order to accurately extract each mouth feature point, mouth both ends are first extracted (step S22). This mouth end extraction uses the front curvature image 110 and the step S
(Interval between points at both ends of face initially matched on the wireframe model / 2) × (interval between lower end of nose of wireframe model and temporary mouth center, centered on temporary mouth center position extracted in step 20) When a rectangular area having a size of (length × 2) pixels is set, and the average value of the feature values inside this rectangular area is C mean and the standard deviation is C std , the feature value is larger than C mean + C std. The leftmost point among the possessed points is the left end of the mouth, and the rightmost point is the right end of the mouth.

【0036】こうして口両端が決定されたならば、その
中点を中心とする長さ40画素の鉛直線上で曲率最小と
なる位置を探索し、その位置を正確な口中心とする(ス
テップS24)。
When the both ends of the mouth are determined in this way, a position having the minimum curvature is searched for on the vertical line of 40 pixels in length centering on the middle point, and that position is set as the accurate mouth center (step S24). .

【0037】そして、口の上端及び下端を抽出する(ス
テップS26)。この口上下端抽出は、上記正面曲率画
像110を用い、 wx ×wy =(ワイヤフレームモデルの口の幅/2)×
5画素 の大きさのウィンドウ202を、上記ステップS24で
抽出した口中心に対応する位置から、上方向には上記ス
テップS16で抽出した鼻下端に対応する位置まで、下
方向には上記ステップS14で抽出した顔下端に対応す
る位置までそれぞれ走査し、曲率のf(x,y)が最大
となるそれぞれの位置を口上端及び口下端とする。
Then, the upper and lower ends of the mouth are extracted (step S26). This mouth upper and lower edge extraction uses the front curvature image 110, and w x × w y = (width of mouth of wire frame model / 2) ×
The window 202 having a size of 5 pixels is moved from the position corresponding to the center of the mouth extracted in step S24 to the position corresponding to the lower end of the nose extracted in step S16 upward, and downward in step S14. Scanning is performed up to the positions corresponding to the extracted lower end of the face, and the positions where the curvature f (x, y) becomes the maximum are set as the upper end and the lower end of the mouth.

【0038】最後に、顔の輪郭抽出を行う(ステップS
28)。この顔輪郭抽出は、上記正面エッジ画像112
を用いて、上記ステップS12で抽出した鼻頂点に対応
する位置から各輪郭制御点へ直線を延ばし、この直線に
垂直な方向に長い、15×5画素の大きさのウィンドウ
を各制御点の水平線上で、各制御点より50画素内側か
ら、上記ステップS10で抽出した顔両端に対応する位
置より10画素外側まで走査し、エッジ強度の曲率のf
(x,y)が最大となる位置をそれぞれ顔の輪郭点とす
る。
Finally, the face outline is extracted (step S).
28). This face contour extraction is performed by extracting the front edge image 112
Is used to extend a straight line from the position corresponding to the nose apex extracted in step S12 to each contour control point, and a window having a size of 15 × 5 pixels, which is long in a direction perpendicular to the straight line, is set horizontally for each control point. On the line, scanning is performed from the inside of 50 pixels from each control point to the outside of the position corresponding to both ends of the face extracted in step S10, and 10 pixels outside, to obtain the edge intensity curvature f.
The position where (x, y) is the maximum is defined as the contour point of the face.

【0039】次に、上記整合部42は、ワイヤフレーム
の各制御点をこれら抽出された各特徴点に整合すること
で、ワイヤフレームの自動整合を行う。そして、このワ
イヤフレームモデルに対して、奥行き成分の整合を上記
正面距離画像106を用いて行う。即ち、ワイヤフレー
ムモデル上のすべての頂点p(x,y,z)に対して、
2次元的な整合においてはx,yの値は正確であるが、
zの値が不正確であるので、上記正面距離画像106を
用いて、zの値を整合する。
Next, the matching section 42 performs automatic matching of the wire frame by matching each control point of the wire frame with each of the extracted feature points. Then, the depth component is matched with the wire frame model using the front distance image 106. That is, for all vertices p (x, y, z) on the wireframe model,
In two-dimensional matching, the values of x and y are accurate,
Since the value of z is incorrect, the value of z is matched using the front distance image 106.

【0040】さらに、この正面距離画像106を用いて
整合したワイヤフレームモデルに対し、顔側面に関し
て、表示面に対して垂直に近い面の整合を正確に行うた
めに、上記全周型距離画像102への補正整合を行う。
そのため、上記展開部44は、これまでの作業で整合さ
れたワイヤフレームモデルを、円筒座標変換することに
より、全周型距離画像102と同一の座標系にする。即
ち、デカルト座標系におけるワイヤフレーム上の頂点p
(x,y,z)を、円筒座標変換して、p(r,θ,
y)に変換する。図6は、こうして変換されたワイヤフ
レームモデルを示す。
Further, with respect to the wire frame model matched using the front distance image 106, the entire circumference type distance image 102 Is performed.
Therefore, the developing unit 44 converts the wireframe model matched in the work up to now into the same coordinate system as the all-around distance image 102 by performing cylindrical coordinate conversion. That is, the vertex p on the wire frame in the Cartesian coordinate system
(X, y, z) is converted into cylindrical coordinates, and p (r, θ,
y). FIG. 6 shows the wireframe model thus converted.

【0041】上記整合部42は、この展開部44により
変換されたワイヤフレームモデルを、上記のような全周
型テクスチャ画像100の重ね合わせや、ワイヤフレー
ムモデルとずれた特徴点の上記正面距離画像106を用
いた整合を行っただけでは正確な整合を行なうことので
きていない、図6において黒丸で示された顔側面部の点
について、修正整合を行う。
The matching unit 42 superimposes the wireframe model converted by the developing unit 44 on the above-described perimeter-type texture image 100 and the front distance image of a feature point shifted from the wireframe model. Correction matching is performed for points on the side of the face indicated by black circles in FIG. 6 where accurate matching cannot be performed only by performing matching using 106.

【0042】こうして修正整合されたワイヤフレームモ
デルが最終的な演算処理装置30の演算処理結果とし
て、表示装置20に表示出力される。
The wire frame model thus corrected and matched is output to the display device 20 as the final result of the arithmetic processing by the arithmetic processing device 30.

【0043】[第2の実施の形態]次に、本発明の第2
の実施の形態を説明する。
[Second Embodiment] Next, a second embodiment of the present invention will be described.
An embodiment will be described.

【0044】標準的なワイヤフレームモデルは、平均的
な顔をモデルとして作成されており、通常は情報量削減
のため、ワイヤフレームモデルを構成する各三角形パッ
チは適当に荒く作成される。ところが、個人顔への整合
の課程で、部分的に三角形パッチの大きさが大きくなり
過ぎて、場所によっては、顔画像の表示を行ったときに
滑らかさが失われてしまう部分が生じることがある。従
って、情報量の増大がなるべく少なくし、且つ表面形状
を滑らかに保つことが課題となる。
The standard wire frame model is created using an average face as a model. Normally, in order to reduce the amount of information, each triangular patch forming the wire frame model is created roughly. However, in the process of matching to a personal face, the size of the triangular patch becomes too large in some cases, and depending on the location, there may be a part where the smoothness is lost when displaying the face image. is there. Therefore, it is necessary to minimize the increase in the amount of information and to keep the surface shape smooth.

【0045】そこで、本第2の実施の形態では、前述の
第1の実施の形態におけるワイヤーフレームモデル整合
装置の演算処理装置30に、図1の(A)に示すよう
に、さらに細分化部46を備える。
Therefore, in the second embodiment, as shown in FIG. 1A, the arithmetic processing unit 30 of the wire frame model matching apparatus in the first embodiment further includes a subdivision unit. 46 is provided.

【0046】この細分化部46は、ワイヤフレームモデ
ルの各三角形パッチの内部の点に対して、上記全周型曲
率画像108を用いて閾値処理を行い、特徴量が閾値よ
り大きい場合は三角形パッチを細かく分割する処理を行
い、表面形状を滑らかにする。
The subdivision unit 46 performs threshold processing on the points inside each triangular patch of the wireframe model using the above-described full-circular curvature image 108. Is finely divided to smooth the surface shape.

【0047】これは、図6の円筒座標変換されたワイヤ
フレームと上記全周型曲率画像108とを重ね、各三角
形パッチを細分割するか否かの判断は、曲率の絶対値に
基づいて行う。即ち、各三角形で内部の曲率Cの絶対値
|C|の最大値を|C|maxとしたとき、|C|max
対する曲率半径rmax =1/|C|max を三角形の面積
の平方根
In this case, the wire frame subjected to the cylindrical coordinate conversion shown in FIG. 6 is superimposed on the above-described full-circular curvature image 108, and the determination as to whether or not each triangular patch is subdivided is made based on the absolute value of the curvature. . That is, the absolute value of the internal curvature C in each triangle | when the max, | | C | of the maximum value | C C | curvature for max radius r max = 1 / | C | max the square root of the area of the triangle

【0048】[0048]

【数1】 で正規化を行った量(Equation 1) Amount normalized by

【0049】[0049]

【数2】 と、予め設定された閾値cthと比較を行い、次の不等式
(1)を満たさない場合には、細分割を行うことにす
る。
(Equation 2) Is compared with a preset threshold value c th , and if the following inequality (1) is not satisfied, subdivision is performed.

【0050】[0050]

【数3】 この分割は、図7の(A)に示すように、各三角形パッ
チに対して、各頂点から中心となる点(重心、内心、外
心等)に点線を引いてできる3つの三角形に分割を行う
ことによる。
(Equation 3) In this division, as shown in FIG. 7A, each triangle patch is divided into three triangles formed by drawing a dotted line from each vertex to a center point (centroid, inner center, outer center, etc.). By doing.

【0051】あるいは、図7の(B)に示すように、2
つの隣り合う三角形の、接する辺のそれぞれの頂点を結
ぶ点線により分割するようにしても良い。
Alternatively, as shown in FIG.
The division may be made by a dotted line connecting the vertices of the adjacent sides of two adjacent triangles.

【0052】このような分割が行われた後で、上記整合
部42は、新たに生成された頂点に対して、距離画像を
用いて頂点の座標の距離値rを整合しておく。
After such division, the matching unit 42 matches the distance value r of the coordinates of the vertex to the newly generated vertex using the distance image.

【0053】以上実施の形態に基づいて本発明を説明し
たが、本発明は上述した実施の形態に限定されるもので
はなく、本発明の要旨の範囲内で種々の変形や応用が可
能である。
Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the present invention. .

【0054】上記説明は、顔画像に関して述べたが、こ
の手法は特に顔画像に限定されるものではなく、より一
般的な距離画像に対しても利用することができる。例え
ば、人、動物、植物、風景等、任意の物体に関して適用
することができる。人、または動物の全身の全周型距離
画像を利用すれば、全身のワイヤフレームモデルの整合
を行うことができ、人体、または動物の動作モデルを生
成することができる。また、手、腕、足等の体の一部分
の形状を計測することにより、これらのモデルヘの整合
を行うこともでき、同様にこれらの部位の動作モデルを
生成することができる。これらのモデル整合を行うため
には、関節等の屈曲可能な点を特徴点として利用するこ
とができる。さらには、手術中体内の距離画像計測を行
い、体内の心臓、胃等の臓器モデルヘの整合を行うこと
によりこれらの臓器の変形シミュレーションを行うこと
もできる。加えて、木やバラ等の植物の形状を計測する
ことによりこれらのモデルへの整合を行い、成長や環境
変化をシミュレートできる。机、いす、ロボット、電子
機器、建造物、山、風景等についても同様に変形シミュ
レーションを行うことができる。
Although the above description has been made with reference to a face image, this method is not particularly limited to a face image, and can be used for a more general range image. For example, the present invention can be applied to an arbitrary object such as a person, an animal, a plant, and a landscape. By using the whole circumference type distance image of the whole body of a person or an animal, it is possible to match a wire frame model of the whole body and to generate a motion model of a human body or an animal. Further, by measuring the shape of a part of the body such as a hand, an arm, or a foot, it is possible to perform matching with these models, and similarly, it is possible to generate a motion model of these parts. In order to perform such model matching, a bendable point such as a joint can be used as a feature point. Furthermore, by performing distance image measurement during the operation and performing matching with an internal organ model such as the heart or stomach, deformation simulation of these organs can be performed. In addition, by measuring the shapes of plants such as trees and roses, it is possible to match these models to simulate growth and environmental changes. A deformation simulation can be similarly performed on a desk, a chair, a robot, an electronic device, a building, a mountain, a landscape, and the like.

【0055】ここで、本発明の要旨をまとめると以下の
ようになる。
Here, the gist of the present invention is summarized as follows.

【0056】(1) 3次元ワイヤーフレームモデルを
対応する物体の画像に整合するワイヤーフレームモデル
整合装置において、基準から上記物体上の各点までの距
離情報に基づいて、上記ワイヤーフレームモデルの制御
点に対応する物体画像上の特徴点を抽出する特徴点抽出
手段と、上記特徴点抽出手段によって抽出された上記物
体画像上の各特徴点に、上記ワイヤーフレームモデルの
対応する制御点を整合する整合手段と、を具備すること
を特徴とするワイヤーフレームモデル整合装置。
(1) In a wire frame model matching apparatus for matching a three-dimensional wire frame model with an image of a corresponding object, control points of the wire frame model are determined based on distance information from a reference to each point on the object. Feature point extracting means for extracting a feature point on the object image corresponding to the above, and matching for matching the corresponding control point of the wire frame model with each feature point on the object image extracted by the feature point extracting means. Means for matching a wire frame model.

【0057】即ち、距離情報に基づいて特徴点を抽出す
るようにしているので、正確な特徴点抽出が可能とな
る。従来例は、ワイヤーフレーム整合後に距離画像で奥
行き方向の情報を追補するものであり、特徴点抽出に距
離画像が生きない。
That is, since the feature points are extracted based on the distance information, accurate feature point extraction becomes possible. In the conventional example, information in the depth direction is supplemented by a distance image after wire frame matching, and the distance image does not survive feature point extraction.

【0058】(2) 上記距離情報の分布に基づいて、
上記ワイヤーフレームモデルの細分化を行う細分化手段
を更に具備することを特徴とする上記(1)に記載のワ
イヤーフレームモデル整合装置。
(2) Based on the distribution of the distance information,
The wire frame model matching device according to the above (1), further comprising a subdividing means for subdividing the wire frame model.

【0059】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0060】(3) 上記特徴点抽出手段は、上記距離
情報に基づいて上記物体上の各点における曲率を求める
曲率演算手段を有し、該曲率演算手段によって得られた
曲率情報に基づいて上記ワイヤーフレームモデルの制御
点に対応する上記物体画像上の特徴点を抽出することを
特徴とする上記(1)に記載のワイヤーフレームモデル
整合装置。
(3) The characteristic point extracting means has a curvature calculating means for calculating a curvature at each point on the object based on the distance information, and the characteristic point extracting means determines the curvature based on the curvature information obtained by the curvature calculating means. The wire frame model matching device according to (1), wherein a feature point on the object image corresponding to a control point of the wire frame model is extracted.

【0061】即ち、物体形状の特徴量として曲率に着目
している。
That is, attention is paid to the curvature as the feature amount of the object shape.

【0062】(4) 上記曲率情報の分布に基づいて、
上記ワイヤーフレームモデルの細分化を行う細分化手段
を更に具備することを特徴とする上記(3)に記載のワ
イヤーフレームモデル整合装置。
(4) Based on the distribution of the curvature information,
The wire frame model matching device according to the above (3), further comprising a subdividing means for subdividing the wire frame model.

【0063】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, the object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0064】(5) 上記特徴点抽出手段は、上記物体
上の各点における上記距離情報の微分値を求める微分手
段を有し、該微分手段によって得られた微分値に基づい
て上記ワイヤーフレームモデルの制御点に対応する上記
物体画像上の特徴点を抽出することを特徴とする上記
(1)に記載のワイヤーフレームモデル整合装置。
(5) The feature point extracting means has differentiating means for obtaining a differential value of the distance information at each point on the object, and the wire frame model is obtained based on the differential value obtained by the differentiating means. The feature point on the object image corresponding to the control point is extracted.

【0065】即ち、物体形状の特徴量としてエッジ成分
に着目している。
That is, attention is paid to the edge component as the feature amount of the object shape.

【0066】(6) 上記微分情報の分布に基づいて、
上記ワイヤーフレームモデルの細分化を行う細分化手段
を更に具備することを特徴とする上記(5)に記載のワ
イヤーフレームモデル整合装置。
(6) Based on the distribution of the differential information,
The wire frame model matching device according to the above (5), further comprising a subdividing means for subdividing the wire frame model.

【0067】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes greatly.

【0068】(7) 上記特徴点抽出手段は、上記物体
の全方位の各点における距離情報を有する全周型距離画
像に基づいて、上記ワイヤーフレームモデルの制御点に
対応する物体画像上の特徴点を抽出するものであり、上
記整合手段は、ワイヤーフレームモデルを平面に展開す
る展開手段を有し、展開されたワイヤーフレームモデル
を上記全周型距離画像に整合することを特徴とする上記
(1)に記載のワイヤーフレームモデル整合装置。
(7) The feature point extracting means includes a feature on an object image corresponding to a control point of the wire frame model, based on an all-around type distance image having distance information at each point in all directions of the object. Wherein the matching means includes a developing means for developing the wireframe model on a plane, and matches the developed wireframe model to the all-around distance image. The wire frame model matching device according to 1).

【0069】即ち、全方位での整合可能である。That is, matching in all directions is possible.

【0070】(8) 上記距離情報は全周型距離画像を
含み、上記展開手段はワイヤーフレームモデルに対し円
筒座標変換を行う円筒座標変換手段を含むことを特徴と
する上記(7)に記載のワイヤーフレームモデル整合装
置。
(8) The distance information includes an all-around distance image, and the expanding means includes cylindrical coordinate conversion means for performing cylindrical coordinate conversion on the wire frame model. Wire frame model matching device.

【0071】即ち、全周型レンジファインダにより入力
した全周型距離画像と、円筒座標変換で平面に展開され
たワイヤーフレームモデルとがマッチングされ、正確な
整合が取れる。
That is, the full-circle distance image input by the full-circle range finder is matched with the wire frame model developed on the plane by the cylindrical coordinate conversion, and accurate matching can be obtained.

【0072】(9) 3次元ワイヤーフレームモデルを
対応する物体の画像に整合するワイヤーフレームモデル
整合方法において、基準から上記物体上の各点までの距
離情報を入力する工程と、上記距離情報に基づいて、上
記ワイヤーフレームモデルの制御点に対応する物体画像
上の特徴点を抽出する特徴点抽出工程と、抽出された上
記物体画像上の各特徴点に、上記ワイヤーフレームモデ
ルの対応する制御点を整合する整合工程と、を具備する
ことを特徴とするワイヤーフレームモデル整合方法。
(9) In a wire frame model matching method for matching a three-dimensional wire frame model to an image of a corresponding object, a step of inputting distance information from a reference to each point on the object, based on the distance information A feature point extraction step of extracting feature points on the object image corresponding to the control points of the wireframe model, and, for each feature point on the extracted object image, a control point corresponding to the wireframe model. And a matching step of matching.

【0073】即ち、距離情報に基づいて特徴点を抽出す
るようにしているので、正確な特徴点抽出が可能とな
る。従来例は、ワイヤーフレーム整合後に距離画像で奥
行き方向の情報を追補するものであり、特徴点抽出に距
離画像が生きない。
That is, since feature points are extracted based on distance information, accurate feature point extraction is possible. In the conventional example, information in the depth direction is supplemented by a distance image after wire frame matching, and the distance image does not survive feature point extraction.

【0074】(10) 上記距離情報の分布に基づい
て、上記ワイヤーフレームモデルの細分化を行う細分化
工程を更に具備することを特徴とする上記(9)に記載
のワイヤーフレームモデル整合方法。
(10) The wire frame model matching method according to (9), further comprising a subdividing step of subdividing the wire frame model based on the distribution of the distance information.

【0075】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0076】(11) 上記特徴点抽出工程は、上記距
離情報に基づいて上記物体上の各点における曲率を求め
る曲率演算工程を有し、該曲率演算工程によって得られ
た曲率情報に基づいて上記ワイヤーフレームモデルの制
御点に対応する上記物体画像上の特徴点を抽出すること
を特徴とする上記(9)に記載のワイヤーフレームモデ
ル整合方法。
(11) The feature point extracting step includes a curvature calculating step of calculating a curvature at each point on the object based on the distance information, and the characteristic point extracting step is performed based on the curvature information obtained in the curvature calculating step. The wireframe model matching method according to (9), wherein a feature point on the object image corresponding to a control point of the wireframe model is extracted.

【0077】即ち、物体形状の特徴量として曲率に着目
している。
That is, attention is paid to the curvature as the feature amount of the object shape.

【0078】(12) 上記曲率情報の分布に基づい
て、上記ワイヤーフレームモデルの細分化を行う細分化
工程を更に具備することを特徴とする上記(11)に記
載のワイヤーフレームモデル整合方法。
(12) The wire frame model matching method according to (11), further comprising a subdividing step of subdividing the wire frame model based on the distribution of the curvature information.

【0079】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0080】(13) 上記特徴点抽出工程は、上記物
体上の各点における上記距離情報の微分値を求める微分
工程を有し、該微分工程によって得られた微分値に基づ
いて上記ワイヤーフレームモデルの制御点に対応する上
記物体画像上の特徴点を抽出することを特徴とする上記
(9)に記載のワイヤーフレームモデル整合方法。
(13) The feature point extracting step includes a differentiating step of obtaining a differential value of the distance information at each point on the object, and the wire frame model is obtained based on the differential value obtained by the differentiating step. The method according to (9), wherein feature points on the object image corresponding to the control points are extracted.

【0081】即ち、物体形状の特徴量としてエッジ成分
に着目している。
That is, attention is paid to the edge component as the feature amount of the object shape.

【0082】(14) 上記微分情報の分布に基づい
て、上記ワイヤーフレームモデルの細分化を行う細分化
工程を更に具備することを特徴とする上記(13)に記
載のワイヤーフレームモデル整合方法。
(14) The wire frame model matching method according to (13), further comprising a subdividing step of subdividing the wire frame model based on the distribution of the differential information.

【0083】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0084】(15) 上記特徴点抽出工程は、上記物
体の全方位の各点における距離情報を有する全周型距離
画像に基づいて、上記ワイヤーフレームモデルの制御点
に対応する物体画像上の特徴点を抽出する工程であり、
上記整合工程は、ワイヤーフレームモデルを平面に展開
する展開工程を有し、展開されたワイヤーフレームモデ
ルを上記全周型距離画像に整合することを特徴とする上
記(9)に記載のワイヤーフレームモデル整合方法。
(15) In the feature point extracting step, the feature on the object image corresponding to the control point of the wire frame model is based on an all-around type distance image having distance information at each point in all directions of the object. This is the process of extracting points,
The wire frame model according to (9), wherein the matching step includes a developing step of developing the wire frame model on a plane, and matching the developed wire frame model with the all-around distance image. Alignment method.

【0085】即ち、全方位での整合可能である。That is, matching in all directions is possible.

【0086】(16) 上記距離情報は全周型距離画像
を含み、上記展開工程はワイヤーフレームモデルに対し
円筒座標変換を行う円筒座標変換工程を含むことを特徴
とする上記(15)に記載のワイヤーフレームモデル整
合方法。
(16) The distance information includes an all-around distance image, and the expanding step includes a cylindrical coordinate conversion step of performing cylindrical coordinate conversion on the wire frame model. Wireframe model matching method.

【0087】即ち、全周型レンジファインダにより入力
した全周型距離画像と、円筒座標変換で平面に展開され
たワイヤーフレームモデルとがマッチングされ、正確な
整合が取れる。
That is, the entire circumference type range image input by the full circumference range finder is matched with the wire frame model developed on the plane by the cylindrical coordinate conversion, and accurate matching can be obtained.

【0088】(17) 3次元ワイヤーフレームモデル
を対応する物体の画像に整合するための整合プログラム
を記録した機械読み取り可能な記録媒体であって、該整
合プログラムは、コンピュータに、基準から上記物体上
の各点までの距離情報に基づいて上記ワイヤーフレーム
モデルの制御点に対応する物体画像上の特徴点を抽出さ
せ、抽出された上記物体画像上の各特徴点に、上記ワイ
ヤーフレームモデルの対応する制御点を整合させる、こ
とを特徴とする3次元ワイヤーフレームモデルを対応す
る物体の画像に整合するための整合プログラムを記録し
た記録媒体。
(17) A machine-readable recording medium storing a matching program for matching a three-dimensional wireframe model to a corresponding object image, wherein the matching program is transmitted from a computer to a computer from a reference. The feature points on the object image corresponding to the control points of the wire frame model are extracted based on the distance information to each point, and the feature points on the extracted object image correspond to the feature points on the wire frame model. A recording medium storing a matching program for matching a three-dimensional wireframe model with a corresponding object image, wherein the matching program matches control points.

【0089】即ち、距離情報に基づいて特徴点を抽出す
るようにしているので、正確な特徴点抽出が可能とな
る。従来例は、ワイヤーフレーム整合後に距離画像で奥
行き方向の情報を追補するものであり、特徴点抽出に距
離画像が生きない。
That is, since feature points are extracted based on distance information, accurate feature point extraction becomes possible. In the conventional example, information in the depth direction is supplemented by a distance image after wire frame matching, and the distance image does not survive feature point extraction.

【0090】(18) 上記整合プログラムは、コンピ
ュータに上記距離情報の分布に基づいて上記ワイヤーフ
レームモデルの細分化を行わせることを特徴とする上記
(17)に記載の3次元ワイヤーフレームモデルを対応
する物体の画像に整合するための整合プログラムを記録
した記録媒体。
(18) The matching program causes the computer to subdivide the wireframe model based on the distribution of the distance information, and supports the three-dimensional wireframe model according to (17). A recording medium storing a matching program for matching an image of an object to be adjusted.

【0091】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0092】(19)上記整合プログラムは、コンピュ
ータに上記距離情報に基づいて上記物体上の各点におけ
る曲率を求めさせ、得られた曲率情報に基づいて上記ワ
イヤーフレームモデルの制御点に対応する上記物体画像
上の特徴点を抽出することを特徴とする上記(17)に
記載の3次元ワイヤーフレームモデルを対応する物体の
画像に整合するための整合プログラムを記録した記録媒
体。
(19) The matching program causes a computer to calculate a curvature at each point on the object based on the distance information, and based on the obtained curvature information, a computer corresponding to a control point of the wire frame model. A recording medium storing a matching program for matching a three-dimensional wire frame model according to the above (17) with a corresponding object image, wherein feature points on the object image are extracted.

【0093】即ち、物体形状の特徴量として曲率に着目
している。
That is, attention is paid to the curvature as the feature amount of the object shape.

【0094】(20) 上記整合プログラムは、コンピ
ュータに上記曲率情報の分布に基づいて、上記ワイヤー
フレームモデルの細分化を行わせることを特徴とする上
記(19)に記載の3次元ワイヤーフレームモデルを対
応する物体の画像に整合するための整合プログラムを記
録した記録媒体。
(20) The three-dimensional wireframe model according to (19), wherein the matching program causes the computer to subdivide the wireframe model based on the distribution of the curvature information. A recording medium storing a matching program for matching an image of a corresponding object.

【0095】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes drastically.

【0096】(21) 上記整合プログラムは、コンピ
ュータに上記物体上の各点における上記距離情報の微分
値を求めさせ、得られた微分値に基づいて上記ワイヤー
フレームモデルの制御点に対応する上記物体画像上の特
徴点を抽出させることを特徴とする上記(17)に記載
の3次元ワイヤーフレームモデルを対応する物体の画像
に整合するための整合プログラムを記録した記録媒体。
(21) The matching program causes a computer to determine a differential value of the distance information at each point on the object, and based on the obtained differential value, the object corresponding to the control point of the wire frame model. A recording medium storing a matching program for matching a three-dimensional wireframe model according to the above (17) with an image of a corresponding object, wherein a feature point on the image is extracted.

【0097】即ち、物体形状の特徴量としてエッジ成分
に着目している。
That is, attention is paid to the edge component as the feature amount of the object shape.

【0098】(22) 上記整合プログラムは、コンピ
ュータに上記微分情報の分布に基づいて、上記ワイヤー
フレームモデルの細分化を行わせることを特徴とする上
記(21)に記載の3次元ワイヤーフレームモデルを対
応する物体の画像に整合するための整合プログラムを記
録した記録媒体。
(22) The matching program according to (21), wherein the matching program causes a computer to subdivide the wire frame model based on the distribution of the differential information. A recording medium storing a matching program for matching an image of a corresponding object.

【0099】即ち、特徴量変化の激しい部分などにおい
て、物体を忠実に再現できる。
That is, an object can be faithfully reproduced in a portion where the characteristic amount changes greatly.

【0100】(23) 上記整合プログラムは、コンピ
ュータに上記物体の全方位の各点における距離情報を有
する全周型距離画像に基づいて、上記ワイヤーフレーム
モデルの制御点に対応する物体画像上の特徴点を抽出さ
せ、ワイヤーフレームモデルを平面に展開させ、展開さ
れたワイヤーフレームモデルを上記全周型距離画像に整
合させることを特徴とする上記(17)に記載の3次元
ワイヤーフレームモデルを対応する物体の画像に整合す
るための整合プログラムを記録した記録媒体。
(23) The above-mentioned matching program allows the computer to execute a feature on an object image corresponding to a control point of the above-mentioned wire frame model on the basis of an all-around type distance image having distance information at each point in all directions of the object. A point is extracted, the wireframe model is developed on a plane, and the developed wireframe model is matched with the all-around distance image. The three-dimensional wireframe model described in (17) above is supported. A recording medium on which a matching program for matching an image of an object is recorded.

【0101】即ち、全方位での整合可能である。That is, matching in all directions is possible.

【0102】(24) 上記距離情報は全周型距離画像
を含み、上記整合プログラムは、コンピュータにワイヤ
ーフレームモデルに対し円筒座標変換を行わせることを
特徴とする上記(23)に記載の3次元ワイヤーフレー
ムモデルを対応する物体の画像に整合するための整合プ
ログラムを記録した記録媒体。
(24) The three-dimensional image according to (23), wherein the distance information includes an all-around distance image, and the matching program causes the computer to perform cylindrical coordinate conversion on the wire frame model. A recording medium on which a matching program for matching a wireframe model to a corresponding object image is recorded.

【0103】即ち、全周型レンジファインダにより入力
した全周型距離画像と、円筒座標変換で平面に展開され
たワイヤーフレームモデルとがマッチングされ、正確な
整合が取れる。
That is, the full-circle range image input by the full-circle range finder is matched with the wire frame model developed on the plane by the cylindrical coordinate conversion, and accurate matching can be obtained.

【0104】[0104]

【発明の効果】以上詳述したように、本発明によれば、
正確な特徴点抽出を可能とし、もって、横顔を表示した
ときでも自然な画像が得られるような3次元ワイヤーフ
レームモデルを対応する物体の画像に整合するワイヤー
フレームモデル整合装置及び方法、並びにそのような3
次元ワイヤーフレームモデルを対応する物体の画像に整
合するための整合プログラムを記録した機械読み取り可
能な記録媒体を提供することができる。
As described in detail above, according to the present invention,
A wire frame model matching apparatus and method for matching a three-dimensional wire frame model with a corresponding object image, which enables accurate feature point extraction, so that a natural image can be obtained even when a profile is displayed, and the like. Three
A machine-readable recording medium on which a matching program for matching a two-dimensional wireframe model with a corresponding object image can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(A)は本発明の第1の実施の形態にかかるワ
イヤーフレームモデル整合装置のブロック構成図でり、
(B)乃至(D)はそれぞれ顔のワイヤフレームモデル
の3次元構造を正面、斜め方向、及び横方向から示した
図である。
FIG. 1A is a block configuration diagram of a wire frame model matching device according to a first embodiment of the present invention;
(B) to (D) are diagrams showing the three-dimensional structure of the wireframe model of the face from the front, the oblique direction, and the lateral direction, respectively.

【図2】(A)乃至(D)はそれぞれ全周型色情報(テ
クスチャ画像)、全周型距離情報、正面テクスチャ画
像、及び正面距離画像を示すディスプレイ上に表示した
中間画像の写真である。
FIGS. 2A to 2D are photographs of an intermediate image displayed on a display, showing all-around color information (texture image), all-around distance information, a front texture image, and a front distance image, respectively. .

【図3】(A)乃至(C)はそれぞれ全周型曲率画像、
正面曲率画像、及び正面エッジ画像を示すディスプレイ
上に表示した中間画像の写真である。
FIGS. 3A to 3C are full-circle curvature images, respectively.
It is a photograph of an intermediate image displayed on a display showing a front curvature image and a front edge image.

【図4】(A)はワイヤフレーム上の制御点を示す図で
あり、(B)は特徴点抽出用のウィンドウを説明するた
めの図である。
FIG. 4A is a diagram showing control points on a wire frame, and FIG. 4B is a diagram for explaining a feature point extraction window.

【図5】特徴点の抽出の順序を示す図である。FIG. 5 is a diagram showing the order of extracting feature points.

【図6】円筒座標変換されたワイヤフレームモデルを示
す図である。
FIG. 6 is a diagram showing a wireframe model subjected to cylindrical coordinate conversion.

【図7】(A)及び(B)はそれぞれ本発明の第2の実
施の形態における三角形パッチの分割方の例を示す図で
ある。
FIGS. 7A and 7B are diagrams illustrating examples of how to divide a triangular patch according to the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 距離画像入力装置 20 表示装置 30 演算処理装置 32 制御部 34 メモリ 36 曲率演算部 38 微分演算部 40 特徴抽出部 42 整合部 44 展開部 46 細分化部 100 全周型色情報(テクスチャ画像) 102 全周型距離情報 104 正面テクスチャ画像 106 正面距離画像 108全周型曲率画像 110 正面曲率画像 112 正面エッジ画像 202 ウィンドウ REFERENCE SIGNS LIST 10 distance image input device 20 display device 30 arithmetic processing device 32 control unit 34 memory 36 curvature operation unit 38 differentiation operation unit 40 feature extraction unit 42 matching unit 44 development unit 46 subdivision unit 100 whole-circumference type color information (texture image) 102 Full circumference type distance information 104 Front texture image 106 Front distance image 108 Full circumference curvature image 110 Front curvature image 112 Front edge image 202 Window

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 3次元ワイヤーフレームモデルを対応す
る物体の画像に整合するワイヤーフレームモデル整合装
置において、 基準から上記物体上の各点までの距離情報に基づいて、
上記ワイヤーフレームモデルの制御点に対応する物体画
像上の特徴点を抽出する特徴点抽出手段と、 上記特徴点抽出手段によって抽出された上記物体画像上
の各特徴点に、上記ワイヤーフレームモデルの対応する
制御点を整合する整合手段と、 を具備することを特徴とするワイヤーフレームモデル整
合装置。
1. A wireframe model matching apparatus for matching a three-dimensional wireframe model to an image of a corresponding object, comprising: a distance information from a reference to each point on the object;
Feature point extraction means for extracting feature points on the object image corresponding to the control points of the wire frame model; and correspondence of the wire frame model to each feature point on the object image extracted by the feature point extraction means. And a matching means for matching the control points to be performed.
【請求項2】 3次元ワイヤーフレームモデルを対応す
る物体の画像に整合するワイヤーフレームモデル整合方
法において、 基準から上記物体上の各点までの距離情報を入力する工
程と、 上記距離情報に基づいて、上記ワイヤーフレームモデル
の制御点に対応する物体画像上の特徴点を抽出する特徴
点抽出工程と、 抽出された上記物体画像上の各特徴点に、上記ワイヤー
フレームモデルの対応する制御点を整合する整合工程
と、 を具備することを特徴とするワイヤーフレームモデル整
合方法。
2. A wire frame model matching method for matching a three-dimensional wire frame model to an image of a corresponding object, comprising: inputting distance information from a reference to each point on the object; Extracting a feature point on the object image corresponding to the control point of the wireframe model, and matching the corresponding control point of the wireframe model to each feature point on the extracted object image. A wire frame model matching method, comprising:
【請求項3】 3次元ワイヤーフレームモデルを対応す
る物体の画像に整合するための整合プログラムを記録し
た機械読み取り可能な記録媒体であって、 該整合プログラムは、 コンピュータに、基準から上記物体上の各点までの距離
情報に基づいて上記ワイヤーフレームモデルの制御点に
対応する物体画像上の特徴点を抽出させ、 抽出された上記物体画像上の各特徴点に、上記ワイヤー
フレームモデルの対応する制御点を整合させる、 ことを特徴とする3次元ワイヤーフレームモデルを対応
する物体の画像に整合するための整合プログラムを記録
した記録媒体。
3. A machine-readable recording medium on which a matching program for matching a three-dimensional wireframe model to an image of a corresponding object is recorded. A feature point on the object image corresponding to the control point of the wire frame model is extracted based on distance information to each point, and a control corresponding to the wire frame model is provided for each feature point on the extracted object image. A recording medium storing a matching program for matching a three-dimensional wire frame model to a corresponding object image, wherein the matching is performed on points.
JP9217031A 1997-07-29 1997-07-29 Wire frame model matching device, method therefor and recording medium Withdrawn JPH1145349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9217031A JPH1145349A (en) 1997-07-29 1997-07-29 Wire frame model matching device, method therefor and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9217031A JPH1145349A (en) 1997-07-29 1997-07-29 Wire frame model matching device, method therefor and recording medium

Publications (1)

Publication Number Publication Date
JPH1145349A true JPH1145349A (en) 1999-02-16

Family

ID=16697761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9217031A Withdrawn JPH1145349A (en) 1997-07-29 1997-07-29 Wire frame model matching device, method therefor and recording medium

Country Status (1)

Country Link
JP (1) JPH1145349A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020046515A (en) * 2000-12-14 2002-06-21 오지수 sat beauty.
KR20020048462A (en) * 2000-12-16 2002-06-24 오지수 2d / 3d .
KR100474837B1 (en) * 2000-09-25 2005-03-08 삼성전자주식회사 Apparatus and method for normalization and feature extraction of 3-Dimension facial data
JP2014211719A (en) * 2013-04-17 2014-11-13 キヤノン株式会社 Apparatus and method for information processing
CN108682050A (en) * 2018-08-16 2018-10-19 Oppo广东移动通信有限公司 U.S. face method and apparatus based on threedimensional model
CN109151437A (en) * 2018-08-31 2019-01-04 盎锐(上海)信息科技有限公司 Whole body model building device and method based on 3D video camera
JP2019005574A (en) * 2017-06-20 2019-01-17 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100474837B1 (en) * 2000-09-25 2005-03-08 삼성전자주식회사 Apparatus and method for normalization and feature extraction of 3-Dimension facial data
KR20020046515A (en) * 2000-12-14 2002-06-21 오지수 sat beauty.
KR20020048462A (en) * 2000-12-16 2002-06-24 오지수 2d / 3d .
JP2014211719A (en) * 2013-04-17 2014-11-13 キヤノン株式会社 Apparatus and method for information processing
JP2019005574A (en) * 2017-06-20 2019-01-17 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing program
CN108682050A (en) * 2018-08-16 2018-10-19 Oppo广东移动通信有限公司 U.S. face method and apparatus based on threedimensional model
CN109151437A (en) * 2018-08-31 2019-01-04 盎锐(上海)信息科技有限公司 Whole body model building device and method based on 3D video camera

Similar Documents

Publication Publication Date Title
CN108629801B (en) Three-dimensional human body model posture and shape reconstruction method of video sequence
JP3639475B2 (en) 3D model generation apparatus, 3D model generation method, and recording medium on which 3D model generation program is recorded
JP4723834B2 (en) Photorealistic three-dimensional face modeling method and apparatus based on video
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
US6532011B1 (en) Method of creating 3-D facial models starting from face images
JP4284664B2 (en) Three-dimensional shape estimation system and image generation system
US20020106114A1 (en) System and method for face recognition using synthesized training images
US20060127854A1 (en) Image based dentition record digitization
EP0883089A2 (en) System and apparatus for customizing a computer animation wireframe
WO1994023390A1 (en) Apparatus for identifying person
JP4878330B2 (en) Method and apparatus for acquiring joint structure of object
WO2005073909A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
JPWO2016151691A1 (en) Image processing apparatus, image processing system, image processing method, and program
US11321960B2 (en) Deep learning-based three-dimensional facial reconstruction system
CN103679797A (en) Human limb modeling method adopting deformable models and virtual human model control platform
KR20160144699A (en) the automatic 3D modeliing method using 2D facial image
JPH1145349A (en) Wire frame model matching device, method therefor and recording medium
JP2009211148A (en) Face image processor
CN117115358A (en) Automatic digital person modeling method and device
JPH06138137A (en) Moving-object extraction apparatus
JP5419777B2 (en) Face image synthesizer
Ju et al. Individualising Human Animation Models.
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
JP2003044841A (en) Device and method for generating model and recording medium with model generation program recorded thereon
JP2017122993A (en) Image processor, image processing method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20041005