JP3499608B2 - Input coordinate judgment device - Google Patents

Input coordinate judgment device

Info

Publication number
JP3499608B2
JP3499608B2 JP25423994A JP25423994A JP3499608B2 JP 3499608 B2 JP3499608 B2 JP 3499608B2 JP 25423994 A JP25423994 A JP 25423994A JP 25423994 A JP25423994 A JP 25423994A JP 3499608 B2 JP3499608 B2 JP 3499608B2
Authority
JP
Japan
Prior art keywords
input
image
brightness
unit
lightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25423994A
Other languages
Japanese (ja)
Other versions
JPH0896137A (en
Inventor
義恭 角
一生 登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP25423994A priority Critical patent/JP3499608B2/en
Publication of JPH0896137A publication Critical patent/JPH0896137A/en
Application granted granted Critical
Publication of JP3499608B2 publication Critical patent/JP3499608B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力された画像情報
と、自動もしくは手動により入力された座標情報との重
なり具合いを検出する入力座標判定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input coordinate judging device for detecting the degree of overlap between input image information and automatically or manually input coordinate information.

【0002】[0002]

【従来の技術】従来このような処理は、例えば入力され
た座標情報の位置関係を用いて正しく入力されたかどう
かを検査したり、入力された座標における近傍画素を調
べることで検査していた。すなわち、前者では入力され
た各座標間の距離の比を計算し、これと予め登録してい
た基準データと比較したり、後者では入力された座標に
おける画像の勾配ベクトルを求め、その傾きを基準デー
タと比較するなどしていた。
2. Description of the Related Art Conventionally, such a process has been inspected by, for example, inspecting whether or not a correct input is made by using a positional relationship of input coordinate information, or by checking a neighboring pixel at an input coordinate. That is, in the former case, the ratio of the distances between the input coordinates is calculated and compared with the previously registered reference data. In the latter case, the gradient vector of the image at the input coordinates is obtained and the inclination is used as the reference. I was comparing it with the data.

【0003】[0003]

【発明が解決しようとする課題】ところで、入力された
画像情報を、入力された座標情報を用いて変形整合し、
得られる画像を出力するような画像処理において、入力
された座標情報が誤っていると、出力される画像も誤っ
たものになってしまうという問題があった。そこで、こ
のような問題を解決するために、入力された座標情報と
画像情報との整合性を検査する必要があった。
By the way, the input image information is transformed and matched by using the input coordinate information,
In the image processing for outputting the obtained image, if the input coordinate information is incorrect, there is a problem that the output image will also be incorrect. Therefore, in order to solve such a problem, it is necessary to check the consistency between the input coordinate information and the image information.

【0004】しかしながら、従来の技術では座標情報の
みで検査する場合、画像とのずれは判別できない。ま
た、近傍画素を調べる場合には、座標情報が大きくずれ
た場合などには、検査を誤ってしまう場合があった。
However, in the conventional technique, when the inspection is performed only by the coordinate information, the deviation from the image cannot be determined. In addition, when examining the neighboring pixels, the inspection may be erroneous when the coordinate information is largely deviated.

【0005】本発明は、このような従来の技術の課題を
考慮し、安定して入力画像と入力座標との誤差検出を行
なうことができ、入力画像を用いた画像変形等が可能と
なる入力座標判定装置を提供することを目的とするもの
である。
In consideration of the above-mentioned problems of the conventional technique, the present invention can stably detect the error between the input image and the input coordinates, and can perform image transformation using the input image. An object is to provide a coordinate determination device.

【0006】[0006]

【課題を解決するための手段】本発明は、画像を入力す
る画像入力部と、入力された画像を記憶する画像記憶部
と、前記画像における特定の部位の座標を入力する座標
入力部と、入力される画像の基準構造を予めパッチの集
合で記述した基準構造モデル部と、前記座標入力部で以
て入力された座標を元に前記基準構造モデルを変形整合
させる構造モデル整合部と、前記整合された構造モデル
の各パッチに対し、前記画像記憶部の画像から明度を計
算する明度計算部と、入力されるべき画像の標準的な明
度分布を記録した基準データ部と、前記明度計算部によ
り得られた各パッチ毎の明度と、前記基準データ部の各
パッチ毎の明度とを比較計算し、前記座標入力部より入
力された座標が、正しく入力されているか否かの判定を
行なう判定部とを供えた入力座標判定装置である。
According to the present invention, there is provided an image input section for inputting an image, an image storage section for storing the input image, and a coordinate input section for inputting coordinates of a specific part in the image. A reference structure model part in which a reference structure of an input image is described in advance by a set of patches; a structure model matching part for deforming and matching the reference structure model based on the coordinates input by the coordinate input part; For each patch of the matched structural model, a brightness calculation unit that calculates brightness from the image in the image storage unit, a reference data unit that records a standard brightness distribution of the image to be input, and the brightness calculation unit. The brightness of each patch obtained by the above is compared with the brightness of each patch of the reference data section to determine whether the coordinates input from the coordinate input section are correctly input. Part and An input coordinate determining device was e.

【0007】[0007]

【作用】本発明によれば、座標入力部により得られる位
置情報を用いて、基準構造モデル部の構造モデルを構造
モデル整合部により変形整合させる。さらに、得られた
構造モデルの各パッチにおける明度を明度計算部により
計算する。入力された位置情報が正しければ変形整合さ
れた構造モデルは画像記憶部内の画像に正しく整合して
いるので、各パッチにおける明度分布は、入力される画
像が基準データ部に記録された同種類の画像であれば、
同じような明度分布になるはずである。
According to the present invention, the position information obtained by the coordinate input unit is used to deform and match the structural model of the reference structural model unit by the structural model matching unit. Further, the brightness of each patch of the obtained structural model is calculated by the brightness calculator. If the input position information is correct, the deformation-matched structural model is correctly matched to the image in the image storage unit.Therefore, the lightness distribution in each patch shows that the input image is of the same type recorded in the reference data unit. If it ’s an image,
The brightness distribution should be similar.

【0008】そこで、基準データ部のデータとして基準
となる同種の画像の明度分布を格納しておき、明度計算
部より得られた明度との相違を判定部において計算し、
計算結果から位置情報と入力画像との相違を検出するも
のである。
Therefore, the lightness distribution of the same kind of image serving as a reference is stored as the data of the reference data part, and the difference from the lightness obtained by the lightness calculation part is calculated in the judgment part,
The difference between the position information and the input image is detected from the calculation result.

【0009】[0009]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0010】図1は請求項1項記載の発明の一実施例の
構成を示すブロック図である。図中、1は画像を入力す
る画像入力部、2は画像を記憶する画像記憶部、3は画
像の特定部位の座標を入力する座標入力部、4は前記入
力される画像の構造をパッチの集合で記述した基準構造
モデル部、5は前記構造モデルを前記入力された座標に
より変形整合させる構造モデル整合部、6は整合された
構造モデルを元に前記画像記憶部の画像から明度を計算
する明度計算部、7は入力されるべき画像の平均明度分
布を記録した基準データ部、8は前記明度計算部6より
得られた明度と前記基準データ部7内の明度との相違を
計算し、前記座標入力部3より入力された座標が、前記
画像入力部1より得られる画像上に正しく存在するか否
かの判定を行なう判定部である。以降、本実施例では入
力される画像として顔を例にとり、更により具体的に説
明する。
FIG. 1 is a block diagram showing the configuration of an embodiment of the invention described in claim 1. In the figure, 1 is an image input section for inputting an image, 2 is an image storage section for storing an image, 3 is a coordinate input section for inputting coordinates of a specific part of the image, and 4 is a patch of the structure of the input image. A reference structural model unit described as a set, 5 is a structural model matching unit that deforms and matches the structural model according to the input coordinates, and 6 is the brightness calculated from the image in the image storage unit based on the matched structural model. A lightness calculation unit, 7 is a reference data unit recording an average lightness distribution of an image to be input, 8 is a difference between the lightness obtained by the lightness calculation unit 6 and the lightness in the reference data unit 7, This is a determination unit that determines whether or not the coordinates input from the coordinate input unit 3 are correctly present on the image obtained from the image input unit 1. Hereinafter, in the present embodiment, a face will be taken as an example of an input image, and the image will be described more specifically.

【0011】画像入力部1は具体的にはテレビカメラを
用い、カラー顔画像を取り込み、画像記憶部2に入力す
る。画像記憶部2の顔画像に対し、座標入力部3では、
マウスを使うことによって眉、目、鼻、口などの各特徴
点の位置情報を手動で入力したり、例えば既に特許出願
を行なっている(特開平5−197793号)「顔画像
特徴点抽出装置」に記載されている装置を用い、自動で
入力する。
The image input unit 1 uses a television camera, specifically, to capture a color face image and input it to the image storage unit 2. For the face image in the image storage unit 2, the coordinate input unit 3
Position information of each feature point such as eyebrows, eyes, nose, mouth, etc. can be manually input by using a mouse, or, for example, a patent application has already been made (Japanese Patent Laid-Open No. 5-197793). It is automatically entered using the device described in ".

【0012】図2に人物の顔画像に対し入力すべき座標
の一例を示す。本実施例では、入力すべき座標Pを49
個としている。たとえば、頭頂点、左右目横点、左右口
上横点等である。その際、手動、自動にかかわらず誤っ
て入力されたり、不適切に入力されることがある。
FIG. 2 shows an example of coordinates to be input to a face image of a person. In this embodiment, the coordinate P to be input is 49
I am individual. For example, the apex of the head, lateral points of the left and right eyes, lateral points of the left and right mouth, and the like. At that time, it may be input incorrectly or improperly, regardless of whether it is manual or automatic.

【0013】図3に基準構造モデル部4に記述されてい
る構造モデルの一例を示す。このように、構造モデルは
3角パッチの集合より構成される。より具体的には、構
造モデルは頂点データv0(x0,y0),v1(x1,y1),v2(x2,y2)
…と、それらを連結して出来る連結データp0(v0,v1,v
2),p1(v0,v2,v3)…、とから構成される。図3の構造モ
デルの場合、205個の頂点データと、380個の連結
データより構成される。それらのデータの中に、頭頂
点、左右目横点、左右口上横点等が存在する。
FIG. 3 shows an example of the structural model described in the reference structural model section 4. In this way, the structural model is composed of a set of triangular patches. More specifically, the structural model is the vertex data v0 (x0, y0), v1 (x1, y1), v2 (x2, y2)
… And the concatenated data p0 (v0, v1, v
2), p1 (v0, v2, v3) ... And. In the case of the structural model of FIG. 3, it is composed of 205 vertex data and 380 connected data. Among these data, there are head vertices, left and right eye lateral points, left and right oral lateral points, and the like.

【0014】次に構造モデル整合部5では、座標入力部
3により得られた座標Pに合うように、構造モデルを変
形整合する。具体的には、構造モデル上の各頂点を前記
座標入力部3より得られる座標Pに対応している頂点
(頭頂点同士、左右目横点同士等)と、そうでない頂点
に分類する。対応している頂点については、得られてい
る座標Pの座標値をそのまま用いる。対応していない頂
点については、対応している頂点との位置関係を保った
まま次のように線形補間することにより、全ての頂点の
座標を更新し、入力画像に整合した構造モデルを生成す
る。この線形補間を式で表わすと、 q(x,y)…構造モデル内の補間すべき頂点 p0(x0,y0) p1(x1,y1) p2(x2,y2) ・・・構造モデル内の、下記条件を満たす
特徴点 m0:m1:m2 ・・・頂点qと特徴点p0,p1,p2の距離
の比 p0'(x0',y0') p1'(x1',y1') p2'(x2',y2') ・・・入力画像から得られる特徴点 とすると、補間によって得られる頂点q'(x',y')は、
(数1)で求められる。
Next, the structural model matching unit 5 deforms and matches the structural model so as to match the coordinates P obtained by the coordinate input unit 3. Specifically, the vertices on the structural model are classified into vertices corresponding to the coordinates P obtained from the coordinate input unit 3 (head vertices, left and right eye lateral points, etc.) and vertices not. For the corresponding vertices, the coordinate value of the obtained coordinate P is used as it is. For non-corresponding vertices, linear interpolation is performed as follows while maintaining the positional relationship with the corresponding vertices to update the coordinates of all vertices and generate a structural model that matches the input image. . When this linear interpolation is expressed by an equation, q (x, y) ... Vertex to be interpolated in the structural model p0 (x0, y0) p1 (x1, y1) p2 (x2, y2) ... In the structural model, Feature points m0: m1: m2 that satisfy the following conditions: Ratio of distances between vertex q and feature points p0, p1, p2 p0 '(x0', y0 ') p1' (x1 ', y1') p2 '(x2 ', y2') ・ ・ ・ The vertex q '(x', y ') obtained by interpolation is the feature point obtained from the input image,
It is calculated by (Equation 1).

【0015】[0015]

【数1】 なお、ここで言う条件とは、 ・構造モデル上において、補間すべき頂点が、特徴点3
点を結んで得られる3角形の内部にあること。 ・特徴点を結んで得られる3角形の位相が構造モデル
と、抽出された特徴点とで同じであること。 ・補間すべき頂点からの距離が近い特徴点であること。 である。図4に整合された構造モデルの一例を示す。
[Equation 1] The conditions mentioned here are: -On the structural model, the vertex to be interpolated is the feature point 3
It must be inside a triangle obtained by connecting points. -The phase of the triangle obtained by connecting the feature points is the same in the structural model and the extracted feature points. -The feature points are close to the vertex to be interpolated. Is. An example of the matched structural model is shown in FIG.

【0016】次に明度計算部6では、前記整合された構
造モデルの各パッチに対し、画像記憶部2の画像データ
から明度を計算する。具体的には3つの頂点で囲まれる
画素の平均明度を求めればよい。その後、基準データ部
7内の基準明度と明度計算部6により得られた次に述べ
るような明度の相違を判定部8により計算し、その差が
ある閾値Tより小さい場合、座標入力された値は、正し
く入力画像上にあると判定する。
Next, the lightness calculation unit 6 calculates the lightness of each patch of the matched structural model from the image data of the image storage unit 2. Specifically, the average brightness of the pixels surrounded by the three vertices may be obtained. After that, the determination unit 8 calculates a difference between the reference lightness in the reference data unit 7 and the lightness obtained by the lightness calculation unit 6 as described below, and when the difference is smaller than a certain threshold value T, the coordinate input value Determines that it is correctly on the input image.

【0017】図5に入力画像(左図)並びに、明度計算
部6により得られた明度を示し(右図)、図6に基準デ
ータ部7内の基準明度を示す。また、図7に誤った自動
抽出により得られた座標頂点(白い点)並びに入力画像
(左図)、それによって明度計算部6より得られた明度
を示す(右図)。本実施例の場合、例えば判定部8によ
り、各々の形状モデルに対し、各パッチの明度の和をあ
る値に正規化し、基準データとの差分の絶対値の和を取
ると、図5の場合だと0.80、図7の場合だと1.2
0となる。従って、ある閾値TをT=1.00と定める
事により、図7における座標入力値(白い点)は、誤っ
た座標自動抽出であったことがわかる。
FIG. 5 shows the input image (left figure) and the lightness obtained by the lightness calculating section 6 (right figure), and FIG. 6 shows the reference lightness in the reference data section 7. Further, FIG. 7 shows coordinate vertices (white dots) obtained by erroneous automatic extraction, the input image (left figure), and the lightness obtained by the lightness calculation unit 6 (right figure). In the case of the present embodiment, for example, when the determination unit 8 normalizes the sum of the brightness of each patch to a certain value for each shape model and obtains the sum of the absolute values of the differences from the reference data, the case of FIG. 0.80, 1.2 in the case of Fig. 7
It becomes 0. Therefore, by setting a certain threshold value T to T = 1.00, it can be seen that the coordinate input value (white dot) in FIG. 7 was incorrect coordinate automatic extraction.

【0018】本発明の請求項2記載の発明の場合、基準
データ部7内に光源方向別に例えば、正面、右、左、
上、下の5方向に光源がある場合のデータを用意してお
き、判定部8において、各々の基準データとの差分を比
較し、絶対値の和が最小のものを入力画像との距離とす
ることで、光源の変動に強い判定が可能となる。
In the case of the invention according to claim 2 of the present invention, for example, front, right, left,
Data when the light sources are present in the upper and lower five directions is prepared, and the difference with each reference data is compared in the determination unit 8, and the one having the smallest sum of absolute values is set as the distance from the input image. By doing so, it is possible to make a strong judgment against the fluctuation of the light source.

【0019】本発明の請求項3記載の発明の場合、判定
部8において計算されるのは、構造モデルの各パッチに
おける明度をそのまま用いずに、各パッチ間の明度の差
分を用いる。明度の差分を用いることで、より照明条件
に強い判定が可能となる。
In the case of the third aspect of the present invention, what is calculated in the judging section 8 is not the lightness of each patch of the structural model but the difference of lightness between each patch. By using the difference in brightness, it is possible to make a judgment that is more robust to the illumination condition.

【0020】図8は本発明の請求項5記載の発明の一実
施例の構成を示すブロック図である。図中、9は顔画像
の明度を補正する明度補正部であり、明度計算部6の後
段に付加した例である。その他、前記図1と同じ機能ブ
ロックには同じ符号で示してある。前記明度補正部9で
明度補正処理を行なうには、基準構造モデル部4に各パ
ッチの法線ベクトルが得られるよう頂点データを3次元
で有しておく。明度補正部9では、明度計算部6より得
られる各パッチの明度と前記法線ベクトルとから、光源
の位置を推定する。推定には顔の皮膚領域のパッチを用
い、明度の大きい複数個のパッチの法線ベクトルの平均
を用いることにより、光源を推定することが出来る。す
なわち、明るい領域が存在する側に光源が存在すると推
定する。推定された光源と基準データ部7内の基準デー
タとの光源の位置が違う場合、どちらか一方の光源に合
うよう、明度を補正する。即ち古い光源方向の法線に近
いパッチの明度を下げて、新しい光源方向の法線に近い
パッチは明度を上げる。このような補正を行なうことに
より、幅広い照明条件下での判定が可能となる。
FIG. 8 is a block diagram showing the configuration of an embodiment of the invention according to claim 5 of the present invention. In the figure, 9 is a lightness correction unit for correcting the lightness of the face image, which is an example added to the latter stage of the lightness calculation unit 6. In addition, the same functional blocks as those in FIG. 1 are designated by the same reference numerals. To perform the brightness correction processing in the brightness correction unit 9, the reference structure model unit 4 has three-dimensional vertex data so that the normal vector of each patch can be obtained. The lightness correction unit 9 estimates the position of the light source from the lightness of each patch obtained from the lightness calculation unit 6 and the normal vector. The light source can be estimated by using the patch of the skin region of the face for estimation and using the average of the normal vectors of a plurality of patches having high brightness. That is, it is estimated that the light source exists on the side where the bright region exists. When the estimated light source and the reference data in the reference data unit 7 have different light source positions, the lightness is corrected so as to match one of the light sources. That is, the brightness of the patch close to the normal of the old light source direction is lowered, and the brightness of the patch close to the normal of the new light source direction is increased. By performing such a correction, it is possible to make a determination under a wide range of illumination conditions.

【0021】なお、本発明の各手段は、コンピュータを
用いてソフトウェア的に実現し、あるいはそれら各機能
を有する専用のハード回路を用いて実現する事が出来
る。
Each means of the present invention can be realized by software using a computer, or can be realized by using a dedicated hardware circuit having these respective functions.

【0022】また、基準構造モデルは3角パッチに限ら
ず、他の形状のパッチでもかまわない。
Further, the reference structure model is not limited to the triangular patch, and may be a patch having another shape.

【0023】また、構造モデル整合部の行う変形整合
は、線形補間に限らず、他の方法で行うことも可能であ
る。
The deformation matching performed by the structural model matching unit is not limited to linear interpolation, but can be performed by other methods.

【0024】[0024]

【発明の効果】以上述べたところから明らかなように、
本発明の入力座標判定装置は、入力された画像並びに座
標から、その画像に整合した構造モデルを生成し、入力
された画像から明度を求め、構造モデルに明度情報を付
加する。得られた構造モデル上の明度と、基準データの
明度を比較することで、入力された画像と座標の整合性
を判断するので、照明条件が多少変動しても明度の変化
は比較的少ないので、安定して入力画像と入力座標との
誤差検出を行なうことができ、その結果、入力画像を用
いた画像変形等が可能となる。
As is apparent from the above description,
The input coordinate determination device of the present invention generates a structural model matching the image from the input image and coordinates, obtains the brightness from the input image, and adds the brightness information to the structural model. By comparing the brightness on the obtained structural model with the brightness of the reference data, the consistency of the input image and the coordinates is judged, so even if the lighting conditions change slightly, the change in brightness is relatively small. It is possible to stably detect the error between the input image and the input coordinates, and as a result, it becomes possible to perform image transformation using the input image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の請求項1記載の発明の一実施例の構成
を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of an embodiment of the invention according to claim 1 of the present invention.

【図2】入力されるべき特徴点Pの一例を示す図であ
る。
FIG. 2 is a diagram showing an example of feature points P to be input.

【図3】基準構造モデルの一例を示す図である。FIG. 3 is a diagram showing an example of a reference structure model.

【図4】入力画像に整合された構造モデルの一例を示す
図である。
FIG. 4 is a diagram showing an example of a structural model matched to an input image.

【図5】入力画像並びに、明度計算部より得られた明度
を表わす図である。
FIG. 5 is a diagram showing an input image and the brightness obtained by a brightness calculation unit.

【図6】基準データ部に格納されている基準データの明
度の一例を表わす図である。
FIG. 6 is a diagram showing an example of brightness of reference data stored in a reference data section.

【図7】入力画像並びに誤って自動抽出された特徴点、
並びにそれより得られる明度を表わす図である。
FIG. 7 is a diagram showing an input image and feature points automatically extracted by mistake.
It is a figure showing the brightness obtained from it.

【図8】本発明の請求項5記載の発明の一実施例の構成
を示すブロック図である。
FIG. 8 is a block diagram showing the configuration of an embodiment of the invention according to claim 5 of the present invention.

【符号の説明】[Explanation of symbols]

1…画像力部 2…画像記憶部 3…座標入力部 4…基準構造モデル部 5…構造モデル整合部 6…明度計算部 7…基準データ部 8…判定部 9…明度補正部 1 ... Image power department 2 ... Image storage unit 3 ... Coordinate input section 4 ... Standard structure model section 5 ... Structural model matching section 6 ... Brightness calculator 7 ... Standard data section 8 ... Judgment unit 9 ... Brightness correction unit

フロントページの続き (56)参考文献 特開 平3−158997(JP,A) 特開 平4−306782(JP,A) 特開 平6−259532(JP,A) 秋本高明 外1名,”正面像と側面像 に基づく頭部三次元モデルの生成”,N TT R&D,社団法人電気通信協会, 1993年 4月10日,第42巻,第4号, p.455−464 長谷川浩史 外1名,”パターンマッ チングを用いた顔画像照合の−検討”, テレビジョン学会技術報告,社団法人テ レビジョン学会,1992年 7月23日,第 16巻,第47号,p.49−56 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06B 11/00 G06T 11/80 CSDB(日本国特許庁)Continuation of the front page (56) Reference JP-A-3-158997 (JP, A) JP-A-4-306782 (JP, A) JP-A-6-259532 (JP, A) Takaaki Akimoto 1 person, "front" Generation of 3D Head Model Based on Image and Side View ", NTT R & D, The Telecommunications Society of Japan, April 10, 1993, Vol. 42, No. 4, p. 455-464 Hiroshi Hasegawa, 1 person, "Study on face image matching using pattern matching", Technical Report of The Television Society of Japan, Television Society of Japan, July 23, 1992, Volume 16, No. 47. , P. 49-56 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 G06B 11/00 G06T 11/80 CSDB (Japan Patent Office)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像を入力する画像入力部と、入力され
た画像を記憶する画像記憶部と、前記画像における特定
の部位の座標を入力する座標入力部と、入力される画像
の基準構造を予めパッチの集合で記述した基準構造モデ
ル部と、前記座標入力部で以て入力された座標を元に前
記基準構造モデルを変形整合させる構造モデル整合部
と、前記整合された構造モデルの各パッチに対し、前記
画像記憶部の画像から明度を計算する明度計算部と、入
力されるべき画像の標準的な明度分布を記録した基準デ
ータ部と、前記明度計算部により得られた各パッチ毎の
明度と、前記基準データ部の各パッチ毎の明度とを比較
計算し、前記座標入力部より入力された座標が、正しく
入力されているか否かの判定を行なう判定部とを供えた
ことを特徴とする入力座標判定装置。
1. An image input unit for inputting an image, an image storage unit for storing the input image, a coordinate input unit for inputting coordinates of a specific part in the image, and a reference structure of the input image. A reference structure model part described in advance as a set of patches, a structure model matching part that deforms and matches the reference structure model based on the coordinates input by the coordinate input part, and each patch of the matched structure model On the other hand, a brightness calculation unit that calculates brightness from the image in the image storage unit, a reference data unit that records a standard brightness distribution of an image to be input, and each patch obtained by the brightness calculation unit. The lightness and the lightness of each patch of the reference data section are compared and calculated, and a determination section for determining whether or not the coordinates input from the coordinate input section are correctly input is provided. Input to Coordinate determination device.
【請求項2】 基準データ部は、入力されるべき画像に
対し、光源方向別に複数の標準明度分布データを記録し
ていることを特徴とする請求項1記載の入力座標判定装
置。
2. The input coordinate determination device according to claim 1, wherein the reference data section records a plurality of standard brightness distribution data for each light source direction for the image to be input.
【請求項3】 判定部において計算されるのは、前記明
度計算部により得られた各パッチ間における明度の差分
値と、前記基準データ部の各パッチ間における明度の差
分値の相違であることを特徴とする請求項1記載の入力
座標判定装置。
3. The judgment unit calculates the difference between the brightness difference value between the patches obtained by the brightness calculation unit and the brightness difference value between the patches of the reference data unit. The input coordinate determination device according to claim 1, wherein:
【請求項4】 判定部において計算されるのは、前記明
度計算部により得られた各パッチ間における明度の差分
値と、前記基準データ部のにおける複数のデータの各パ
ッチ間における明度の差分値の相違であることを特徴と
する請求項2記載の入力座標判定装置。
4. The judgment unit calculates a brightness difference value between patches obtained by the brightness calculation unit and a brightness difference value between patches of a plurality of data in the reference data unit. The input coordinate determination device according to claim 2, wherein
【請求項5】 基準構造モデル部は前記情報を3次元の
態様で有し、明度補正部が、前記明度計算部より得られ
る各パッチ毎の明度と、前記3次元情報を元に、各パッ
チにおける平均明度を補正することを特徴とする請求項
1、又は3記載の入力座標判定装置。
5. The reference structure model section has the information in a three-dimensional manner, and the lightness correction section uses the lightness of each patch obtained from the lightness calculation section and the three-dimensional information for each patch. The input coordinate determination device according to claim 1 or 3, wherein the average brightness is corrected.
JP25423994A 1994-09-22 1994-09-22 Input coordinate judgment device Expired - Fee Related JP3499608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25423994A JP3499608B2 (en) 1994-09-22 1994-09-22 Input coordinate judgment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25423994A JP3499608B2 (en) 1994-09-22 1994-09-22 Input coordinate judgment device

Publications (2)

Publication Number Publication Date
JPH0896137A JPH0896137A (en) 1996-04-12
JP3499608B2 true JP3499608B2 (en) 2004-02-23

Family

ID=17262212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25423994A Expired - Fee Related JP3499608B2 (en) 1994-09-22 1994-09-22 Input coordinate judgment device

Country Status (1)

Country Link
JP (1) JP3499608B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283216A (en) 2000-04-03 2001-10-12 Nec Corp Image collating device, image collating method and recording medium in which its program is recorded
JP2009273116A (en) * 2008-04-07 2009-11-19 Fujifilm Corp Image processing device, image processing method, and program
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
JP2018124990A (en) * 2017-01-31 2018-08-09 キヤノン株式会社 Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
秋本高明 外1名,"正面像と側面像に基づく頭部三次元モデルの生成",NTT R&D,社団法人電気通信協会,1993年 4月10日,第42巻,第4号,p.455−464
長谷川浩史 外1名,"パターンマッチングを用いた顔画像照合の−検討",テレビジョン学会技術報告,社団法人テレビジョン学会,1992年 7月23日,第16巻,第47号,p.49−56

Also Published As

Publication number Publication date
JPH0896137A (en) 1996-04-12

Similar Documents

Publication Publication Date Title
EP1677250B9 (en) Image collation system and image collation method
US5995639A (en) Apparatus for identifying person
US6714689B1 (en) Image synthesizing method
US7342572B2 (en) System and method for transforming an ordinary computer monitor into a touch screen
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
EP1742169B1 (en) Tracking apparatus
US9818034B1 (en) System and method for pattern detection and camera calibration
US9049397B2 (en) Image processing device and image processing method
US20110043610A1 (en) Three-dimensional face capturing apparatus and method and computer-readable medium thereof
US20100202696A1 (en) Image processing apparatus for detecting coordinate position of characteristic portion of face
JPH1186033A (en) Method for automatically mapping face image into wire frame topology
US20120002841A1 (en) Information processing apparatus, three-dimensional position calculation method, and program
KR20050022306A (en) Method and Apparatus for image-based photorealistic 3D face modeling
JP2004094491A (en) Face orientation estimation device and method and its program
JPWO2010122721A1 (en) Verification device, verification method and verification program
JPH09171560A (en) Device for detecting face inclination
JP6942566B2 (en) Information processing equipment, information processing methods and computer programs
JP3499608B2 (en) Input coordinate judgment device
JP2011186816A (en) Face image synthesis apparatus
US20120038785A1 (en) Method for producing high resolution image
JP2006318151A (en) Digital image display device and digital image display method
JPH06168317A (en) Personal identification device
GB2282688A (en) Fingerprint matching
CN113674139A (en) Face image processing method and device, electronic equipment and storage medium
JPH06281421A (en) Image processing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees