JPH06186505A - Simulation device for frame of spectacles - Google Patents

Simulation device for frame of spectacles

Info

Publication number
JPH06186505A
JPH06186505A JP33904692A JP33904692A JPH06186505A JP H06186505 A JPH06186505 A JP H06186505A JP 33904692 A JP33904692 A JP 33904692A JP 33904692 A JP33904692 A JP 33904692A JP H06186505 A JPH06186505 A JP H06186505A
Authority
JP
Japan
Prior art keywords
spectacle frame
image
processing
frame image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33904692A
Other languages
Japanese (ja)
Inventor
Keimei Kanisawa
啓明 蟹澤
Kazuya Horii
和哉 堀井
Masaki Ishikawa
真己 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP33904692A priority Critical patent/JPH06186505A/en
Publication of JPH06186505A publication Critical patent/JPH06186505A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To provide a simulation device for the frame of spectacles by which an operator can optionally perform such processing as enlarging/reducing, rotating or deforming to the image of the frame of spectacles. CONSTITUTION:A standard structure model matching part 15 matches a standard structure model to the image of the frame of spectacles inputted by an input part 13 for inputting the image of the frame of spectacles or the image of the frame of spectacles read out from a storage part 14 for storing the image of the frame of spectacles. In a processing part 17 for processing the image of the frame of spectacles, the matched structure model is enlarged/ reduced, rotated or deformed and the color information and the variable density information of the image of the frame of spectacles is allocated on the deformed structure model, and the deformed image of the frame of spectacles is produced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、メガネフレームの装用
状態を表示するメガネフレームシミュレーション装置の
うち、特にメガネフレーム画像に対して、任意に拡大・
縮小、回転、変形等の処理を行うことができるメガネフ
レームシミュレーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a spectacle frame simulating device for displaying the wearing state of spectacle frames, and in particular, it can arbitrarily enlarge / expand the spectacle frame image.
The present invention relates to an eyeglass frame simulation device capable of performing processing such as reduction, rotation, and deformation.

【0002】[0002]

【従来の技術】例えば、眼鏡販売店等で、顧客がメガネ
フレームを購入する場合、従来は顧客自らがメガネフレ
ームを装用し、その様子を鏡等に写して見るか、あるい
は販売員等にアドバイスしてもらう方法があった。しか
し、このような場合、ほとんどの顧客は視力が低く、適
切に処方されたレンズが装着されていないメガネフレー
ムを装用しながら、鏡等を見るには不都合がある。ま
た、いくつかのメガネフレームを試着する場合、都度メ
ガネフレームを掛け替える必要があり、非常に煩わし
い。
2. Description of the Related Art For example, when a customer buys a spectacle frame at an eyeglass store, the customer has conventionally worn the spectacle frame and viewed it in a mirror or the like, or advises a salesperson or the like. There was a way to get them to do it. However, in such a case, most customers have low eyesight and it is inconvenient to look at a mirror or the like while wearing a spectacle frame without properly prescribed lenses. Also, when trying on several eyeglass frames, it is necessary to change the eyeglass frames each time, which is very troublesome.

【0003】このような、メガネフレームの選択を補助
する装置として、顧客がメガネフレームを装用した状態
を撮影し、その画像を表示する方法を用いた装置と、顧
客の顔画像と、メガネフレーム画像を別々に撮影し、両
者を画像合成し表示する方法を用いた装置がある。
As a device for assisting the selection of such a spectacle frame, a device using a method of photographing a state in which the customer wears the spectacle frame and displaying the image, a face image of the customer, and a spectacle frame image. There is a device that uses a method of separately capturing images of the two and combining and displaying the images.

【0004】後者の装置として、例えば、特開昭63−
261218号公報に示す眼鏡フレーム選択補助装置が
挙げられる。この装置では、顧客の顔画像とメガネフレ
ーム画像との合成位置を適合させるために、顧客の顔画
像入力時に、顔画像とメガネフレーム画像の合成画像を
表示し、顧客はこの合成画像を見ながら顔を移動させ、
適切な位置に修正している。
As the latter device, for example, Japanese Patent Laid-Open No. 63-
An example of the eyeglass frame selection assisting device is disclosed in Japanese Patent No. 261218. In this device, in order to match the composite position of the customer's face image and the eyeglass frame image, when the customer's face image is input, the composite image of the face image and the eyeglass frame image is displayed. Move your face,
Corrected to an appropriate position.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来の方法では、顧客が自ら顔を移動させなくては、所望
の位置関係で画像合成ができないため、撮影位置の調整
が難しく、非常に煩わしいものであった。また、所望の
メガネフレーム画像を表示するには、実際に該メガネフ
レームを用意し、都度該メガネフレーム画像を入力する
必要があるため、能率が悪く、時間を要した。
However, in the above-mentioned conventional method, it is difficult to adjust the photographing position because the images cannot be combined in a desired positional relationship unless the customer moves his / her face by himself, which is very troublesome. Met. Further, in order to display a desired spectacle frame image, it is necessary to actually prepare the spectacle frame and input the spectacle frame image each time, which is inefficient and time-consuming.

【0006】そこで本発明はこのような問題点を解決す
るためのもので、その目的は、操作者がメガネフレーム
画像に対して、任意に拡大・縮小、回転、あるいは変形
等の処理を行うことができるメガネフレームシミュレー
ション装置を提供することである。
Therefore, the present invention is intended to solve such a problem, and its purpose is to allow an operator to arbitrarily perform processing such as enlarging / reducing, rotating, or deforming a spectacle frame image. It is to provide an eyeglass frame simulation device capable of performing the above.

【0007】[0007]

【課題を解決するための手段】本発明のメガネフレーム
シミュレーション装置は、少なくとも、人物顔画像を入
力する顔画像入力手段と、メガネフレーム画像を入力す
るメガネフレーム画像入力手段と、前記人物顔画像とメ
ガネフレーム画像を合成する画像合成手段と、前記画像
合成部において合成された合成画像を表示する画像表示
手段とを備えたことを特徴とするメガネフレームシミュ
レーション装置のうち、特に、上記メガネフレーム画像
に対して拡大・縮小、回転、あるいは変形等の処理を施
すことができるメガネフレーム処理手段を備えたことを
特徴とする。
A glasses frame simulation apparatus according to the present invention includes at least a face image input means for inputting a face image of a person, a glasses frame image input means for inputting a glasses frame image, and the face image of a person. Among the spectacle frame simulation apparatuses characterized by including an image synthesizing means for synthesizing the spectacle frame images and an image display means for displaying the synthesized image synthesized by the image synthesizing unit, On the other hand, a spectacle frame processing unit capable of performing processing such as enlargement / reduction, rotation, or deformation is provided.

【0008】また、メガネフレーム処理手段に、メガネ
フレーム画像入力手段で入力されたメガネフレーム画像
を記憶するメガネフレーム画像記憶手段を備えることに
より、複数のメガネフレーム画像に対して、拡大・縮
小、回転、あるいは変形等の処理を連続して施すことが
できるようにしたことを特徴とする。
Further, the spectacle frame processing means is provided with a spectacle frame image storage means for storing the spectacle frame image input by the spectacle frame image input means, so that enlargement / reduction and rotation of a plurality of spectacle frame images can be performed. Alternatively, processing such as deformation can be continuously performed.

【0009】また、メガネフレーム処理手段に、複数の
点、直線、曲線、曲面、もしくは内部が充填された立体
等から成る図形の集合で構成されている構造モデルを内
蔵し、該構造モデルに対して、拡大・縮小、回転、ある
いは変形等の処理を施すことにより、メガネフレーム画
像の処理を実現していることを特徴とする。
Further, the spectacle frame processing means has a built-in structural model composed of a set of figures such as a plurality of points, straight lines, curved lines, curved surfaces, or solids having the inside filled therein. Then, the processing of the spectacle frame image is realized by performing processing such as enlargement / reduction, rotation, or deformation.

【0010】また、メガネフレーム処理手段に、複数の
点、直線、曲線、曲面、もしくは内部が充填された立体
等から成る図形の集合で構成されている構造モデルのう
ち、標準的なメガネフレームの形状を表現するのに好適
な標準構造モデルを内蔵し、該標準構造モデルを記憶す
る標準構造モデル記憶手段と、該標準構造モデルをメガ
ネフレーム画像に整合する標準構造モデル整合手段とを
備えたことを特徴とする。
In addition, in the spectacle frame processing means, a standard spectacle frame of a structural model composed of a set of figures consisting of a plurality of points, straight lines, curved lines, curved surfaces, or solids filled inside A standard structure model suitable for expressing a shape is built-in, and a standard structure model storage means for storing the standard structure model and a standard structure model matching means for matching the standard structure model with an eyeglass frame image are provided. Is characterized by.

【0011】[0011]

【実施例】以下、図面にしたがって、本発明の実施例を
詳細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0012】図1は本発明の一実施例の概略構成を示す
ブロック図である。本実施例による顔画像入力部11に
は、図2に示すような、メガネフレームの装用シミュレ
ーションを行うための所望の人物の顔画像21が入力さ
れる。この顔画像21は顔画像処理部12において様々
な処理が施され、図3に示すような変形顔画像31が生
成される。この変形顔画像31は画像合成部18に送ら
れる。ただし、上記顔画像入力部11および顔画像処理
部12は、公知の装置を用いて実現できる。
FIG. 1 is a block diagram showing a schematic structure of an embodiment of the present invention. A face image 21 of a desired person for performing a simulation simulation of wearing a spectacle frame, as shown in FIG. 2, is input to the face image input unit 11 according to the present embodiment. The face image 21 is subjected to various kinds of processing in the face image processing section 12, and a deformed face image 31 as shown in FIG. 3 is generated. The deformed face image 31 is sent to the image composition unit 18. However, the face image input unit 11 and the face image processing unit 12 can be realized by using known devices.

【0013】一方、メガネフレーム入力部13には、図
4に示すような、装用シミュレーションを行うための所
望のメガネフレーム画像41を入力する。メガネフレー
ム処理部110では、まずメガネフレーム画像記憶部1
4において、前記メガネフレーム画像41を記憶するこ
とができるため、必要であれば随時任意のメガネフレー
ム画像を読み出すことができる。標準構造モデル整合部
15では、標準構造モデル記憶部16に記憶されてい
る、図5に示すような標準構造モデル51を、メガネフ
レーム画像入力部13にて入力されたメガネフレーム画
像41、もしくはメガネフレーム画像記憶部14から読
み出されたメガネフレーム画像に対して、整合する処理
が行われ、例えば、図6に示すような、前記メガネフレ
ーム画像41に対応した構造モデル61が生成される。
また、同じく標準構造モデル整合部15では、前記整合
された構造モデル61に対して、前記メガネフレーム画
像41を用いて、いわゆるテクスチャーマッピング等に
代表される、色情報・濃淡情報の処理を行う。
On the other hand, a desired spectacle frame image 41 for performing a wearing simulation as shown in FIG. 4 is inputted to the spectacle frame input section 13. In the eyeglass frame processing unit 110, first, the eyeglass frame image storage unit 1
4, the spectacle frame image 41 can be stored, so that an arbitrary spectacle frame image can be read out at any time if necessary. In the standard structure model matching unit 15, the standard structure model 51 stored in the standard structure model storage unit 16 as shown in FIG. A matching process is performed on the glasses frame image read from the frame image storage unit 14, and a structural model 61 corresponding to the glasses frame image 41 as shown in FIG. 6 is generated, for example.
Similarly, the standard structural model matching unit 15 uses the glasses frame image 41 to process the matched structural model 61 with color information and grayscale information represented by so-called texture mapping.

【0014】このとき、前記メガネフレーム画像41の
どの部分の色情報・濃淡情報を、前記構造モデル61の
どの位置に割り付けたかを記した、テクスチャーマップ
情報を生成する。標準構造モデル整合部15で生成され
た、前記構造モデル61および前記テクスチャーマップ
情報は、メガネフレーム画像処理部17において、メガ
ネフレームの変形処理に使用される。メガネフレーム画
像処理部17では、前記構造モデル61を拡大・縮小、
回転、あるいは変形し、例えば図7に示すような変形構
造モデル71を生成する。この変形構造モデル71に対
して、前記テクスチャーマップ情報に基づき、メガネフ
レーム画像41の色情報・濃淡情報を割り付けることに
よって、新たに図8に示すような変形メガネフレーム画
像81が生成される。
At this time, texture map information is generated which describes which part of the spectacle frame image 41 the color information / grayscale information is assigned to which position of the structural model 61. The structural model 61 and the texture map information generated by the standard structural model matching unit 15 are used by the spectacle frame image processing unit 17 for spectacle frame deformation processing. The spectacle frame image processing unit 17 enlarges or reduces the structural model 61,
It is rotated or deformed to generate a deformed structure model 71 as shown in FIG. 7, for example. A modified glasses frame image 81 as shown in FIG. 8 is newly generated by allocating color information / grayscale information of the glasses frame image 41 to the modified structure model 71 based on the texture map information.

【0015】画像合成部18では、この変形メガネフレ
ーム画像81と、顔画像処理部12において処理が施さ
れた変形顔画像31が合成され、図9に示すような、メ
ガネフレームを装用した合成顔画像91が生成される。
また、顔画像処理部12およびメガネフレーム画像処理
部17において、処理が施されなかった場合は、顔画像
入力部11において入力された顔画像21とメガネフレ
ーム画像入力部13において入力されたメガネフレーム
画像41の合成画像として、図10に示すような合成顔
画像101が生成される。この合成顔画像91あるいは
合成顔画像101は、画像表示部19において表示され
る。ここで、画像表示部19はCRT等の公知の装置を
用いて実現できる。
The image synthesizing unit 18 synthesizes the deformed spectacle frame image 81 and the deformed face image 31 processed by the face image processing unit 12, and a synthetic face wearing spectacle frames as shown in FIG. The image 91 is generated.
If the face image processing unit 12 and the eyeglass frame image processing unit 17 have not performed the processing, the face image 21 input in the face image input unit 11 and the eyeglass frame input in the eyeglass frame image input unit 13 As a composite image of the image 41, a composite face image 101 as shown in FIG. 10 is generated. The synthetic face image 91 or the synthetic face image 101 is displayed on the image display unit 19. Here, the image display unit 19 can be realized by using a known device such as a CRT.

【0016】図11及び図12は、メガネフレーム画像
入力部13およびメガネフレーム処理部110の動作を
説明するフローチャートである。以下フローチャートに
従って、メガネフレーム画像入力部13およびメガネフ
レーム処理部110の動作を詳細に説明する。
11 and 12 are flowcharts for explaining the operations of the spectacle frame image input unit 13 and the spectacle frame processing unit 110. The operations of the spectacle frame image input unit 13 and the spectacle frame processing unit 110 will be described in detail below with reference to the flowchart.

【0017】ステップ1101(メガネフレーム画像入
力):メガネフレーム画像入力部13において、操作者
は、所望のメガネフレーム画像41を、カメラ等の画像
入力装置を用いて入力する。このとき、メガネフレーム
を冶具等を用いて固定すれば、メガネフレームの向き等
が、いつも同じ条件で入力できる。また、メガネフレー
ムのバックを単一色にすれば、メガネフレーム画像の抽
出が容易になり、画像処理を行う上で利便が図れる。
Step 1101 (input of spectacle frame image): In the spectacle frame image input section 13, the operator inputs a desired spectacle frame image 41 by using an image input device such as a camera. At this time, if the spectacle frame is fixed using a jig or the like, the direction of the spectacle frame and the like can be always input under the same conditions. Further, if the back of the spectacle frame is of a single color, the spectacle frame image can be easily extracted, which is convenient for performing image processing.

【0018】ステップ1102〜1104(メガネフレ
ーム画像の保存):ステップ1101で入力したメガネ
フレーム画像41を記憶したい場合は、ステップ110
2で’Y’を選択する。この場合、ステップ1103に
おいて、メガネフレーム画像41はメガネフレーム画像
記憶部14に記憶される。このメガネフレーム画像記憶
部14は、公知のメモリ等を用いて構成される。引続き
新たなメガネフレーム画像を入力したい場合は、ステッ
プ1104において’Y’を選択すれば、ステップ11
01の処理が行われる。ステップ1102またはステッ
プ1104で’N’が選択された場合は、ステップ11
05の処理に進む。
Steps 1102 to 1104 (storing spectacle frame image): If it is desired to store the spectacle frame image 41 input in step 1101, step 110
Select'Y 'in 2. In this case, in step 1103, the spectacle frame image 41 is stored in the spectacle frame image storage unit 14. The glasses frame image storage unit 14 is configured by using a known memory or the like. If you want to continue inputting new glasses frame images, select'Y 'in step 1104 and step 11
The processing of 01 is performed. If'N 'is selected in step 1102 or step 1104, step 11
The process proceeds to 05.

【0019】ステップ1105(メガネフレームの選
択):画像入力部13において入力されたメガネフレー
ム画像41もしくはメガネフレーム画像記憶部14に記
憶されているメガネフレーム画像のいずれかを選択す
る。
Step 1105 (selection of spectacle frame): Either the spectacle frame image 41 input in the image input section 13 or the spectacle frame image stored in the spectacle frame image storage section 14 is selected.

【0020】ステップ1106〜1109(標準構造モ
デルの整合):標準構造モデル整合部15では、ステッ
プ1105において選択されたメガネフレーム画像に対
して、標準構造モデル記憶部16に記憶されている標準
構造モデル51を整合する。ここで、構造モデルとは、
複数の点、直線、曲線、平面、曲面、もしくは内部が充
填された立体等の図形の集合で構成されている幾何図形
で、物体等の形状を表現するために好適なものである。
また、複数の頂点のうち、いくつかは特徴点に指定され
ている。この特徴点は、メガネフレームの形状を表現す
るのに最も特徴的な点であり、これら複数の特徴点のみ
を用いて曲線近似することによって、メガネフレームの
概形が表現できるものである。また、本発明の標準構造
モデル51は、メガネフレームの形状を表現するのに適
した、標準的もしくは平均的と思われる構造モデルであ
り、複数の頂点とそれを結ぶ直線でつくられる三角形の
平面(以下、三角パッチ)の集合で構成されている。も
ちろん三角形パッチに限らず、四角形の平面(四角パッ
チ)等でも可能である。標準構造モデル51は、標準構
造モデル記憶部16に1つもしくは複数記憶されてい
る。
Steps 1106-1109 (matching of standard structure model): The standard structure model matching unit 15 stores the standard structure model stored in the standard structure model storage unit 16 for the eyeglass frame image selected in Step 1105. Align 51. Here, the structural model is
A geometric figure composed of a set of figures such as a plurality of points, straight lines, curves, planes, curved surfaces, or solids filled inside is suitable for representing the shape of an object or the like.
Also, some of the plurality of vertices are designated as feature points. These characteristic points are the most characteristic points for expressing the shape of the spectacle frame, and the approximate shape of the spectacle frame can be expressed by curve approximation using only these plural characteristic points. The standard structural model 51 of the present invention is a standard or average structural model suitable for expressing the shape of a spectacle frame, and is a triangular plane formed by a plurality of vertices and straight lines connecting the vertices. It is composed of a set of (hereinafter, triangular patches). Of course, the shape is not limited to the triangular patch, and a quadrangular plane (square patch) or the like is also possible. One or more standard structure models 51 are stored in the standard structure model storage unit 16.

【0021】ステップ1106では、前記ステップ11
05において選択されたメガネフレーム画像に対して、
標準構造モデル51の各特徴点がどこに位置するかを指
示する。指示の方法としては、例えばディスプレイ上に
表示されたメガネフレーム画像を、マウス等のポインテ
ィングデバイスで指示する等、公知の手法を用いて行う
ことができる。
In step 1106, in step 11
For the glasses frame image selected in 05,
Indicate where each feature point of the standard structure model 51 is located. As an instruction method, for example, a known method such as instructing an eyeglass frame image displayed on the display with a pointing device such as a mouse can be used.

【0022】ステップ1106において、標準構造モデ
ル51の各特徴点と、ステップ1105において選択さ
れたメガネフレーム画像上の各指示点との1対1の対応
ができたので、これをもとに、ステップ1107におい
て、標準構造モデル51の各特徴点を移動する。
At step 1106, each feature point of the standard structure model 51 and each designated point on the spectacle frame image selected at step 1105 have a one-to-one correspondence. At 1107, each feature point of the standard structural model 51 is moved.

【0023】図13は、ステップ1108における補間
方法を説明する図である。ステップ1108では、前記
ステップ1107で移動された特徴点を用いて、他の頂
点の移動を行う。このとき、他の頂点の位置は、移動さ
れた特徴点の位置を補間して求める。補間の方法として
は、例えば(1.1)式〜(1.6)式に示すような曲
線近似の式を用いる方法がある。本方法では、図13に
示すように4点の特徴点(P0 〜P4 )を用いて、2点
の特徴点の間(P1 、P2 間)の頂点Qを補間してい
る。
FIG. 13 is a diagram for explaining the interpolation method in step 1108. In step 1108, another vertex is moved using the feature point moved in step 1107. At this time, the positions of the other vertices are obtained by interpolating the positions of the moved characteristic points. As an interpolation method, for example, there is a method of using a curve approximation formula as shown in formulas (1.1) to (1.6). In this method, as shown in FIG. 13, four feature points (P0 to P4) are used to interpolate a vertex Q between two feature points (between P1 and P2).

【0024】[0024]

【数1】 [Equation 1]

【0025】[0025]

【数2】 [Equation 2]

【0026】[0026]

【数3】 [Equation 3]

【0027】[0027]

【数4】 [Equation 4]

【0028】[0028]

【数5】 [Equation 5]

【0029】[0029]

【数6】 [Equation 6]

【0030】(1.1)式のQは補間すべき頂点の位置
ベクトル、p0 〜p3 は補間に用いる各特徴点の位置ベ
クトルである。a0 〜a3 は各係数であり、それぞれ
(1.2)〜(1.5)式に示す通りである。ただし、
tは(1.6)式に示す範囲で変化する。すなわち、t
=0でP1 に一致した点、t=1でP2 に一致した点を
表わしている。もちろん、上記方法だけでなく、メガネ
フレームの各部位に適した方法をそれぞれ用いればよ
い。このようにして、すべての頂点について特徴点の位
置をもとに補間する。
In the equation (1.1), Q is the position vector of the vertex to be interpolated, and p0 to p3 are the position vectors of the feature points used for the interpolation. a0 to a3 are respective coefficients and are as shown in the equations (1.2) to (1.5), respectively. However,
t changes within the range shown in the equation (1.6). That is, t
= 0 indicates a point that matches P1 and t = 1 indicates a point that matches P2. Of course, not only the above method but also a method suitable for each part of the spectacle frame may be used. In this way, interpolation is performed based on the positions of the feature points for all the vertices.

【0031】ステップ1106〜1108で生成された
構造モデル61が、所望のものでない場合、ステップ1
109で’N’を選択し、再びステップ1106〜11
08の処理を行う。’Y’を選択した場合は、ステップ
1201の処理に進む。
If the structural model 61 generated in steps 1106-1108 is not what is desired, step 1
In step 109, select'N ', and steps 1106 to 11 are performed again.
08 processing is performed. If “Y” is selected, the process proceeds to step 1201.

【0032】ステップ1201(色情報・濃淡情報処
理):標準構造モデル整合部15ではまた、ステップ1
106〜1108で生成された構造モデル61に対し
て、ステップ1105において選択されたメガネフレー
ム画像の色情報および濃淡情報を割り付ける処理を行
う。すなわち、構造モデル61の各三角パッチに該メガ
ネフレーム画像を投影し、各三角パッチ内の座標と、投
影画像の色情報および濃淡情報を対応付ける。この対応
関係をテクスチャーマップ情報として生成する。
Step 1201 (color information / grayscale information processing): In the standard structure model matching unit 15, the step 1
A process of allocating color information and grayscale information of the spectacle frame image selected in step 1105 is performed on the structural model 61 generated in 106 to 1108. That is, the eyeglass frame image is projected on each triangular patch of the structural model 61, and the coordinates in each triangular patch are associated with the color information and the grayscale information of the projected image. This correspondence is generated as texture map information.

【0033】ステップ1202〜1205(構造モデル
の拡大・縮小):標準構造モデル整合部15で整合され
た構造モデル61は、メガネフレーム画像処理部17
で、拡大・縮小、回転、あるいは変形等の処理が行われ
る。いずれの処理においても、基本的には構造モデル6
1の特徴点を移動し、その他の頂点を補間する方法が用
いられる。本ステップでは、構造モデルの拡大・縮小の
処理について説明する。
Steps 1202 to 1205 (enlargement / reduction of structural model): The structural model 61 matched by the standard structural model matching unit 15 is the eyeglass frame image processing unit 17.
Then, processing such as enlargement / reduction, rotation, or deformation is performed. In either process, basically the structural model 6
A method of moving one feature point and interpolating the other vertices is used. In this step, the process of enlarging / reducing the structural model will be described.

【0034】ステップ1202で’Y’を選択した場
合、ステップ1203以降で構造モデルの拡大・縮小の
処理が行われる。もし、’N’を選択した場合は、拡大
・縮小の処理を行わず、ステップ1206に進む。
When "Y" is selected in step 1202, the structural model enlargement / reduction processing is performed in step 1203 and subsequent steps. If'N 'is selected, the enlarging / reducing process is not performed, and the process proceeds to step 1206.

【0035】ステップ1203では、拡大あるいは縮小
の倍率が入力される。同時に、拡大・縮小の基準点を入
力してもよい。
At step 1203, the magnification for enlargement or reduction is input. At the same time, a reference point for enlargement / reduction may be input.

【0036】図14は、ステップ1204における特徴
点の移動を説明する図である。ステップ1204では、
ステップ1203で入力された倍率にしたがって、特徴
点の移動が行われる。移動の方法は、例えば、図14に
示すように、基準点141を始点とする特徴点142の
位置ベクトル143の大きさを、ステップ1203で入
力された倍率によって変えることにより(位置ベクトル
143’)、特徴点142’の位置に移動する方法等が
ある。また、基準点は、ステップ1203で規定する
か、もしくはあらかじめ初期値を規定する等が考えられ
る。
FIG. 14 is a diagram for explaining the movement of feature points in step 1204. In step 1204,
The feature points are moved according to the magnification input in step 1203. The movement method is, for example, as shown in FIG. 14, by changing the size of the position vector 143 of the feature point 142 starting from the reference point 141 according to the magnification input in step 1203 (position vector 143 ′). , And the method of moving to the position of the feature point 142 ′. The reference point may be defined in step 1203, or an initial value may be defined in advance.

【0037】ステップ1205では、上記移動された特
徴点を用いて、他の頂点の補間を行う。補間方法は、ス
テップ1108で説明した方法と同様の方法でおこなう
ことができる。
In step 1205, the other vertexes are interpolated by using the moved feature points. The interpolation method can be performed by the same method as the method described in step 1108.

【0038】ステップ1206〜1209(構造モデル
の回転):本ステップでは、構造モデルの回転の処理に
ついて説明する。
Steps 1206 to 1209 (Rotation of Structural Model): In this step, processing for rotating the structural model will be described.

【0039】ステップ1206で’Y’を選択した場
合、ステップ1207以降で構造モデルの回転の処理が
行われる。もし、’N’を選択した場合は、回転の処理
を行わず、ステップ1210に進む。
When "Y" is selected in step 1206, the process of rotating the structural model is performed in step 1207 and subsequent steps. If “N” is selected, the rotation process is not performed and the process proceeds to step 1210.

【0040】ステップ1207では、回転の角度が入力
される。回転の角度は、例えば、三次元直交座標系を定
め、各座標(x座標,y座標,z座標)の座標軸の周り
をどの位の角度で回転するかを、それぞれ決める。
At step 1207, the angle of rotation is input. For the rotation angle, for example, a three-dimensional orthogonal coordinate system is defined, and the rotation angle around each coordinate axis (x coordinate, y coordinate, z coordinate) is determined.

【0041】ステップ1208では、ステップ1207
で入力された角度にしたがって、特徴点の移動が行われ
る。移動の方法は、例えば、アフィン変換等の公知の技
術を用いて行うことができる。このとき、座標系の原点
および座標軸の方向は、ステップ1207で規定する
か、もしくはあらかじめ初期値を規定する等が考えられ
る。
In step 1208, step 1207 is executed.
The feature points are moved according to the angle input in. The moving method can be performed using a known technique such as affine transformation. At this time, the origin of the coordinate system and the directions of the coordinate axes may be specified in step 1207, or initial values may be specified in advance.

【0042】ステップ1209では、上記移動された特
徴点を用いて、他の頂点の補間を行う。補間方法は、ス
テップ1108で説明した方法と同様の方法でおこなう
ことができる。
In step 1209, other vertexes are interpolated using the moved feature points. The interpolation method can be performed by the same method as the method described in step 1108.

【0043】ステップ1210〜1214(構造モデル
の変形):ステップ1210で’Y’を選択した場合、
ステップ1211以降で構造モデルの変形の処理が行わ
れる。もし、’N’を選択した場合は、変形の処理を行
わず、ステップ1214に進む。
Steps 1210 to 1214 (deformation of structural model): If'Y 'is selected in Step 1210,
From step 1211, the process of deforming the structural model is performed. If'N 'is selected, the transformation process is not performed and the process proceeds to step 1214.

【0044】ステップ1211では、構造モデルの変形
のため、構造モデル61の任意の特徴点に対して、所望
の移動位置を指示する。指示の方法としては、例えば、
まずディスプレイ上に表示された構造モデル61の任意
の特徴点をマウス等のポインティングデバイスで指示
し、つぎに所望の移動位置を同じくマウス等のポインテ
ィングデバイスで指示する。このような指示は、公知の
装置または手法を用いて行うことができる。
In step 1211, a desired moving position is designated for an arbitrary feature point of the structural model 61 in order to deform the structural model. The instruction method is, for example,
First, an arbitrary feature point of the structural model 61 displayed on the display is designated by a pointing device such as a mouse, and then a desired moving position is designated by a pointing device such as a mouse. Such an instruction can be given using a known device or method.

【0045】ステップ1212では、ステップ1211
で指示された任意の特徴点の移動が行われる。
In step 1212, step 1211
The arbitrary feature point designated by is moved.

【0046】ステップ1213では、上記移動された特
徴点を用いて、他の頂点の補間を行う。補間方法は、ス
テップ1108で説明した方法と同様の方法で行うこと
ができる。
At step 1213, interpolation of other vertices is performed using the moved feature points. The interpolation method can be performed by a method similar to the method described in step 1108.

【0047】以上のステップにおいて処理が施された結
果、変形構造モデル71が生成されたが、この変形構造
モデル71が所望のものでない場合、ステップ1214
で’N’を選択する。この場合、ステップ1202へ戻
る。’Y’を選択した場合はステップ1215へ進む。
As a result of the processing in the above steps, the deformed structure model 71 is generated. If this deformed structure model 71 is not the desired one, step 1214 is executed.
To select'N '. In this case, the process returns to step 1202. If “Y” is selected, the process proceeds to step 1215.

【0048】ステップ1215(マッピング処理):図
15は、ステップ1215におけるマッピング処理を説
明する図である。以上のステップにおいて生成された変
形構造モデル71に対し、構造モデル整合部15で生成
されたテクスチャーマップ情報をもとに、色情報・濃淡
情報を割り付ける。これは、いわゆるテクスチャーマッ
ピング等に代表される手法を用いて行うことができる。
図15に示すように、構造モデル61を構成する三角パ
ッチOAB内の点Pは点Oに対する点A及び点Bの位置
ベクトルを用いて(2.1)式のように表わすことがで
きる。
Step 1215 (mapping process): FIG. 15 is a diagram for explaining the mapping process in step 1215. Color information / grayscale information is assigned to the deformed structural model 71 generated in the above steps based on the texture map information generated by the structural model matching unit 15. This can be performed using a method typified by so-called texture mapping.
As shown in FIG. 15, the point P in the triangular patch OAB forming the structural model 61 can be expressed by the equation (2.1) using the position vectors of the points A and B with respect to the point O.

【0049】[0049]

【数7】 [Equation 7]

【0050】構造モデル61が、メガネフレーム画像処
理部17において拡大・縮小、回転、あるいは変形等の
処理を施され、変形構造モデル71が生成されると、構
造モデル61を構成する三角パッチOABも、図15に
示すような、変形構造モデル71を構成する三角パッチ
OA’B’に変形される。このとき、三角パッチOAB
内の点Pは、三角パッチOA’B’内の点P’に対応す
る。この点Pは点Oに対する点A’及び点B’の位置ベ
クトルを用いて(2.2)式のように表わすことができ
る。
When the structural model 61 is subjected to processing such as enlargement / reduction, rotation, or deformation in the eyeglass frame image processing unit 17 to generate a deformed structural model 71, the triangular patches OAB constituting the structural model 61 are also generated. , The triangular patches OA′B ′ forming the deformed structure model 71 are deformed as shown in FIG. At this time, the triangular patch OAB
The point P inside corresponds to the point P ′ inside the triangular patch OA′B ′. This point P can be expressed by the equation (2.2) using the position vectors of the points A ′ and B ′ with respect to the point O.

【0051】[0051]

【数8】 [Equation 8]

【0052】同様にして、三角パッチOAB内の各点を
三角パッチOA’B’内の各点に対応付ければ、各々の
点の色情報・濃淡情報を対応させることができ、その結
果、変形構造モデル71を構成する全ての三角パッチ
に、メガネフレーム画像41を対応させることができ、
変形メガネフレーム画像81が生成される。
Similarly, by associating each point in the triangular patch OAB with each point in the triangular patch OA'B ', the color information and the grayscale information of each point can be associated, and as a result, the deformation It is possible to make the spectacle frame image 41 correspond to all triangular patches forming the structural model 71,
The modified glasses frame image 81 is generated.

【0053】以上でメガネフレーム処理部110での処
理が終了し、変形メガネフレーム画像81は画像合成部
18へ送られる。
The processing in the spectacle frame processing section 110 is completed as described above, and the modified spectacle frame image 81 is sent to the image synthesizing section 18.

【0054】以上説明した実施例以外にも、本発明のメ
ガネフレームシミュレーション装置は、顔画像に同様な
構造モデルを適用することで、拡大・縮小、回転、ある
いは変形等の処理を行うことが可能であり、様々な顔の
表情にあわせてメガネフレームのシミュレーションを行
うことができる。
In addition to the embodiments described above, the eyeglass frame simulation apparatus of the present invention can perform processing such as enlargement / reduction, rotation, or deformation by applying a similar structural model to a face image. Therefore, it is possible to simulate the glasses frame according to various facial expressions.

【0055】[0055]

【発明の効果】以上説明したように、本発明によれば、
メガネフレーム画像に対して拡大・縮小、回転、あるい
は変形等の処理を施すことができるメガネフレーム処理
手段を備えたことにより、メガネフレーム画像の処理で
メガネフレーム画像と顔画像の位置合わせができ、画像
合成のための処理が簡略かつ容易になる。また、任意の
メガネフレームの形状を作成できるため、実際のメガネ
フレーム画像を入力しなくても様々なメガネフレーム形
状をシミュレーションすることができ、メガネフレーム
選択の時間が短縮できる。しかも販売店においては商品
在庫の削減が可能となる。
As described above, according to the present invention,
By providing the spectacle frame processing means capable of performing processing such as enlargement / reduction, rotation, or deformation on the spectacle frame image, the spectacle frame image and the face image can be aligned by the processing of the spectacle frame image, The processing for image synthesis is simple and easy. Further, since it is possible to create an arbitrary spectacle frame shape, various spectacle frame shapes can be simulated without inputting an actual spectacle frame image, and the spectacle frame selection time can be shortened. Moreover, it is possible to reduce the product inventory at the store.

【0056】また、本発明によれば、メガネフレーム処
理手段に、メガネフレーム画像入力手段で入力されたメ
ガネフレーム画像を記憶するメガネフレーム画像記憶手
段を備えたことにより、複数のメガネフレーム画像に対
して、拡大・縮小、回転、あるいは変形等の処理を連続
して施すことができ、拡大・縮小の倍率、回転の角度、
あるいは変形の指示等をその都度入力する必要がなく、
操作の簡略化ができる。また、複数のメガネフレーム画
像に対して、同一の拡大・縮小の倍率、回転の角度、あ
るいは変形の指示のデータを用いることにより、複数の
メガネフレームの装用状態の比較が容易になる。
Further, according to the present invention, since the spectacle frame processing means is provided with the spectacle frame image storage means for storing the spectacle frame image input by the spectacle frame image input means, a plurality of spectacle frame images can be stored. Processing such as enlargement / reduction, rotation, or deformation can be performed continuously.
Or you don't need to input the deformation instruction each time,
The operation can be simplified. Further, by using the same enlargement / reduction magnification, rotation angle, or deformation instruction data for a plurality of eyeglass frame images, it becomes easy to compare the wearing states of the plurality of eyeglass frames.

【0057】また、本発明によれば、メガネフレーム処
理手段に、複数の点、直線、曲線、曲面、もしくは内部
が充填された立体等から成る図形の集合で構成されてい
る構造モデルを内蔵したことにより、構造モデルに拡大
・縮小、回転、あるいは変形等の処理を施し、さらに上
記構造モデルに対し、色情報・濃淡情報を割り付けるこ
とで、より少ない演算でメガネフレーム画像の処理が実
現できる。このため、装置の簡略化、回路規模の削減、
処理の高速化が図れる。
Further, according to the present invention, the spectacle frame processing means has a built-in structural model composed of a plurality of points, straight lines, curved lines, curved surfaces, or a set of figures composed of a solid body filled with the inside thereof. As a result, the structural model is subjected to processing such as enlargement / reduction, rotation, or deformation, and further color information / grayscale information is assigned to the structural model, whereby the processing of the eyeglass frame image can be realized with less calculation. Therefore, the device is simplified, the circuit scale is reduced,
The processing speed can be increased.

【0058】さらに、本発明によれば、メガネフレーム
処理手段に、複数の点、直線、曲線、曲面、もしくは内
部が充填された立体等から成る図形の集合で構成されて
いる構造モデルのうち、メガネフレームの形状を表現す
るのに好適な標準構造モデルを内蔵し、該標準構造モデ
ルを記憶する標準構造モデル記憶手段を備えたことによ
り、メガネフレーム画像に対する構造モデルの整合が容
易になり、整合処理に要する時間が大幅に短縮できると
ともに装置の操作性が向上する。
Further, according to the present invention, among the structural models in which the spectacle frame processing means is composed of a set of figures including a plurality of points, straight lines, curved lines, curved surfaces, or solids filled inside, By incorporating a standard structural model suitable for expressing the shape of the spectacle frame and providing a standard structural model storage unit for storing the standard structural model, the structural model can be easily matched with the spectacle frame image, The time required for processing can be greatly reduced and the operability of the device is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の概略構成を示すブロック図
である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of the present invention.

【図2】所望の人物の顔画像21を示す図である。FIG. 2 is a diagram showing a face image 21 of a desired person.

【図3】変形顔画像31を示す図である。FIG. 3 is a diagram showing a modified face image 31.

【図4】所望のメガネフレーム画像41を示す図であ
る。
FIG. 4 is a diagram showing a desired spectacle frame image 41.

【図5】標準構造モデル51を示す図である。5 is a diagram showing a standard structural model 51. FIG.

【図6】構造モデル61を示す図である。6 is a diagram showing a structural model 61. FIG.

【図7】変形構造モデル71を示す図である。FIG. 7 is a diagram showing a modified structure model 71.

【図8】変形メガネフレーム画像81を示す図である。FIG. 8 is a diagram showing a modified glasses frame image 81.

【図9】合成顔画像91を示す図である。9 is a diagram showing a synthetic face image 91. FIG.

【図10】顔画像処理部12およびメガネフレーム画像
処理部17において、処理が施されなかった場合の合成
顔画像101を示す図である。
FIG. 10 is a diagram showing a composite face image 101 when no processing is performed in the face image processing unit 12 and the spectacle frame image processing unit 17.

【図11】メガネフレーム画像入力部13およびメガネ
フレーム処理部110の動作を説明するフローチャート
である。
FIG. 11 is a flowchart illustrating operations of the spectacle frame image input unit 13 and the spectacle frame processing unit 110.

【図12】メガネフレーム画像入力部13およびメガネ
フレーム処理部110の動作を説明するフローチャート
である。
FIG. 12 is a flowchart illustrating operations of the spectacle frame image input unit 13 and the spectacle frame processing unit 110.

【図13】ステップ1108における補間方法を説明す
る図である。
FIG. 13 is a diagram illustrating an interpolation method in step 1108.

【図14】ステップ1204における特徴点の移動を説
明する図である。
FIG. 14 is a diagram illustrating movement of feature points in step 1204.

【図15】ステップ1215におけるマッピング処理を
説明する図である。
FIG. 15 is a diagram illustrating a mapping process in step 1215.

【符号の説明】[Explanation of symbols]

11・・・顔画像入力部 13・・・メガネフレーム画像入力部 14・・・メガネフレーム画像記憶部 15・・・標準構造モデル整合部 16・・・標準構造モデル記憶部 17・・・メガネフレーム画像処理部 18・・・画像合成部 19・・・画像表示部 110・・・メガネフレーム処理部 11 ... Face image input unit 13 ... Glasses frame image input unit 14 ... Glasses frame image storage unit 15 ... Standard structure model matching unit 16 ... Standard structure model storage unit 17 ... Glasses frame Image processing unit 18 ... Image combining unit 19 ... Image display unit 110 ... Glasses frame processing unit

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも、人物顔画像を入力する顔画
像入力手段と、メガネフレーム画像を入力するメガネフ
レーム画像入力手段と、前記人物顔画像およびメガネフ
レーム画像を合成する画像合成手段と、前記画像合成手
段において合成された合成画像を表示する画像表示手段
とを備えたことを特徴とするメガネフレームシミュレー
ション装置のうち、特に、上記メガネフレーム画像に対
して拡大・縮小、回転、あるいは変形等の処理を施すこ
とができるメガネフレーム処理手段を備えたことを特徴
とするメガネフレームシミュレーション装置。
1. At least a face image input means for inputting a person's face image, a glasses frame image input means for inputting a glasses frame image, an image combining means for combining the person's face image and glasses frame image, and the image. Among the spectacle frame simulation apparatuses characterized by comprising an image display means for displaying the synthesized image synthesized by the synthesizing means, in particular, processing such as enlarging / reducing, rotating, or deforming the spectacle frame image. An eyeglass frame simulation device, comprising an eyeglass frame processing means capable of applying the above.
【請求項2】 メガネフレーム処理手段に、メガネフレ
ーム画像入力手段で入力されたメガネフレーム画像を記
憶するメガネフレーム画像記憶手段を備え、複数のメガ
ネフレーム画像に対し、連続して拡大・縮小、回転、あ
るいは変形等の処理を施すことを特徴とする請求項1記
載のメガネフレームシミュレーション装置。
2. The spectacle frame processing means includes a spectacle frame image storage means for storing the spectacle frame image input by the spectacle frame image input means, and continuously enlarges / reduces / rotates a plurality of spectacle frame images. The spectacle frame simulation device according to claim 1, wherein processing such as deformation or deformation is performed.
【請求項3】 メガネフレーム処理手段に、複数の点、
直線、曲線、曲面、もしくは内部が充填された立体等か
ら成る図形の集合で構成されている構造モデルを内蔵
し、該構造モデルに対して、拡大・縮小、回転、あるい
は変形等の処理を施すことにより、メガネフレーム画像
の処理を実現していることを特徴とする請求項1記載の
メガネフレームシミュレーション装置。
3. The spectacle frame processing means includes a plurality of points,
Includes a structural model consisting of a set of figures consisting of straight lines, curved lines, curved surfaces, or solids filled inside, and performs processing such as enlargement / reduction, rotation, or deformation on the structural model. The spectacle frame simulation device according to claim 1, wherein the spectacle frame image processing is realized thereby.
【請求項4】 メガネフレーム処理手段に、複数の点、
直線、曲線、曲面、もしくは内部が充填された立体等か
ら成る図形の集合で構成されている構造モデルのうち、
平均的なメガネフレームの形状を表現している標準構造
モデルを内蔵し、該標準構造モデルを記憶する標準構造
モデル記憶手段と、該標準構造モデルをメガネフレーム
画像に整合する標準構造モデル整合手段とを備えたこと
を特徴とする請求項3記載のメガネフレームシミュレー
ション装置。
4. The spectacle frame processing means includes a plurality of points,
Of the structural model consisting of a set of figures consisting of straight lines, curves, curved surfaces, or solids filled inside,
A standard structure model storing means for storing the standard structure model expressing the average shape of the spectacle frame and storing the standard structure model; and a standard structure model matching means for matching the standard structure model with a spectacle frame image. The eyeglass frame simulation apparatus according to claim 3, further comprising:
JP33904692A 1992-12-18 1992-12-18 Simulation device for frame of spectacles Pending JPH06186505A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33904692A JPH06186505A (en) 1992-12-18 1992-12-18 Simulation device for frame of spectacles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33904692A JPH06186505A (en) 1992-12-18 1992-12-18 Simulation device for frame of spectacles

Publications (1)

Publication Number Publication Date
JPH06186505A true JPH06186505A (en) 1994-07-08

Family

ID=18323756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33904692A Pending JPH06186505A (en) 1992-12-18 1992-12-18 Simulation device for frame of spectacles

Country Status (1)

Country Link
JP (1) JPH06186505A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171543A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Method and device for image processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004171543A (en) * 2002-11-07 2004-06-17 Matsushita Electric Ind Co Ltd Method and device for image processing

Similar Documents

Publication Publication Date Title
JP7126000B2 (en) Generating method, apparatus, and device for three-dimensional partial human body model
US5588097A (en) Graphic display method and apparatus for rotating an object in three-dimensional space
CA1278868C (en) Methode of forming curved surfaces and the apparatus
DiPaola Extending the range of facial types
US5774130A (en) Computer animation generator creating hierarchies of models for rapid display
US7138999B2 (en) Refinement of a triangular mesh representing a three-dimensional object
WO1998059321A2 (en) Methods and apparatuses for controlling transformation of two and three-dimensional images
JP3124999B1 (en) Rendering method and apparatus, game apparatus, and computer-readable recording medium storing program for calculating data on shadow of object in virtual space
US20030117675A1 (en) Curved image conversion method and record medium where this method for converting curved image is recorded
JPH09305798A (en) Image display device
KR100381817B1 (en) Generating method of stereographic image using Z-buffer
JPH06118349A (en) Spectacles fitting simulation device
JPH04289976A (en) Three-dimensional shape model forming method and system
JPH0973559A (en) Morphing editing device
CN112561784B (en) Image synthesis method, device, electronic equipment and storage medium
JPH06186505A (en) Simulation device for frame of spectacles
KR0166106B1 (en) Apparatus and method for image processing
JP2018180781A (en) Animation production system, animation production method, and program
JPH0223473A (en) Variable density adding method and device for three-dimensional form model
US6633291B1 (en) Method and apparatus for displaying an image
WO2019049457A1 (en) Image generation device and image generation method
JPH0636025A (en) Defocusing processor
KR102449987B1 (en) Method for automatically setup joints to create facial animation of 3d face model and computer program thereof
JPH0935082A (en) Image processing method and image processor
JPH04184683A (en) Method and device for generating moving image