JPH0831126B2 - Method of creating composite image in spectacle wearing simulation apparatus - Google Patents

Method of creating composite image in spectacle wearing simulation apparatus

Info

Publication number
JPH0831126B2
JPH0831126B2 JP62234507A JP23450787A JPH0831126B2 JP H0831126 B2 JPH0831126 B2 JP H0831126B2 JP 62234507 A JP62234507 A JP 62234507A JP 23450787 A JP23450787 A JP 23450787A JP H0831126 B2 JPH0831126 B2 JP H0831126B2
Authority
JP
Japan
Prior art keywords
image
person
frame
composite
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62234507A
Other languages
Japanese (ja)
Other versions
JPS6476362A (en
Inventor
登 二宮
修 萩原
寿郎 依田
Original Assignee
ホーヤ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホーヤ株式会社 filed Critical ホーヤ株式会社
Priority to JP62234507A priority Critical patent/JPH0831126B2/en
Publication of JPS6476362A publication Critical patent/JPS6476362A/en
Publication of JPH0831126B2 publication Critical patent/JPH0831126B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Dot-Matrix Printers And Others (AREA)
  • Eyeglasses (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To reduce the difference of impressions between a person who actually puts on his/her spectacles and a synthetic image of the person and the spectacle frame, by displaying said synthetic image on a display device based on a synthetic image of an unspectacled person displayed on a display device. CONSTITUTION:The frame synthetic magnifying power and the synthetic position are calculated for production of a synthetic image of a person 2 and a spectacle frame via a CPU 7, a spectacle frame data memory 8 and a program memory 9. Thus synthetic image data on the person 2 and the frame is obtained and this synthetic image is displayed on a display device 12 via a D/A converter 6. Thus an optional picture size is correctly synthesized and the person 2 is photographed in a picture size in response to the purpose of application. Then the spectacle frame is synthesized with a correct position, size and tilt so that the difference of impressions can be reduced between a spectacled synthetic image of the person 2 and the person 2 who actually puts on his/her spectacles.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、眼鏡装用シミユレーシヨン装置における合
成画像作成方法に関する。すなわち、本発明は、眼鏡を
装用していない人物像に対して眼鏡像の画像を作成し、
眼鏡装用の合成画像を表示する眼鏡装用シミユレーシヨ
ン装置における合成画像作成方法に関する。
Description: TECHNICAL FIELD The present invention relates to a synthetic image creating method in a spectacle wearing simulation device. That is, the present invention creates an image of a spectacle image for a person image not wearing spectacles,
The present invention relates to a synthetic image creating method in a spectacle wearing simulation device for displaying a synthetic image for wearing spectacles.

(従来の技術) 従来、眼鏡店等で、メガネを購入する場合において、
処方とは別に所望のメガネフレームを選択するとき、そ
のフレームをかけた自分の顔の状態を知るには、直接フ
レームをかけ、鏡に反射された自分の顔を見ることによ
り行われていた。
(Prior Art) Conventionally, when purchasing eyeglasses at an eyeglass store or the like,
When selecting a desired spectacle frame separately from the prescription, in order to know the condition of one's face on which the frame is applied, it is performed by directly applying the frame and looking at one's face reflected in a mirror.

しかし、強度の近視、乱視等の人ではメガネをはずす
とかなり近い位置でも像がぼけてしまうため、眼鏡枠の
みを装着した状態では正しく自分の顔の状態を知ること
ができなかつた。この為メガネをかけたままで、この装
着状態を知ることができるメガネ装用シミユレーシヨン
装置として、特開昭61−80222号公報に記載の装置が提
案されている。この方法は、画像合成処理技術を利用し
たもので、ビデオカメラによりメガネを外した人物像を
撮像し、該人物像の撮像信号をAD変換してデジタル信号
として画像記憶装置に取り込み、該画像記憶装置に記憶
した人物像のデータ及びメガネフレームのデータを合成
した表示信号を作成し、表示装置に該人物がメガネをか
けた状態を表示することによりメガネ合せを行うもので
ある。
However, for people with strong myopia, astigmatism, etc., if the glasses are removed, the image will be blurred even at a fairly close position. Therefore, it is impossible to correctly know the condition of one's face when wearing only the spectacle frame. For this reason, a device described in Japanese Patent Application Laid-Open No. 61-80222 has been proposed as a spectacle wearing simulation device capable of knowing the wearing state of the spectacles while wearing them. This method uses an image synthesizing processing technique, and a person image without glasses is taken by a video camera, and an image pickup signal of the person image is AD-converted and taken into an image storage device as a digital signal. The display signal is created by combining the data of the person image and the data of the eyeglass frame stored in the device, and the state in which the person wears glasses is displayed on the display device to perform eyeglass matching.

当該装置においては、人物像を記憶する場合、ビデオ
カメラにより撮像した人物像を表示装置の決められた表
示位置に表示し、メガネフレームも同様に予め決められ
た表示すべき位置に人物の顔がくるようにビデオカメラ
を操作して撮像される。
In the device, when a person image is stored, the person image captured by the video camera is displayed at a predetermined display position on the display device, and the face of the person is also displayed at a predetermined display position on the eyeglass frame. The video camera is operated so that it looks like an image.

これはメガネフレームの画像を作成する場合、その大
きさ、位置、角度が固定されている方が、コンピユータ
ーの能力が小さくてよいためである。従つて表示装置に
メガネフレームの位置を示す四角の枠を表示し、この四
角の枠の表示信号とビデオカメラからの撮像信号を合成
して表示しつつ、ビデオカメラを動かして、この枠にち
ようどメガネをかける顔の部分が入るようにして撮像す
るものである。これにより、メガネフレームのデータを
顔の大きさ、位置、傾きにより補正しなくてもよくな
り、またコンピユーター側の能力が小さくてもよくな
る。
This is because the ability of the computer may be smaller if the size, position, and angle of the image of the spectacle frame are fixed. Therefore, a square frame indicating the position of the eyeglass frame is displayed on the display device, and while the display signal of this square frame and the image pickup signal from the video camera are combined and displayed, the video camera is moved to move to this frame. The image is taken so that the part of the face on which you wear glasses is inserted. This eliminates the need to correct the data of the spectacle frame based on the size, position, and inclination of the face, and also reduces the ability of the computer side.

さらに当該方法は、この画像記録装置にメガネフレー
ムのデータを別の記憶装置から転送して合成するもので
ある。
Furthermore, the method transfers the data of the eyeglass frames to the image recording device from another storage device and combines them.

(発明が解決しようとする問題点) しかし、この方法においては、ビデオカメラで撮像す
る人物像はメガネを外した人物像であり、視力矯正用に
メガネを使用している人は、メガネをはずして、表示装
置を見ることになる。この場合、当人は像がぼやけて、
鮮明に注視することができないので、自分自身独自では
表示装置での顔の位置合せを行うことができない。
(Problems to be solved by the invention) However, in this method, the image of the person captured by the video camera is the image of the person without glasses, and the person wearing the glasses for vision correction removes the glasses. Then you will see the display device. In this case, the person has a blurred image,
Since it is not possible to gaze clearly, the face cannot be aligned on the display device by itself.

また比較的視力の良い人でもビデオカメラの方を向い
てまま、表示装置を見た場合ビデオカメラと表示装置は
同一位置ではないので視線の向きがビデオカメラに対し
て正面でない顔の状態で撮像されてしまう。
Even if a person with relatively good eyesight is facing the video camera and looking at the display device, the video camera and the display device are not at the same position. Will be done.

さらに、一般的に人間がカメラ等に対して正対し、撮
像される場合の人の顔は水平に静止しておらず多少左右
に顔を傾けたりするくせを持つているので、眼鏡合せ装
置で合成画像を表示した場合メガネフレームの大きさ、
位置(傾き)が多少ずれても違和感を生じ、実物のメガ
ネフレームをかけて場合とかなりくいちがつてしまうこ
とがあり、正確な人物像と眼鏡フレーム像との合成画像
を表示することは困難であつた。
Further, in general, when a person faces a camera or the like and the image is taken, the human face does not stand still horizontally and has a habit of slightly tilting the face to the left or right. When displaying a composite image The size of the eyeglass frame,
Even if the position (tilt) is slightly shifted, it may cause discomfort, and it may be quite different from the case of wearing an actual eyeglass frame, and it is difficult to display an accurate composite image of a person image and an eyeglass frame image. It was.

また前述の特開昭61−80222号公報の方法は指定され
た画面の大きさに正確に人物像を表示しなければならな
いので人物を撮影するためにビデオカメラを動かし大き
さの位置合せをしなければならないため撮影者、又は撮
影位置、角度等の調整可能な遠隔操作装置を必要とす
る。
Further, in the method of the above-mentioned JP-A-61-28022, it is necessary to accurately display a person image in a designated screen size, and therefore the video camera is moved to adjust the size of the person in order to photograph the person. Since it must be done, a photographer or a remote control device capable of adjusting a photographing position, an angle and the like is required.

即ち、撮像した顔を表示装置画面のメガネフレーム位
置の枠に取り込むためには、その固定された表示画面の
位置に顔の大きさを一致させなければならない。
That is, in order to capture the imaged face in the frame of the eyeglass frame position of the display device screen, the size of the face must match the position of the fixed display screen.

その為には、ビデオカメラ等の撮影手段を前後に移動
させたり、左右に移動させたりする等、正確で微細な調
整が必要であり、その調整作業は煩雑であり、又、調整
のための時間を要する。
For that purpose, it is necessary to make precise and fine adjustments, such as moving the photographing means such as a video camera back and forth, and moving it left and right, and the adjustment work is complicated and It takes time.

本発明は、このような欠点を除去するものであり、第
1にカメラで撮像する時に被写体の正確な位置、表示画
面の水平線に対する両眼部の傾き、固定画面と撮像人物
との大きさの合せを必要とせず自然な表情の人物像を撮
像できること、および第2にメガネフレームの像の位
置、傾き、大きさを正確に人物像に合成することを可能
にするものである。
The present invention eliminates such drawbacks. First, when capturing an image with a camera, the precise position of the subject, the inclination of both eyes with respect to the horizontal line of the display screen, the size of the fixed screen and the size of the imaged person. This makes it possible to capture a human image with a natural expression without the need for matching, and secondly, to accurately combine the position, inclination, and size of the image of the spectacle frame with the human image.

(問題点を解決するための手段) 本発明は、CPU、AD変換器、画像記憶メモリー、DA変
換器、第1の合成倍率で取込まれた眼鏡フレームデータ
メモリー、プログラムメモリー、および操作手段を有す
るコンピユーターと撮像装置と表示装置と測距手段と、
により構成され、前記コンピユーターによつて、前記第
1の合成倍率で取込まれた眼鏡フレームの撮像データと
前記撮像装置からの人物像の撮像データとの合成画像を
作成し、前記表示装置に人物が眼鏡を装着した状態を表
示する眼鏡装用シミユレーシヨン装置における合成画像
を作成方法であつて、前記撮像装置によつて前記コンピ
ユーターに取り込まれた眼鏡を装用していない人物の表
示画面における静止画像から検出した左右両眼の角膜頂
点位置座標と前記測距手段により測定された人物と撮像
装置との間の距離情報とより、前記表示画面における表
示画像の実際の人物に対する第2の合成倍率を計算し、
前記第2の合成倍率に基づき前記表示画面における眼鏡
フレーム合成位置、ならびに人物像および眼鏡フレーム
像の第3の合成倍率を計算し、人物と眼鏡フレームとの
合成画像を前記表示装置に表示させること特徴とする眼
鏡装用シミユレーシヨン装置における合成画像作成方法
を提供するものである。
(Means for Solving Problems) The present invention includes a CPU, an AD converter, an image storage memory, a DA converter, a spectacle frame data memory loaded at a first combining magnification, a program memory, and an operating means. A computer, an image pickup device, a display device, and a distance measuring means,
The computer creates a composite image of the image data of the spectacle frame captured at the first composite magnification and the image data of the human image from the image capturing device, and the computer displays the image on the display device. A method for creating a composite image in a spectacle wearing simulation device that displays the state of wearing spectacles, which is detected from a still image on a display screen of a person who does not wear spectacles and is taken into the computer by the imaging device. Based on the corneal vertex position coordinates of the left and right eyes and the distance information between the person and the imaging device measured by the distance measuring means, a second composite magnification of the display image on the display screen for the actual person is calculated. ,
Calculating a composite position of the eyeglass frame on the display screen and a third composite magnification of the human image and the eyeglass frame image based on the second composite magnification, and displaying the composite image of the person and the eyeglass frame on the display device. The present invention provides a method for creating a composite image in a characteristic eyewear wearing simulation device.

(作用) 本発明の眼鏡装用シミユレーシヨン装置はCPU、AD変
換器、画像記憶メモリー、DA変換器、第1の合成倍率で
取込まれた眼鏡フレームデータメモリー、プログラムメ
モリー、および操作手段を有するコンピユーターとビデ
オカメラと表示装置とに測距手段とより構成され人物は
メガネをはずした状態でビデオカメラにより撮像され
る。従つてメガネをはずした撮像される人物はただ注視
目標を見ているだけでよく、顔の位置、傾きに注意をは
らわなくてもよい。
(Operation) A spectacle wearing simulation device of the present invention is a computer having a CPU, an AD converter, an image storage memory, a DA converter, a spectacle frame data memory loaded at a first combining magnification, a program memory, and an operating means. A video camera and a display device are provided with distance measuring means, and a person takes an image with the video camera without glasses. Therefore, the person to be imaged without glasses need only look at the gaze target and need not pay attention to the position and inclination of the face.

次に人物像の撮像信号はA/D変換器をへて画像メモリ
ーに取込まれ、D/A変換器をへて表示装置に静止画像と
して表示される。この表示画像よりX方向、Y方向のド
ツト数により左右両眼の角膜頂点座標(XL,YL)、
(XR,YR)が検出される。これらのデータから左眼と右
眼の角膜頂点位置を結ぶ直線の表示装置のX方向(水平
方向)に対する傾きθは として求められ、両眼の傾き角度が算出される。左眼と
右眼との角膜頂点位置座標の中点(中心座標)(X0
Y0)よりフレーム画像合成の回転のためのフレームの回
転中心基準を求めることができる。その中心座標は として算出される。
Next, the image pickup signal of the person image is taken into the image memory through the A / D converter and is displayed as a still image on the display device through the D / A converter. From this display image, the corneal vertex coordinates (X L , Y L ) of the left and right eyes are calculated according to the dot numbers in the X and Y directions.
(X R , Y R ) is detected. From these data, the inclination θ of the straight line connecting the corneal vertex positions of the left eye and the right eye with respect to the X direction (horizontal direction) of the display device is And the tilt angles of both eyes are calculated. The midpoint (center coordinate) of the corneal vertex position coordinates of the left and right eyes (X 0 ,
From Y 0 ), the rotation center reference of the frame for rotation of the frame image combination can be obtained. Its center coordinates are Is calculated as

次に、測距手段により測定された人物とビデオカメラ
との間の距離(l)とあらかじめフレームデータの取り
込み時に固定値として算出したときのフレームとカメラ
との間の距離(L)(図示せず)により人物とフレーム
との合成画像作成のための合成倍率(m)は、 の式で算出される。従つて、(1)、(2)、(3)式
がプログラミングされ、プログラムメモリーに読み込ん
であるので、CPU、眼鏡フレームデータメモリー、プロ
グラムメモリーにより人物とフレームとの合成画像作成
のためのフレーム合成倍率、合成位置が算出され、フレ
ームと人物との合成画像データが作られ、D/A変換器を
へて表示装置にフレームと人物との合成画像が表示され
る。
Next, the distance (l) between the person and the video camera measured by the distance measuring means and the distance (L) between the frame and the camera calculated as a fixed value in advance when the frame data is captured (L). The composite magnification (m) for creating a composite image of a person and a frame is It is calculated by the formula. Therefore, since the formulas (1), (2), and (3) are programmed and read into the program memory, the CPU, the spectacle frame data memory, and the program memory are used for frame composition for creating a composite image of a person and a frame. The magnification and the composite position are calculated, composite image data of the frame and the person is created, and the composite image of the frame and the person is displayed on the display device through the D / A converter.

従つて、任意の画面サイズで正しく合成ができるた
め、使用目的に応じた画面サイズで撮像できる。また、
正しい位置、大きさ、傾きで、メガネフレームを合成で
きるために実際のフレームを装用した場合との印象の差
を小さくすることができる。
Therefore, since it is possible to correctly combine images with an arbitrary screen size, it is possible to capture an image with a screen size according to the purpose of use. Also,
Since the spectacle frames can be combined at the correct position, size, and inclination, it is possible to reduce the difference in impression from the case of wearing an actual frame.

(実施例) 本発明の実施例を第1図から第5B図により詳細に説明
する。第1図は、眼鏡装用シミユレーシヨン装置の構成
を説明する図であり、第2図は、人物像を表示した表示
画面を示す図であり、第3図は、基本的な眼鏡装用シミ
ユレーシヨンの方法を示すフローチヤートである。
(Embodiment) An embodiment of the present invention will be described in detail with reference to FIGS. 1 to 5B. FIG. 1 is a diagram for explaining the configuration of a spectacle wearing simulation device, FIG. 2 is a diagram showing a display screen on which a person image is displayed, and FIG. 3 is a basic spectacle wearing simulation method. It is a flow chart shown.

第1図において、眼鏡装用シミユレーシヨン装置(以
下本装置という)1は人物2を撮像するビデオカメラ3
と、A/D変換器4、画像メモリー5、D/A変換器6、CPU
7、フレームデータメモリ8、プログラムメモリー9、
操作手段10からなるコンピユーター装置11と表示装置12
と測距装置13とから構成される。
In FIG. 1, a spectacle wearing simulation device (hereinafter referred to as the present device) 1 is a video camera 3 for capturing an image of a person 2.
And A / D converter 4, image memory 5, D / A converter 6, CPU
7, frame data memory 8, program memory 9,
A computer device 11 and a display device 12 which are composed of an operating means 10.
And a distance measuring device 13.

ビデオカメラ3は、眼鏡を外した状態での人物を撮像
する画像入力装置として使用し、人物2を撮影する際、
顔を一定方向に向かせ、あらかじめ設定された注視目標
14を注視させる。
The video camera 3 is used as an image input device for capturing an image of a person with glasses removed, and when capturing the person 2,
Faced in a certain direction, preset gaze target
Focus on 14.

この場合、メガネを装用していない状態であることが
前提条件となり、前述の注視目標等の設定に関しては任
意であり通常の自然なリラツクスした状態の撮像が好ま
しい。またその他の撮像装置としてはビデオカメラの他
にスキヤナー等の使用も可能である。
In this case, the condition that the eyeglasses are not worn is a prerequisite, and the setting of the gaze target and the like described above is arbitrary, and imaging in a normal natural relaxed state is preferable. In addition to the video camera, a scanner or the like can be used as the other imaging device.

次に、この撮像装置であるビデオカメラ3からの撮像
信号は画像記憶メモリー5に取り込まれさらにこの人物
像の撮像信号はA/D変換器4を経由して画像記録メモリ
5に取り込まれる。こうして画像メモリー5に取り込ま
れたデータはD/A変換器6を経由して表示装置12に静止
画像として表示される。(第2図に示す。) この画像より、操作手段10から、左右眼の角膜頂点位
置座標(XR,YR),(XL,YL)を検出し、これらの前記
画像での人物の画像取込情報をえて、画像メモリー5、
CPU7、フレームデータメモリー8、プログラムメモリー
9により、人物像とメガネフレームとの合成画像データ
を作成し、このデータをD/A変換器6を経由して、表示
装置12に合成画像を表示する。
Next, the image pickup signal from the video camera 3 which is this image pickup device is taken into the image storage memory 5, and the image pickup signal of this person image is further taken into the image recording memory 5 via the A / D converter 4. The data thus captured in the image memory 5 is displayed as a still image on the display device 12 via the D / A converter 6. (Shown in FIG. 2) From this image, the corneal vertex position coordinates (X R , Y R ) and (X L , Y L ) of the left and right eyes are detected from the operating means 10, and the person in these images is detected. Image memory 5, image memory 5,
The CPU 7, the frame data memory 8 and the program memory 9 create composite image data of the person image and the eyeglass frame, and display the composite image on the display device 12 via the D / A converter 6.

これらの本実施例のビデオカメラ3、コンピユーター
装置11、表示装置12に関しては、構成及び機械装置機構
において公知のコンピユーターの画像合成システムを使
用するものであり、撮像信号のコンピユーターをへて表
示装置へ表示される迄の撮像信号のD/A変換、A/D変換あ
るいは画像表示の装置及び原理理論は周知でありこの周
知の画像処理技術を用いて実施されるので、詳細な説明
は省略する。
The video camera 3, the computer device 11, and the display device 12 of this embodiment use an image synthesizing system of a computer which is well known in the configuration and mechanical device mechanism, and the computer of the image pickup signal is transmitted to the display device. The device and principle of D / A conversion, A / D conversion, or image display of an image pickup signal until it is displayed are well known, and the well-known image processing technique is used, so detailed description will be omitted.

従つて画像記録メモリー5に取り込むデーターは、RG
Bの3色別のデータでも、NTSC等のビデオ信号でもよ
い。CPU7は演算処理を行ない、フレームデータメモリー
8には、予め一定取込み倍率で、フレームデータがビデ
オカメラにより撮像してあり、ビデオカメラの撮像信号
をA/D変換を経由してデジタル信号化して画像メモリー
に取込み、フロツピーデイスク等に数値データとしてデ
ータを読み込んでフレームデータメモリーとして必要の
都度読み出してやる。
Therefore, the data loaded into the image recording memory 5 is RG
Data for each of the three colors of B or a video signal such as NTSC may be used. The CPU 7 performs arithmetic processing, and the frame data memory 8 has previously captured the frame data by the video camera at a fixed acquisition magnification. The image signal of the video camera is converted into a digital signal through A / D conversion to obtain an image. The data is taken into the memory, the data is read into the floppy disk, etc. as numerical data, and the frame data memory is read out whenever necessary.

また、このフレームの撮像データの記憶装置への読み
込み、読み出し等の処理技術に関しては公知であり、特
に本願の特徴としないものである。
Further, processing techniques such as reading and reading of the imaged data of this frame into and from the storage device are well known, and are not a feature of the present application.

眼鏡フレーム画像取込方法については、特願昭62−43
98号に示されるように、眼鏡フレームデータでは表示装
置の画素の1ドツトごとの色を読み取り、眼鏡フレーム
の背景の色はその色が表示画面の走査線方向にどのくら
い存在しているかによりそのドツトの色を読みとる。従
つて眼鏡フレームの色とその眼鏡フレームの背景の色と
が異ならなければならない。
For the method of capturing eyeglass frame images, refer to Japanese Patent Application No. 62-43.
As shown in No. 98, the color of each pixel of the display device is read in the eyeglass frame data, and the background color of the eyeglass frame depends on how much the color exists in the scanning line direction of the display screen. Read the color of. Therefore, the color of the spectacle frame and the background color of the spectacle frame must be different.

また前記背景の色は均一である方が好ましい。この方
法によれば、鮮明な眼鏡フレーム画像を取り込むことが
できる。次に、プログラムメモリ9には人物とフレーム
の合成画像の作成(後述する)のプログラムが読み込ま
れており、必要の都度読み出される。画像記録メモリー
5の容量は人物像及び眼鏡フレーム像を表示装置12に自
然な色彩及び形状(輪郭)で表示できる容量であること
が好ましく容量が小さいと表示画像の鮮明さに劣る(本
実施例では各色8ビツトを使用)。
Further, it is preferable that the color of the background is uniform. According to this method, a clear spectacle frame image can be captured. Next, a program for creating a composite image of a person and a frame (which will be described later) is loaded into the program memory 9 and is read out whenever necessary. The capacity of the image recording memory 5 is preferably such that a human image and a spectacle frame image can be displayed on the display device 12 in natural colors and shapes (contours). Then use 8 bits for each color).

また、表示装置12の表示画面はドツトの集合体により
構成されているので(本実施例では、縦480ドツト、0.3
7mm/ドツト、横640ドツト、0.37mm/ドツト)、その1ド
ツトごとにコンピユータのメモリーアドレス及び色の内
容(R.G.B)が振り分けられている。
Further, since the display screen of the display device 12 is composed of a group of dots (in this embodiment, vertical 480 dots, 0.3
7mm / dot, 640 dots wide, 0.37mm / dot), and the memory address and color contents (RGB) of the computer are assigned to each dot.

すなわち、R.G.Bの成分が個々の輝度レベルを示して
一つのベクトルとして1つの色彩を表現している。輝度
レベルのステツプはコンピユータのビツト数による。例
えばRGB各8ビツトの場合、1色につき28=256ステツプ
その3色の色組合せは、2563=16777216通りであり、す
なわち16777216色の表現可能なシステムとなる。
That is, RGB components represent individual luminance levels and represent one color as one vector. The brightness level step depends on the number of bits of the computer. For example, in the case of 8 bits for each RGB, 2 8 = 256 steps for each color, and the number of color combinations of the 3 colors is 256 3 = 16777216, that is, a system capable of expressing 16777216 colors.

操作手段10は、IPDあるいはフレームデータの型名等
の入力のためのキーボード、表示画面上の座標位置を入
力するタツチパネルにより構成される。
The operation means 10 is composed of a keyboard for inputting the IPD or frame data type name, and a touch panel for inputting coordinate positions on the display screen.

タツチパネルは、本実施例では、抵抗膜方式の透明タ
ツチパネルを使用する。その構成はタツチを検出するた
め、表示装置の画面に2枚のポリエステルシートに透明
な抵抗膜で出来た導線を格子状に付けてある。通常ポリ
エステルシートは離れており、指で押すと、交差する多
数の2本線のどれかが導通しこの接触点を検出する。
In this embodiment, the touch panel is a resistance film type transparent touch panel. In order to detect touch in this structure, two polyester sheets are attached to the screen of the display device with conductive wires made of a transparent resistance film in a grid pattern. Usually, the polyester sheets are separated from each other, and when pushed with a finger, any one of a large number of intersecting two lines conducts to detect this contact point.

このタツチパネルによる位置検出方式には、容量方
式、音響方式、光学式等の方式があり、またタツチパネ
ル方式以外にも、表示画面からの入力手段には例えばラ
イトペンによる方法等があり、その入力手段において
は、本実施例以外の手段も使用でき特に限定されるもの
ではない。
The touch panel position detection method includes a capacitive method, an acoustic method, an optical method, and the like, and in addition to the touch panel method, there is a light pen method as an input means from the display screen. In the above, means other than this embodiment can be used, and there is no particular limitation.

次に、測距手段13は公知のものを使用でき、特に限定
されないが、例えば、第4図又は第5A図および第5B図の
測距方法が好ましい。第4図において、人顔101に対し
て、測距装置108は、受光レンズ103、受光センサー104
からなる受光装置102と投光レンズ106光源107からなる
投光装置105と、波形整形回路109、演算回路110との計
算部とにより構成されている。
A known distance measuring means 13 can be used, and the distance measuring means is not particularly limited. For example, the distance measuring method shown in FIG. 4 or FIGS. 5A and 5B is preferable. In FIG. 4, the distance measuring device 108 includes a light receiving lens 103 and a light receiving sensor 104 for the human face 101.
The light receiving device 102 and the light projecting lens 106 are configured by a light projecting device 105 including a light source 107, a waveform shaping circuit 109, and a calculation unit of an arithmetic circuit 110.

投光レンズ106と光源107との間の距離を調節すること
により、投光装置105より出た照射光111は人顔101に点
状又は線状に照射され、照射された位置は、受光装置10
2にて計測することができる。即ち、人顔101上の照射さ
れた輝点の像が受光装置102の受光センサー104上にでき
るように受光レンズ106を動かすことによつて行われ
る。ここで、この受光装置102において、受光センサー1
04からの信号は、波形整形回路109に入り、波形整形さ
れ、演算回路110に入る。これにより、受光センサー104
上の光軸112からの像位置xに応じて測距装置108と人顔
101との距離lが下の式より求まる。
By adjusting the distance between the light projecting lens 106 and the light source 107, the irradiation light 111 emitted from the light projecting device 105 is irradiated on the human face 101 in a point or line shape, and the irradiated position is determined by the light receiving device. Ten
It can be measured at 2. That is, this is performed by moving the light receiving lens 106 so that an image of the illuminated bright spot on the human face 101 is formed on the light receiving sensor 104 of the light receiving device 102. Here, in the light receiving device 102, the light receiving sensor 1
The signal from 04 enters the waveform shaping circuit 109, undergoes waveform shaping, and enters the arithmetic circuit 110. As a result, the light receiving sensor 104
Depending on the image position x from the upper optical axis 112, the distance measuring device 108 and the human face
The distance l with 101 is obtained from the following equation.

但し、X0は投光レンズ106の光輪112からの距離、Z0
受光レンズ103と受光センサ104との間の距離、およびL0
は、照射光111が光軸112と交わる点Pから受光レンズ10
3までの距離である。また受光センサーとしては、CCD,P
SD等が使用できる。
However, X 0 is the distance from the light wheel 112 of the light projecting lens 106, Z 0 is the distance between the light receiving lens 103 and the light receiving sensor 104, and L 0
Is the light receiving lens 10 from the point P where the irradiation light 111 intersects the optical axis 112.
The distance is up to 3. As a light receiving sensor, CCD, P
SD etc. can be used.

第5A図は、発音体203を収納した測距装置210の構成を
示すもので、この装置210は、原発振回路発202、発音体
203ゲート回路204、ゲートパルス発生回路205、受音セ
ンサー206波形整形回路207、位相比較回路208、演算回
路209より構成される。
FIG. 5A shows the structure of a distance measuring device 210 that houses a sounding body 203.
203 A gate circuit 204, a gate pulse generation circuit 205, a sound receiving sensor 206, a waveform shaping circuit 207, a phase comparison circuit 208, and an arithmetic circuit 209.

ここで、第5A図において、原発振回路202からの連続
信号はゲート回路204に入り、ゲートパルス発生回路205
からのゲートパルスによりこの信号は断続的になり発音
体203に入り、断続音を発生する。
Here, in FIG. 5A, the continuous signal from the original oscillation circuit 202 enters the gate circuit 204, and the gate pulse generation circuit 205
This signal becomes intermittent due to the gate pulse from and enters the sounding body 203 to generate intermittent sound.

発音体203から発生した音波は人顔201に当たり、反射
して受音センサー206に入る。
The sound wave generated from the sounding body 203 hits the human face 201, is reflected, and enters the sound receiving sensor 206.

受音センサー206からの信号は波形整形回路207により
波形整形され位相比較回路208に入る。
The signal from the sound receiving sensor 206 is waveform shaped by the waveform shaping circuit 207 and enters the phase comparison circuit 208.

位相比較回路208は、第5B図に示すように、ゲートパ
ルス発生回路205よりのゲートパルス(a)と波形整形
回路207よりの信号(b)を比較し位相差tを出力す
る。
As shown in FIG. 5B, the phase comparison circuit 208 compares the gate pulse (a) from the gate pulse generation circuit 205 and the signal (b) from the waveform shaping circuit 207 and outputs the phase difference t.

位相差tは演算回路209に入り、下の式より測距装置2
10と人顔201との間の距離が求まる。
The phase difference t enters the arithmetic circuit 209, and the distance measuring device 2 is calculated from the following equation.
The distance between 10 and the human face 201 is obtained.

(但し、vは空気中の音速)、 従つて、本発明は、これらの第1図に示す構成によ
り、ビデオカメラによつてコンピユーターに取り込まれ
た眼鏡を装用していない人物の表示画面における静止画
像から検出した左右両眼の角膜頂点位置座標と、前記測
距手段により測定された人物とビデオカメラとの間の距
離情報とにより、前記表示画面における表示画像の実際
の人物に対する合成倍率を計算し、前記合成倍率に基づ
き前記表示画面における眼鏡フレーム合成位置、ならび
に人物像および眼鏡フレーム像の合成倍率を計算し、人
物と眼鏡フレームとの合成画像を表示装置に表示させる
こと特徴とする眼鏡装用シミユレーシヨン装置における
合成画像作成方法を示すものである。
(However, v is the speed of sound in the air) Therefore, according to the present invention, with the configuration shown in FIG. 1, the still image on the display screen of the person who does not wear the glasses taken into the computer by the video camera is used. The composite magnification of the display image on the display screen with respect to the actual person is calculated from the corneal vertex position coordinates of the left and right eyes detected from the image and the distance information between the person and the video camera measured by the distance measuring means. Then, the spectacle frame composition position on the display screen and the composition magnification of the person image and the eyeglass frame image are calculated based on the composition magnification, and a composite image of the person and the eyeglass frame is displayed on the display device. 6 illustrates a method for creating a composite image in a simulation unit.

以下その具体的方法を第3図のフローチヤートに基づ
き詳細に説明する。
The specific method will be described in detail below with reference to the flow chart of FIG.

(ステツプ1〜3) 人物2をビデオカメラ3で撮像し、静止画像として表
示画像に表示する。この人物の撮像データは、表示画面
の特定位置及び特定の大きさの撮影倍率に限定して撮像
されておらず、一定の静止した自然のリラツクスした顔
の状態で撮像してあり、このビデオカメラからの撮像信
号をコンピユーター装置を経由して表示装置に静止画像
として表示する。
(Steps 1 to 3) The person 2 is captured by the video camera 3 and displayed as a still image on the display image. The image data of this person is not captured only at a specific position on the display screen and at a specific magnification of a specific size, but is captured in the state of a constant, natural, relaxed face. The image pickup signal from is displayed as a still image on the display device via the computer device.

ここで人物2とビデオカメラ3との間の距離(l)は
測距手段により測定される。
Here, the distance (l) between the person 2 and the video camera 3 is measured by the distance measuring means.

(ステツプ4〜5) 次に、この表示画面の人物像の左眼角膜頂点位置座標
(XL,YL)、右眼角膜頂点位置座標(XR,YR)をタツチ
パネルによる入力手段により、コンピユータに入力す
る。
(Steps 4 to 5) Next, the left eye cornea apex position coordinates (X L , Y L ) and the right eye corneal apex position coordinates (X R , Y R ) of the person image on this display screen are input by the touch panel. Type in the computer.

(ステツプ6〜8) ここでは、両眼の画像位置情報の検出とフレームと人
物との合成倍率の決定が行われる。即ち、両眼の画面水
平方向に対する傾き角度の検出と両眼の中心位置との検
出が行われる。そこで前記表示画面での左右両眼の位置
座標は前述に述べた入力手段から画面上のX方向、Y方
向のドツト数により容易に求めることができるのでこれ
らのデータから左眼と右眼の角膜頂点(位置)を結ぶ直
線の表示装置のX方向(水平方向)に対する傾きθは として求められる。
(Steps 6 to 8) Here, the detection of the image position information of both eyes and the determination of the composite magnification of the frame and the person are performed. That is, the tilt angle of both eyes with respect to the horizontal direction of the screen and the center position of both eyes are detected. Therefore, the position coordinates of the left and right eyes on the display screen can be easily obtained from the input means described above by the dot numbers in the X direction and the Y direction on the screen. Therefore, from these data, the cornea of the left eye and the right eye. The inclination θ of the straight line connecting the vertices (positions) with respect to the X direction (horizontal direction) of the display device is Is required.

次に、この人物の表示画像に眼鏡フレームを合成する
ために眼鏡フレーム画像も人物の表示画像と傾きを一致
させなくてはならない。この傾きは既に(1)の式にて
求められており、それは、左眼と右眼との角膜頂点位置
座標の中点(中心座標)(X0,Y0)を求めれば、画像合
成の回転のための回転中心基準を求めることができる。
その中心座標は となる。
Next, in order to synthesize the spectacle frame with the display image of the person, the spectacle frame image must also have the same inclination as the display image of the person. This inclination has already been obtained by the equation (1), and it is obtained by calculating the midpoint (center coordinates) (X 0 , Y 0 ) of the corneal vertex position coordinates of the left eye and the right eye. A rotation center reference for rotation can be determined.
Its center coordinates are Becomes

ここで、測距手段により、人物とフレームとの合成画
像作成のための合成倍率(m)は、あらかじめフレーム
データの取り込時のフレームとカメラとの間の距離
(L)が、固定値として算出されているので、 の式で求められる。
Here, for the composite magnification (m) for creating a composite image of the person and the frame by the distance measuring means, the distance (L) between the frame and the camera at the time of capturing the frame data is a fixed value. Since it has been calculated, It is calculated by the formula.

また、フレームデータの合成位置情報は、前述の式
(1)、(2)より求められる。従つて、これらの画像
合成方法は、プログラムミングされ、プログラムメモリ
にあるので随時、前述の角膜頂点位置座標及び測距手段
に基づいて人物とフレームとの合成画像作製のためのフ
レームの合成倍率、合成位置が(1)〜(3)の式を使
つて決定される。
Further, the synthetic position information of the frame data is obtained from the above-mentioned equations (1) and (2). Therefore, since these image synthesizing methods are programmed and are in the program memory, the synthesizing magnification of the frame for producing a synthetic image of the person and the frame based on the corneal vertex position coordinates and the distance measuring means described above at any time, The combined position is determined using the equations (1) to (3).

(ステツプ9〜13) フレームの選択は、カタログ等の描画してあるフレー
ム、あるいは実物等によつて選択でき、これらは、あら
かじめコンピユーターにフレームデータとして登録して
あるので、その型式等の数値をキーボード等の入力操作
によりデータを読み出すことができ、さらに人物とフレ
ームとの合成画像の作成処理が行われ、表示画像に送り
出され合成画像が表示される。
(Steps 9 to 13) The frame can be selected by drawing a frame such as a catalog or by the actual object. Since these are registered as frame data in the computer in advance, the numerical value of the model etc. can be selected. Data can be read out by an input operation with a keyboard or the like, and further, a process of creating a composite image of a person and a frame is performed, and the composite image is sent out to the display image and displayed.

そこで、好みのフレームが決定するまで、フレームデ
ータの入力操作が継続される好みのフレームの選択が行
われる。
Therefore, until the favorite frame is determined, the favorite frame is selected such that the input operation of the frame data is continued.

以上が基本的なフローであるが、例えば人物像の顔色
を変化させ、日照の状態をシミユレーシヨンさせたり、
レンズの色を変えたりして、シミユレーシヨンを行うこ
とも、周知の画像合成技術を用いることにより可能であ
る。
The above is the basic flow, for example, changing the complexion of the person image to simulate the sunshine state,
It is also possible to perform simulation by changing the color of the lens by using a well-known image synthesizing technique.

(発明の効果) 本発明によればメガネをはずした撮像される人物はた
だ注視目標を見ているだけでよく、顔の位置、傾きに注
意をはらわなくてもよい。したがつて従来のように専従
のオペレータを必要とせず自分自身のみで操作を行う事
ができる。また任意の画面サイズで正しく合成ができる
ため、使用目的に応じた画面サイズで撮像できる。また
正しい位置、大きさ、傾きでメガネフレームを合成でき
るために実際のフレームを装用した場合との印象の差を
小さくすることができさらに、該メガネフレーム上での
アイポイント等、メガネレンズ加工に必要なデータを高
い精度で、容易に測定することができる。
(Effects of the Invention) According to the present invention, a person to be imaged without glasses need only look at the gazing target, and need not pay attention to the position and inclination of the face. Therefore, it is possible to perform the operation by itself without the need for a dedicated operator as in the conventional case. Further, since the images can be properly combined in any screen size, it is possible to take an image with a screen size according to the purpose of use. In addition, since the spectacle frames can be combined at the correct position, size, and inclination, the difference in impression from when wearing an actual frame can be reduced, and further, for processing eyeglasses such as eye points on the spectacle frame. The necessary data can be easily measured with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本実施例の眼鏡シミユレーシヨン装置の構成
を説明する図、第2図は本実施例の表示装置画面の部分
拡大図、第3図は、本実施例の眼鏡シミユレーシヨン装
置の操作のフローチヤートを示す図である。また第4図
および第5A図は測距法を示す模式図、ならびに第5B図は
パルス間の位相差を示す図である。 (参照符号の説明) 1……眼鏡装用シミユレーシヨン装置、2……人物、3
……ビデオカメラ、11……コンピユーター装置、12……
表示装置。
FIG. 1 is a diagram for explaining the configuration of the eyeglasses simulation device of this embodiment, FIG. 2 is a partially enlarged view of the display device screen of this embodiment, and FIG. 3 is a diagram of the operation of the eyeglasses simulation device of this embodiment. It is a figure which shows a flow chart. Further, FIGS. 4 and 5A are schematic diagrams showing a distance measuring method, and FIG. 5B is a diagram showing a phase difference between pulses. (Explanation of reference numerals) 1 ... Simulation device for wearing spectacles, 2 ... Person, 3
…… Video camera, 11 …… Computer device, 12 ……
Display device.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】CPU、AD変換器、画像記憶メモリー、DA変
換器、第1の合成倍率で取込まれた眼鏡フレームのフレ
ームデータメモリー、プログラムメモリー、および操作
手段を有するコンピユーターと撮像装置と表示装置と測
距手段とにより構成され、前記コンピユーターによつ
て、前記第1の合成倍率で取込まれた眼鏡フレームの撮
像データと前記撮像装置からの人物像の撮像データとの
合成画像を作成し、前記表示装置に人物が眼鏡を装着し
た状態を表示する眼鏡装用シミユレーシヨン装置におけ
る合成画像作成方法であつて、前記撮像装置によつて前
記コンピユーターに取り込まれた眼鏡を装用していない
人物の表示画面における静止画像から検出した左右両眼
の角膜頂点位置座標と、前記測距手段により測定された
人物と前記撮像装置との間の距離情報とにより、前記表
示画面における表示画像の実際の人物に対する第2の合
成倍率を計算し、前記第2の合成倍率に基づき前記表示
画面における眼鏡フレーム合成位置、ならびに人物像お
よび眼鏡フレーム像の第3の合成倍率を計算し、人物と
眼鏡フレームとの合成画像を前記表示装置に表示させる
ことを特徴とする眼鏡装用シミユレーシヨン装置におけ
る合成画像作成方法。
1. A computer having a CPU, an AD converter, an image storage memory, a DA converter, a frame data memory of a spectacle frame captured at a first composite magnification, a program memory, and an operating means, an imaging device, and a display. And a distance measuring means. The computer creates a composite image of the image data of the spectacle frame captured at the first composite magnification and the image data of the human image from the image capture device. A method for creating a composite image in a spectacle wearing simulation device for displaying a state in which a person wears spectacles on the display device, wherein a display screen of a person who does not wear spectacles and is taken into the computer by the imaging device Of the corneal apex position coordinates of the left and right eyes detected from the still image in the image of the person and the imaging device measured by the distance measuring unit. A second combination magnification of the display image on the display screen with respect to the actual person is calculated based on the distance information, and the eyeglass frame combination position on the display screen, the person image and the eyeglass frame are calculated based on the second combination magnification. A third method for producing a composite image in a spectacle wearing simulation device, characterized in that a third composite magnification of an image is calculated and a composite image of a person and a spectacle frame is displayed on the display device.
JP62234507A 1987-09-18 1987-09-18 Method of creating composite image in spectacle wearing simulation apparatus Expired - Fee Related JPH0831126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62234507A JPH0831126B2 (en) 1987-09-18 1987-09-18 Method of creating composite image in spectacle wearing simulation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62234507A JPH0831126B2 (en) 1987-09-18 1987-09-18 Method of creating composite image in spectacle wearing simulation apparatus

Publications (2)

Publication Number Publication Date
JPS6476362A JPS6476362A (en) 1989-03-22
JPH0831126B2 true JPH0831126B2 (en) 1996-03-27

Family

ID=16972109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62234507A Expired - Fee Related JPH0831126B2 (en) 1987-09-18 1987-09-18 Method of creating composite image in spectacle wearing simulation apparatus

Country Status (1)

Country Link
JP (1) JPH0831126B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5154886A (en) * 1987-10-08 1992-10-13 At&T Bell Laboratories Protection of devices
JPH06187398A (en) * 1992-12-18 1994-07-08 ▲高▼矢 恒雄 Method for extending and reducing image of dress and ornaments component
JPH06187399A (en) * 1992-12-18 1994-07-08 ▲高▼矢 恒雄 Simulation system for dress and ornaments
KR100383958B1 (en) * 2000-12-12 2003-05-14 현대자동차주식회사 Proportioning valve
US7016824B2 (en) 2001-02-06 2006-03-21 Geometrix, Inc. Interactive try-on platform for eyeglasses
US9699123B2 (en) 2014-04-01 2017-07-04 Ditto Technologies, Inc. Methods, systems, and non-transitory machine-readable medium for incorporating a series of images resident on a user device into an existing web browser session

Also Published As

Publication number Publication date
JPS6476362A (en) 1989-03-22

Similar Documents

Publication Publication Date Title
US11495002B2 (en) Systems and methods for determining the scale of human anatomy from images
CN103605208B (en) content projection system and method
US10129520B2 (en) Apparatus and method for a dynamic “region of interest” in a display system
US6445365B1 (en) Image display apparatus and image photographing apparatus therefor
US7221863B2 (en) Image processing apparatus and method, and program and recording medium used therewith
JP6026444B2 (en) Method and optical measuring device for determining at least one parameter in two eyes by setting a data transfer rate
US6276799B1 (en) Stereo optic disc analyzer
CN108885359A (en) Method and apparatus for determining glasses assembly parameter
JPH09322199A (en) Stereoscopic video display device
JP2007206211A (en) Spectacle wearing simulation method and device
JP2014188322A (en) Visual line detection device, visual line detection method and program
US6965385B2 (en) Method for simulating and demonstrating the optical effects of glasses on the human face
JPH0831126B2 (en) Method of creating composite image in spectacle wearing simulation apparatus
CN107765840A (en) A kind of Eye-controlling focus method equipment of the general headset equipment based on binocular measurement
JP3969842B2 (en) Method of creating composite image in spectacle wearing simulation
JPS6376581A (en) Synthetic image generating method for optical glasses wearing simulation equipment
JP3072398B2 (en) Eyeglass frame manufacturing system
JP4221808B2 (en) Three-dimensional data input method and apparatus
KR100846355B1 (en) method for the vision assistance in head mount display unit and head mount display unit therefor
JP2000020580A (en) System for supporting spectacles layout and lens selecting work
JP3325323B2 (en) Display device
JP2728263B2 (en) Image processing device for glasses
CN111587397B (en) Image generation device, spectacle lens selection system, image generation method, and program
JPH08266465A (en) Simulation apparatus for eye optical system
JPH11347016A (en) Imaging device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees