JPS63113678A - Lens part recognition system for spectacle frame - Google Patents

Lens part recognition system for spectacle frame

Info

Publication number
JPS63113678A
JPS63113678A JP25702886A JP25702886A JPS63113678A JP S63113678 A JPS63113678 A JP S63113678A JP 25702886 A JP25702886 A JP 25702886A JP 25702886 A JP25702886 A JP 25702886A JP S63113678 A JPS63113678 A JP S63113678A
Authority
JP
Japan
Prior art keywords
frame
image
labeling
eyeglass frame
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25702886A
Other languages
Japanese (ja)
Inventor
Masabumi Tamura
正文 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Tokyo Optical Co Ltd
Original Assignee
Toshiba Corp
Tokyo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Tokyo Optical Co Ltd filed Critical Toshiba Corp
Priority to JP25702886A priority Critical patent/JPS63113678A/en
Publication of JPS63113678A publication Critical patent/JPS63113678A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To perform easy, high-accuracy recognition by converting a spectacle frame image into binarization and finding information on a frame part, and labeling the background part encircled with the frame part from the center part to the peripheral part and recognizing lens parts in the spectacle frame image. CONSTITUTION:A lens recognition part 8k labels binarized pattern data in the inside area of the frame part indicated by data '1' as a lens part. The lens parts of the spectacle frame are specified by the labeling data with high accuracy. Further, if there is a deficient of the frame part and the labeling of data '2' indicating the lens parts reaches the side part of a rectangular area obtained by cutting the spectacle frame image beyond the original frame part, the labeling result of its periphery, e.g. the labeling result which is one scanning line before is referred to correct the labeling.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は眼鏡フレームにおけるレンズ部分を簡易に、し
かも精度良く求めることのできる眼鏡フレームのレンズ
部認識方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a lens part recognition method for an eyeglass frame that can easily and accurately determine the lens part of the eyeglass frame.

(従来の技術) 近時、種々の眼鏡フレームの像を記録しておき、TV左
カメラよって撮像入力された眼鏡選択者の顔のイメージ
画像に上記眼鏡フレームの像を選択的に合成し、その合
成画像をモニタしながら好みの眼鏡フレームを選択する
ことが考えられている。また、選択された眼鏡フレーム
のレンズ部分に好みの色に染色したレンズの情報を合成
し、その合成画像から上記眼鏡フレームに適合したレン
ズ色やその染色領域を選択することが考えられている。
(Prior Art) Recently, images of various eyeglass frames have been recorded, and the images of the eyeglass frames are selectively combined with the image of the face of the person selecting eyeglasses input by the left camera of the TV. One idea is to select a desired eyeglass frame while monitoring a composite image. It has also been considered to combine information about lenses dyed in a desired color with the lens portion of a selected eyeglass frame, and select a lens color and its dyed area suitable for the eyeglass frame from the combined image.

ところがこのようなレンズ部分に対する処理を行なう場
合には、眼鏡フーム画像中のレンズ部の領域を正確に求
めておく必要がある。そこで従来では一般的に、例えば
TVモニタ上に眼鏡フレーム画像を表示し、その表示画
像に対して人手に願って眼鏡フレーム枠部分をトレース
して指示し、そのフレーム枠部分の内側領域をレンズ部
分として認識処理するようにしている。
However, when processing such a lens portion, it is necessary to accurately determine the area of the lens portion in the eyeglass frame image. Conventionally, for example, an eyeglass frame image is displayed on a TV monitor, and a person manually traces and instructs the eyeglass frame frame on the displayed image, and the inner area of the frame frame is designated as the lens. I am trying to recognize and process it as .

(発明が解決しようとする問題点) ところがこのようにして眼鏡フレーム画像に対してフレ
ーム枠部分をトレースする作業は非常に煩わしく、また
多大な処理時間を必要とする聞届があった。また人手に
頼って眼鏡フレーム枠のトレースが行われるので正確さ
に欠け、レンズ部分を高精度に認識することができない
等の問題があった。
(Problems to be Solved by the Invention) However, the task of tracing the frame portion of the eyeglass frame image in this manner is extremely troublesome and requires a large amount of processing time. Furthermore, since the tracing of the eyeglass frame is performed manually, there is a lack of accuracy, and there are problems such as the inability to recognize the lens portion with high precision.

本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、人手を煩わすことなく眼鏡フレ
ーム画像からそのレンズ部分を簡易に、しかも高精度に
求めることのできる眼鏡フレームのレンズ部認識方式を
提供することにある。
The present invention has been made in consideration of these circumstances, and its purpose is to provide an eyeglass frame whose lens portion can be easily and highly accurately determined from an image of the eyeglass frame without any manual effort. An object of the present invention is to provide a lens part recognition method.

[発明の構成] (問題点を解決するための手段) 本発明は眼鏡フレーム画像を入力し、この眼鏡フレーム
画像を2値化処理してフレーム枠部分の情報を求め、2
値化処理して求められたパターンデータを上記フレーム
枠部分で囲まれる背景部の中心位置から周囲部にかけて
順にラベリングして前記眼鏡フレーム画像中のレンズ部
分を認識するようにしたものである。
[Structure of the Invention] (Means for Solving the Problems) The present invention inputs an eyeglass frame image, binarizes the eyeglass frame image to obtain information on the frame frame, and
The pattern data obtained through digitization processing is sequentially labeled from the center of the background surrounded by the frame to the periphery to recognize the lens portion in the eyeglass frame image.

特に眼鏡フレームの左右対称性を考慮して、眼鏡フレー
ム画像中の眼鏡フレームの片側部分を選択的に切出して
上述したラベリング処理を実行するようにし、また2値
化されたパターンデータによって示されるフレーム枠部
分の情報に欠け(途切れ)がある場合には、その周囲の
ラベリング結果を参照してそのラベリング処理を制御し
てレンズ部分を簡易に効率良く、しかも高精度に認識す
るようにしたものである。
In particular, taking into account the left-right symmetry of the eyeglass frame, one side of the eyeglass frame in the eyeglass frame image is selectively cut out to perform the above-mentioned labeling process, and the frame indicated by the binarized pattern data is If there is a lack of information in the frame (discontinuity), the labeling process is controlled by referring to the labeling results around the frame, allowing the lens to be recognized simply, efficiently, and with high precision. be.

(作用) かくして本発明によれば、眼鏡フレーム画像においてフ
レーム枠部分で囲まれる背景部がレンズ部分であること
が明らかであることから、上記眼鏡フレーム画像を2値
化してなるパターンデータを、そのフレーム枠部分で囲
まれる背景部の中心位置から周囲にかけて順にラベリン
グしてレンズ部分を求め、2値化処理の精度に起因して
フレーム枠部分に欠けがある場合には、その周囲のラベ
リング結果を参照してラベリングを制御するので、フレ
ーム枠にて囲まれる背景部領域を簡易に、しかも高精度
にレンズ部分として認識することができる。
(Function) Thus, according to the present invention, since it is clear that the background portion surrounded by the frame portion in the eyeglass frame image is the lens portion, the pattern data obtained by binarizing the eyeglass frame image is The lens portion is determined by sequentially labeling the background area surrounded by the frame area from the center position to the periphery. If there is a chip in the frame area due to the accuracy of the binarization process, the labeling result of the surrounding area is Since labeling is controlled by reference, the background region surrounded by the frame can be easily and highly accurately recognized as a lens portion.

(実施例) 以下、図面を参照して本発明の一実施例につき説明する
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図は実施例方式を適用して構成される眼鏡フレーム
記録装置の概略構成図であり、第2図は同実施例装置で
用いられるプロセッサの構成例を示す図である。
FIG. 1 is a schematic configuration diagram of an eyeglass frame recording device constructed by applying the method of the embodiment, and FIG. 2 is a diagram showing an example of the configuration of a processor used in the device of the embodiment.

この装置は、眼鏡フレームの選択システムに用いられる
眼鏡フレームの情報を求め、これを所定の記録装置(例
えばフロッピーディスク記録媒体)に記録して種々の眼
鏡フレームに関するデータベースを構築する為のもので
ある。
This device obtains information on eyeglass frames used in the eyeglass frame selection system, records this information on a predetermined recording device (for example, a floppy disk recording medium), and constructs a database regarding various eyeglass frames. .

第1図において、記録対象とする眼鏡フレーム1はTV
カメラ2により撮像入力され、A/D変換器3を介して
ディジタル変換されて画像メモリ4に一時記憶される。
In FIG. 1, an eyeglass frame 1 to be recorded is a TV.
An image is inputted by the camera 2, converted into digital data via the A/D converter 3, and temporarily stored in the image memory 4.

この撮像入力系は公知のディジタル・カラー画像技術を
用いて実現されるもので、例えば撮像入力した眼鏡フレ
ーム画像信号をそれぞれ8(ビット)のRGB信号とし
て得るものとなっている。そしてこれらの色分解された
R、G、Bの各信号は、画像メモリ4においてそれぞれ
格納されるものとなっている。尚、ここではRGB信号
に色分解して眼鏡フレーム画像を得るものとして説明す
るが、YIQ信号として眼鏡フレーム画像を得るもので
あっても良いことは勿論のことである。
This imaging input system is realized using a known digital color image technology, and, for example, obtains an image signal of an input glasses frame as an 8 (bit) RGB signal. These color-separated R, G, and B signals are stored in the image memory 4, respectively. It should be noted that although the explanation will be given here assuming that the eyeglass frame image is obtained by color-separating the RGB signals, it goes without saying that the eyeglass frame image may be obtained as a YIQ signal.

しかして画像メモリ4に一時記憶された眼鏡フレーム画
像はD/A変換器5を介して読出され、TVモニタ6に
供給されて画像表示されるようになっている。このTV
モニタθに表示される眼鏡フレーム画像を確認しながら
、前記TV左カメラの撮像レンズ系のズーミング調整や
撮像視野調整を行い、またコントロール部7によるTV
モニタB上でのカーソル制御を行う。
The eyeglass frame image temporarily stored in the image memory 4 is read out via the D/A converter 5 and supplied to the TV monitor 6 for image display. This TV
While checking the eyeglass frame image displayed on the monitor θ, the zooming adjustment of the imaging lens system of the TV left camera and the imaging field of view adjustment are performed, and the TV
Performs cursor control on monitor B.

このような調整により眼鏡フレームの像を所望とする大
きさで得、該眼鏡フレームの像を含む所定の矩形領域の
眼鏡フレーム画像を後述するプロセッサ8による処理対
象画像として前記画像メモリ4に格納する。例えば第3
図(a)に示すように水平方向200画素画素面方向1
00ラインの矩形領域内に眼鏡フレームの像が収まるよ
うに、或いは同図(b)に示すように水平方向100画
素、垂直方向100ラインの矩形領域内に眼鏡フレーム
の片側部分の像が収まるように調整し、このとき前記コ
ント−ロール部7からシャッタ信号を与えて該矩形領域
の撮像画像データを画像メモリ4に記憶保持する。
Through such adjustment, an image of the eyeglass frame is obtained in a desired size, and the eyeglass frame image of a predetermined rectangular area containing the image of the eyeglass frame is stored in the image memory 4 as an image to be processed by the processor 8, which will be described later. . For example, the third
As shown in figure (a), 200 pixels in the horizontal direction, pixel surface direction 1
The image of the eyeglass frame should fit within the rectangular area of the 00 line, or the image of one side of the eyeglass frame should fit within the rectangular area of 100 pixels in the horizontal direction and 100 lines in the vertical direction, as shown in Figure (b). At this time, a shutter signal is applied from the control unit 7 to store and hold the captured image data of the rectangular area in the image memory 4.

このようにして眼鏡フレームの画像を切出した後、プロ
セッサ8にて画像処理を施してフレーム枠部分を認識抽
出し、フレーム枠部分とそれ以外の背景部分とを識別す
るパターンデータ(識別データ)を生成する。具体的に
は前記矩形領域について、例えば眼鏡のフレーム枠部分
を“1”とし、背景部分を“O”とする2値パターンデ
ークを求める。
After cutting out the image of the eyeglass frame in this way, the processor 8 performs image processing to recognize and extract the frame frame portion, and generates pattern data (identification data) that identifies the frame frame portion and other background portions. generate. Specifically, for the rectangular area, a binary pattern data is obtained in which, for example, the frame portion of the glasses is set to "1" and the background part is set to "O".

ここでプロセッサ8は、眼鏡フレームの片側半分(右側
)についてのみ画像処理するものとすると、先ずRAM
8aに水平方向100画素、垂直方向100ラインの矩
形領域の画像データ(RGB信号)を前記画像メモリ4
から読出して格納する。このように眼鏡フレーム画像を
眼鏡フレームの片側半分だけを抽出するようにすれば、
その処理量を半分に削減することができる。
Here, assuming that the processor 8 performs image processing only on one half (right side) of the eyeglass frame, first the RAM
Image data (RGB signals) of a rectangular area of 100 pixels in the horizontal direction and 100 lines in the vertical direction are stored in the image memory 4a.
Read from and store. In this way, if you extract only one half of the eyeglass frame image from the eyeglass frame image,
The processing amount can be cut in half.

その後、このRAM8aに格納された画像データから、
第3図(b)に示すようにその矩形領域の中心位置の画
像データ(rgb信号)を背景画像データとして抽出し
、これをRA M 8bに格納する。
After that, from the image data stored in this RAM 8a,
As shown in FIG. 3(b), image data (RGB signals) at the center position of the rectangular area is extracted as background image data and stored in the RAM 8b.

この背景画像データの抽出は、 ■ 通常、眼鏡フレームを撮像する場合、所定のバック
スクリーンの前に眼鏡フレームをセツトシて行われ、そ
の背景画像データはほぼ均一であること、 ■ 眼鏡フレーム枠はその内側にレンズを支持するもの
であり、上述したように眼鏡フレームの片側半分だけを
捕えた場合、通常、その中央部はレンズが嵌め込まれる
部分(レンズ部分)、つまりフレーム枠に対する背景部
分となる と云う観点に立脚して特定されるものである。このよう
にして矩形領域の中心位置を背景部分として特定すれば
、眼鏡フレーム枠の形状や大きさに関係なく、また多少
の位置ずれに関係なくほぼ確実に背景部の画像データを
抽出することができる。
The extraction of this background image data is as follows: - Normally, when imaging an eyeglass frame, the eyeglass frame is set in front of a predetermined back screen, and the background image data is approximately uniform; It supports the lens on the inside, and as mentioned above, when only one half of the eyeglass frame is captured, the center part is usually the part into which the lens is fitted (lens part), that is, the background part to the frame frame. It is specified based on the viewpoint. By identifying the center position of the rectangular area as the background part in this way, it is possible to almost certainly extract the image data of the background part, regardless of the shape and size of the eyeglass frame frame, or regardless of slight positional deviation. can.

しかして演算部8Cは上記RAM8a格納された画像デ
ータ(RGB信号)を走査して順に読出し、前記RAM
8bに格納された前景部画像データ(rgb信号)との
間で H=lR−rl+lG−gl+IB−blなる演算を実
行し、フレーム枠の識別関数値Hを求めている。この識
別関数値Hは、RAM8aから読出された画素の画像デ
ータがフレーム枠部分のものである場合、通常(R,r
)、CG、g)。
The arithmetic unit 8C scans and sequentially reads out the image data (RGB signals) stored in the RAM 8a.
The calculation H=lR-rl+lG-gl+IB-bl is performed between the foreground image data (rgb signal) stored in 8b, and the discrimination function value H of the frame frame is determined. This discrimination function value H is normally (R, r
), CG, g).

(B、b)の少なくとも1つが大きく異なる為に成る程
度の数値を示す。逆にRAM8aから読出された画素の
画像データが背景部分のものである場合には、(R,r
)、(G、g)、(B、b)の各個がそれぞれ殆んど等
しいことがら「0」またはそれに近い値を示す。
The numerical value is shown to the extent that at least one of (B, b) is significantly different. Conversely, if the image data of the pixel read out from the RAM 8a is for the background part, (R, r
), (G, g), and (B, b) are almost equal, indicating "0" or a value close to it.

2値化回路8dはこのような識別関数値Hを所定の閾値
で2値化処理し、フレーム枠部分で“1″、背景部分で
“0”となる信号を求めている。このようにして求めら
れた2値化信号(パターンデ〜り)が前記RAM8aか
らの画像データの読出しに同期してアドレス回路8eの
制御のもとてメモリ8rに順次格納される。この結果、
メモリ8rには前記矩形領域中のフレーム枠部分を示す
パターンデータが2値画像データとして格納されること
になる。
The binarization circuit 8d binarizes the discrimination function value H using a predetermined threshold value to obtain a signal that is "1" in the frame portion and "0" in the background portion. The binary signals (pattern data) thus obtained are sequentially stored in the memory 8r under the control of the address circuit 8e in synchronization with the reading of image data from the RAM 8a. As a result,
Pattern data indicating the frame portion in the rectangular area is stored as binary image data in the memory 8r.

ここでレンズ認識部8には、上述した如く2値処理され
たパターンデータに対して、データ“1″で示されるフ
レーム枠部分の内部領域をレンズ部分としてラベリング
するものとなっている。具体的には前述したように前記
矩形領域の中心位置をフレーム枠部分の内側に位置する
レンズ部分であるとして特定できることから、その中心
位置の画素をパターンデータ“2”としてラベリングす
る。
Here, the lens recognition unit 8 is configured to label the internal area of the frame portion indicated by data "1" as a lens portion with respect to the pattern data subjected to the binary processing as described above. Specifically, as described above, since the center position of the rectangular area can be identified as the lens part located inside the frame portion, the pixel at the center position is labeled as pattern data "2".

その後、その中心座標(’x、y)から右(左)に向け
て注目画素を走査し、その注目画素のデータが“0”で
ある場合、これを”2゛としてラベリングする。この処
理をフレーム枠を示すパターンデータ“1”が検出され
るまで繰返す。そしてフレーム枠が検出された時点で前
記注目画素を前記中心画素位置に戻し、逆方向への走査
を同様にして行なう。
Then, the pixel of interest is scanned from the center coordinates ('x, y) to the right (left), and if the data of the pixel of interest is "0", it is labeled as "2". The process is repeated until pattern data "1" indicating a frame frame is detected.Then, at the time when a frame frame is detected, the pixel of interest is returned to the center pixel position, and scanning in the opposite direction is performed in the same manner.

しかる後、その走査ラインを変更して同様な処理を繰返
し実行することにより、パターンデータ“1°で示され
るフレーム枠部分によって囲まれた内部領域がデータ“
2″としてラベリングされることになり、このラベリン
グデテータによって眼鏡フレームのレンズ部分が高精度
に特定されることになる。
After that, by changing the scanning line and repeating the same process, the internal area surrounded by the frame portion indicated by the pattern data "1 degree" becomes the data "
2'', and the lens portion of the eyeglass frame can be specified with high precision by this labeling datum.

ところが眼鏡フレームの種別によっては、そのフレーム
枠の細いものがあり、また背景色と似ているものもある
。このような場合、前述した2値化処理によってフレー
ム枠の一部がパターンデータ“1”で示されるフレーム
枠部分として検出されないことが生じる。換言すれば、
2値化パターンデータ中のフレーム枠部分を示すデーラ
ダ1“めつながりに欠け(途切れ)が生じることがある
However, depending on the type of eyeglass frame, some have thin frames, and some have a similar color to the background. In such a case, a part of the frame frame may not be detected as a frame frame portion indicated by pattern data "1" due to the binarization process described above. In other words,
In some cases, gaps (discontinuities) occur in the data ladder 1" indicating the frame frame portion in the binarized pattern data.

フレーム枠部分の情報にこのような欠けが存在する場合
、前述した中心座標から周辺部への走査によるラベリン
グを行なうと、データ“1”で示されるフレーム枠部分
が検出されないことから、その走査が前記眼鏡フレーム
画像を切出した矩形領域の枠に到達してしまい、不本意
なラベリングが行われることになる。
If there is such a lack of information in the frame frame area, when labeling is performed by scanning from the center coordinates to the peripheral area as described above, the frame frame area indicated by data "1" will not be detected, so the scanning will be incorrect. The frame of the rectangular region cut out from the eyeglass frame image is reached, and undesirable labeling is performed.

そこで本方式では、例えば第4図および第5図にそれぞ
れ示すように、フレーム枠部分に欠けが存在し、レンズ
部分を示すデータ“2”のラベリングが本来のフレーム
枠部分を越えて眼鏡フレーム画像を切出した矩形領域の
辺部に到達するような場合、その周囲のラベリング結果
、例えば1走査ライン前のラベリング結果を参照してラ
ベリングの修正を行なうものとなっている。具体的には
第4図および第5図に示すようにデータ“1”が付与さ
れた画素の繋がり関係からフレーム枠部分が欠けた領域
にデータ“1”をラベリングし、このデータに従って前
記データ“2”をラベリングする画素を制御するものと
なっている。このようなラベリング制御によって、本来
のフレーム枠部分を越えた領域までがレンズ領域として
ラベリングされることを防止するものとなっている。
Therefore, in this method, as shown in FIGS. 4 and 5, for example, if there is a chip in the frame portion, the labeling of data “2” indicating the lens portion may extend beyond the original frame portion in the eyeglass frame image. When reaching a side of a rectangular area cut out, the labeling is corrected by referring to the labeling results around the edge, for example, the labeling results from one scanning line before. Specifically, as shown in FIGS. 4 and 5, data "1" is labeled in the area where the frame frame part is missing based on the connection relationship of pixels assigned data "1", and the data "1" is labeled according to this data. 2” is used to control the pixels to be labeled. Such labeling control prevents an area beyond the original frame portion from being labeled as a lens area.

尚、このようなラベリング処理を行なう場合、例えば第
6図に示すような眼鏡フレームにあっては、図中斜線部
に示すような領域のラベリングを行なうことができなく
なる。つまり走査を行なう最初の画素がフレーム枠部分
を示す場合、その時点でその走査ラインに対するラベリ
ング処理が終了することになる。
Note that when performing such labeling processing, for example, in the case of a spectacle frame as shown in FIG. 6, it becomes impossible to label the area shown in the hatched area in the figure. In other words, when the first pixel to be scanned indicates a frame frame portion, the labeling process for that scanning line ends at that point.

このような場合には、第7図に示すようにその周囲の8
画素(3×3画素の領域)を調べて走査開始点をずらす
ようにすれば良い。このようなラベリング制御により、
フレーム枠部分に囲まれる内部領域の全てをレンズ部分
として効果的にラベリングすることが可能となる。
In such a case, as shown in Figure 7, the surrounding 8
What is necessary is to check the pixels (3×3 pixel area) and shift the scanning start point. With this kind of labeling control,
It becomes possible to effectively label the entire internal area surrounded by the frame portion as a lens portion.

しかる後、このようにしてラベリングされたデータによ
って前記メモリ8rに書込またパターンデータを更新す
る。この結果、メモリ8rには眼鏡フレーム部分を示す
データ“1”、レンズ部分を示すデータ“2“、そして
それ以外の背景部を示すデータ“O”からなるパターン
データが格納されることになる。
Thereafter, the pattern data written in the memory 8r is updated with the thus labeled data. As a result, pattern data consisting of data "1" indicating the eyeglass frame portion, data "2" indicating the lens portion, and data "O" indicating the other background portion is stored in the memory 8r.

尚、このような3つの値を取るパターンデータを格納す
るメモリ8rとしては、各画素当り 2ビツトの容量を
持つものであれば良い。
The memory 8r for storing pattern data having three values may be any memory having a capacity of 2 bits per pixel.

そしてこのメモリ8fに格納されたパターンデータを、
アドレス回路8oの制御により順次読出し、合成回路8
gを介して記録装置9に出力して記録する。
Then, the pattern data stored in this memory 8f,
Sequential readout and synthesis circuit 8 under the control of address circuit 8o
g to the recording device 9 for recording.

この際、合成回路8gは、メモリ8fから読出して記録
装置9に出力するパターンデータがフレーム枠部分を示
す“1”なる値を取るとき、前記RAM8aから該当部
分の画像データ(RGB信号)を読出し、これを合成出
力している。この結果、パターンデータの走査に沿って
、フレーム枠部分の画像データ(RGB信号)のみがパ
ターンデータ“1°に順次対応付けられて出力され、パ
ターンデータと共に記録装置9に記録されることになる
At this time, when the pattern data read from the memory 8f and output to the recording device 9 takes a value of "1" indicating the frame frame portion, the synthesis circuit 8g reads the image data (RGB signals) of the corresponding portion from the RAM 8a. , this is synthesized and output. As a result, along with the scanning of the pattern data, only the image data (RGB signals) of the frame portion are sequentially associated with the pattern data "1°" and output, and are recorded in the recording device 9 together with the pattern data. .

尚、このようにして記録された眼鏡フレームの情報は次
のようにして再生され、元の画像データに復元される。
Note that the information on the spectacle frames recorded in this manner is reproduced as follows and restored to the original image data.

即ち、記録装置9より再生された情報は分離回路8hに
入力され、パターンデータとRGB信号からなる画像デ
ータに分離される。そして分離されたパターンデータは
前記メモリ8rに順次格納され、またパターンデータ“
1”に対応付けられている画像データは該パターンデー
タ“1″から分離されて別のメモリ81に順次格納され
る。
That is, the information reproduced from the recording device 9 is input to the separation circuit 8h, and is separated into image data consisting of pattern data and RGB signals. The separated pattern data are sequentially stored in the memory 8r, and the pattern data "
The image data associated with pattern data "1" is separated from the pattern data "1" and sequentially stored in another memory 81.

しかして前記アドレス回路8eはこのメモリ8rに格納
されたパターンデータを順に走査して読出し、パターン
データに従ってスイッチ8jを選択切替え制御している
。そしてパターンデータが“0°の場合には固定的に与
えられる画像データ「0;黒」を選択し、またパターン
データが“1”の場合には前記メモリ8Iに格納された
画像データを順に読出して前記RA M 8aに書込ん
でいる。更にはパターンデータが“2”の場合には、外
部より指示入力された色情報(RGB信号)を選択し、
これを前記RA M 8aに書込んでいる。
The address circuit 8e sequentially scans and reads out the pattern data stored in the memory 8r, and selectively controls the switch 8j according to the pattern data. Then, when the pattern data is "0°", the fixedly given image data "0;black" is selected, and when the pattern data is "1", the image data stored in the memory 8I is sequentially read out. and is written to the RAM 8a. Furthermore, if the pattern data is "2", select the color information (RGB signal) input from the outside,
This is written into the RAM 8a.

この処理によってRA M 8aの前記パターンデータ
“1”で示されるフレーム枠部分に前記メモリ81から
求められた画像データが順次書込まれ、パターンデータ
“0”で示されるフレーム枠の外側の背景部分には黒画
像データ「0」が順に書込まれて前述した眼鏡フレーム
の画像が復元される。
Through this process, the image data obtained from the memory 81 is sequentially written into the frame frame portion indicated by the pattern data “1” in the RAM 8a, and the image data obtained from the memory 81 is sequentially written into the frame frame portion indicated by the pattern data “0”. Black image data "0" is sequentially written into , and the above-mentioned image of the eyeglass frame is restored.

更にはパターンデータ“2”で示されるフレーム枠の内
側のレンズ部分には指定された色情報からなる画像デー
タが書込まれることになる。
Furthermore, image data consisting of designated color information is written into the lens portion inside the frame indicated by pattern data "2".

そしてこのRA M 8aに復元された眼鏡フレームの
画像を前記画像メモリ4に転送することにより、その眼
鏡フレームと指定された色にて着色されたレンズとから
なる眼鏡フレーム画像がTVモニタ6にて画像表示され
ることになる。
By transferring the image of the glasses frame restored to the RAM 8a to the image memory 4, an image of the glasses frame consisting of the glasses frame and lenses colored in the designated color is displayed on the TV monitor 6. The image will be displayed.

この際、前述したように眼鏡フレームの片側半分の情報
のみを記録している場合には、RAMgaに再生復元さ
れた片側半分の眼鏡フレーム画像を折返し処理する等し
て反対側の画像を生成する。
At this time, if only the information on one half of the eyeglass frame is recorded as described above, the image on the other side is generated by processing the eyeglass frame image of the one half half reproduced and restored in the RAMga. .

そしてこれらの2つの画像(右側半分と左側半分の各画
像)を合成して1枚の眼鏡フレーム画像を形成し、これ
を画像メモリ4に書込むようにすれば良い。
Then, these two images (the right half image and the left half image) may be combined to form one eyeglass frame image, and this may be written into the image memory 4.

以上説明したように本発明によれば、入力された眼鏡フ
レーム画像を2値化処理し、その2値化パターンデータ
をフレーム枠で囲まれた内部領域から周囲にかけて順に
レンズ部分としてラベリングしていくので、フレーム枠
にて囲まれる内部領域をレンズ部分として簡易に、しか
も精度良く認識することができる。しかもフレーム枠部
分の欠けを生じた部分についてはその周囲のラベリング
結果を参照してそのラベリングを制御するので、2値化
パターンデータの誤差に殆んど影響されることなくレン
ズ部分を効果的にラベリングすることができる。
As explained above, according to the present invention, an input eyeglass frame image is binarized, and the binarized pattern data is sequentially labeled as a lens part from the inner area surrounded by the frame frame to the periphery. Therefore, the internal area surrounded by the frame can be easily and accurately recognized as a lens portion. Moreover, since the labeling of the chipped portion of the frame is controlled by referring to the labeling results of the surrounding area, the lens portion can be effectively resized without being affected by errors in the binarized pattern data. Can be labeled.

従ってこのラベリング結果に従って、例えばレンズ部分
を所望の色に着色する等の処理を非常に簡易に、しかも
正確に行なうことが可能となる等の多大なる効果が奏せ
られる。
Therefore, in accordance with the labeling results, it is possible to carry out processing such as coloring the lens portion in a desired color very simply and accurately, and other great effects can be achieved.

尚、本発明は上述した実施例に限定されるものではない
。例えばフレーム枠内部の中心部から周辺部に欠けての
ラベリング走査の向き、およびその走査制御は種々変形
可能なものである。またフレーム枠部分の欠けについて
の修正処理の手法も、パターンデータに対する種々の内
挿的手法を適用することができる。その他、本発明はそ
の要旨を逸脱しない範囲で種々変形して実施可能である
Note that the present invention is not limited to the embodiments described above. For example, the direction of labeling scan from the center to the periphery inside the frame and its scan control can be modified in various ways. Furthermore, various interpolation methods can be applied to pattern data as a method for correcting missing portions of the frame. In addition, the present invention can be implemented with various modifications without departing from the gist thereof.

[発明の効果] 以上説明したように本発明によれば1、眼鏡フレーム画
像をトレースする等の人手を煩わすことなしに、眼鏡フ
レーム画像に対する2値化パターンデータのラベリング
処理によって該眼鏡フレームのレンズ部分を自動的に、
しかも高精度に認識することができる等の効果を奏し得
る。
[Effects of the Invention] As explained above, according to the present invention, 1. the lens of the eyeglass frame is processed by labeling the eyeglass frame image with binarized pattern data without any manual effort such as tracing the eyeglass frame image; parts automatically,
Moreover, effects such as being able to recognize with high accuracy can be achieved.

【図面の簡単な説明】[Brief explanation of the drawing]

図は本発明の一実施例を示すもので、第1図は実施例方
式を適用した眼鏡7レーム記録装置の概略構成図、第2
図は同実施例装置におけるプロセッサの構成例を示す図
、第3図乃至第7図は眼鏡フレームにおけるレンズ部分
認識の処理手続きを説明する為の図である。 1・・・眼鏡フレーム、2・・・TV左カメラ4・・・
画像メモリ、6・・・TVモニタ、7・・・コントロー
ル部、8・・・プロセッサ、9・・・記録装置、8a、
 8b・・・RAM。 8C・・・演算部、8d・・・2値化回路、8f・・・
メモリ、8g・・・合成回路、8k・・・レンズ認識部
(ラベリング処理)。 出願人代理人 弁理士 鈴江武彦 第2図 (Q) 第3 第4図 16図 (b) 図 第5図 第7図
The figures show one embodiment of the present invention, and FIG.
The figure shows an example of the configuration of the processor in the apparatus of the embodiment, and FIGS. 3 to 7 are diagrams for explaining a processing procedure for recognizing a lens part in an eyeglass frame. 1... Glasses frame, 2... TV left camera 4...
Image memory, 6... TV monitor, 7... Control section, 8... Processor, 9... Recording device, 8a,
8b...RAM. 8C... Arithmetic unit, 8d... Binarization circuit, 8f...
Memory, 8g... synthesis circuit, 8k... lens recognition unit (labeling processing). Applicant's agent Patent attorney Takehiko Suzue Figure 2 (Q) Figure 3 Figure 4 Figure 16 (b) Figure 5 Figure 7

Claims (4)

【特許請求の範囲】[Claims] (1)眼鏡フレーム画像を入力する手段と、入力された
眼鏡フレーム画像を2値化処理してフレーム枠部分の情
報を求める手段と、2値化処理して求められたパターン
データを上記フレーム枠部分で囲まれる背景部の中心位
置から周囲部にかけて順にラベリングして前記眼鏡フレ
ーム画像中のレンズ部分を認識する手段とを具備したこ
とを特徴とする眼鏡フレームのレンズ部認識方式。
(1) means for inputting an eyeglass frame image; means for binarizing the input eyeglass frame image to obtain information on the frame frame; A method for recognizing a lens part of an eyeglass frame, comprising means for recognizing a lens part in the eyeglass frame image by sequentially labeling a background part surrounded by parts from a central position to a peripheral part.
(2)2値化処理とラベリング処理は、眼鏡フレーム画
像中の眼鏡フレームの片側部分を選択的に切出して行わ
れるものである特許請求の範囲第1項記載の眼鏡フレー
ムのレンズ部認識方式。
(2) The method for recognizing the lens portion of an eyeglass frame according to claim 1, wherein the binarization processing and the labeling processing are performed by selectively cutting out one side of the eyeglass frame in the eyeglass frame image.
(3)眼鏡フレーム画像はカラー画像として入力される
ものである特許請求の範囲第1項記載の眼鏡フレームの
レンズ部認識方式。
(3) The eyeglass frame lens portion recognition method according to claim 1, wherein the eyeglass frame image is input as a color image.
(4)2値化されたパターンデータによって示されるフ
レーム枠部分の情報に欠けがある場合には、その周囲の
ラベリング結果を参照してラベリング処理を制御するも
のである特許請求の範囲第1項記載の眼鏡フレームのレ
ンズ部認識方式。
(4) If there is a lack of information in the frame portion indicated by the binarized pattern data, the labeling process is controlled by referring to the labeling results around it. Lens part recognition method for eyeglass frames described.
JP25702886A 1986-10-30 1986-10-30 Lens part recognition system for spectacle frame Pending JPS63113678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25702886A JPS63113678A (en) 1986-10-30 1986-10-30 Lens part recognition system for spectacle frame

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25702886A JPS63113678A (en) 1986-10-30 1986-10-30 Lens part recognition system for spectacle frame

Publications (1)

Publication Number Publication Date
JPS63113678A true JPS63113678A (en) 1988-05-18

Family

ID=17300739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25702886A Pending JPS63113678A (en) 1986-10-30 1986-10-30 Lens part recognition system for spectacle frame

Country Status (1)

Country Link
JP (1) JPS63113678A (en)

Similar Documents

Publication Publication Date Title
EP0853293B1 (en) Subject image extraction method and apparatus
JPH05501184A (en) Method and apparatus for changing the content of continuous images
CN101843092A (en) Image pickup apparatus, image pickup method, and program
JP2006309405A (en) Meter recognition system, meter recognition method, and meter recognition program
US7715650B2 (en) Method and apparatus for digital processing of images
CN114355467A (en) Detection model establishment and multi-image-based track foreign matter detection method
MXPA02008494A (en) Correction of distortions in form processing.
JPS63113678A (en) Lens part recognition system for spectacle frame
JP2961140B2 (en) Image processing method
JP2993007B2 (en) Image area identification device
JPS63113677A (en) Spectacle frame image processor
JP2648030B2 (en) Image editing method and image editing device
JP2523538B2 (en) Eyeglass frame recording device
JPH0534117A (en) Image processing method
JPH07225848A (en) Image extracting method
JPH073324B2 (en) Interference fringe measurement method
JPH1069536A (en) Image synthesizer
JP3669008B2 (en) Image processing apparatus and image processing method
JPS63182780A (en) Picture processing method for drawing reading device
JP2853141B2 (en) Image area identification device
JPS6383881A (en) Image processor
JPH0894353A (en) Around vehicle monitoring device
JPH0424749B2 (en)
JPH01128171A (en) Image processor
JPS63238678A (en) Picture processing device