KR910000591B1 - 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템 - Google Patents

안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템 Download PDF

Info

Publication number
KR910000591B1
KR910000591B1 KR1019870011919A KR870011919A KR910000591B1 KR 910000591 B1 KR910000591 B1 KR 910000591B1 KR 1019870011919 A KR1019870011919 A KR 1019870011919A KR 870011919 A KR870011919 A KR 870011919A KR 910000591 B1 KR910000591 B1 KR 910000591B1
Authority
KR
South Korea
Prior art keywords
frame
image
data
spectacle frame
spectacle
Prior art date
Application number
KR1019870011919A
Other languages
English (en)
Other versions
KR880005529A (ko
Inventor
마사후미 다무라
겡이찌 이찌가와
사도시 가게야마
Original Assignee
가부시기가이샤 도시바
도리스기이찌로
가부시끼가이샤 토푸콘
보도기 마사요시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP25702786A external-priority patent/JPS63113677A/ja
Priority claimed from JP61257024A external-priority patent/JP2523538B2/ja
Priority claimed from JP25702686A external-priority patent/JPS63113685A/ja
Priority claimed from JP25702386A external-priority patent/JPS63113676A/ja
Priority claimed from JP61257025A external-priority patent/JPS63113671A/ja
Application filed by 가부시기가이샤 도시바, 도리스기이찌로, 가부시끼가이샤 토푸콘, 보도기 마사요시 filed Critical 가부시기가이샤 도시바
Publication of KR880005529A publication Critical patent/KR880005529A/ko
Application granted granted Critical
Publication of KR910000591B1 publication Critical patent/KR910000591B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Eyeglasses (AREA)

Abstract

내용 없음.

Description

안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템
제1도는 본 발명에서 실시되는 안경 프레임 화상처리 기록 시스템의 구성 표시 블럭도.
제2도는 안경 프레임 화상의 추출 영역 표시도.
제3도는 추출된 일측 부분의 안경 프레임 화상도.
제4도는 안경 프레임 화상에 있어서의 엔헌스먼트 영역의 신호도.
제5도는 안경 프레임 화상에 있어서, 엔헌스먼트 영역 신호 성분에 기인한 윤곽부분의 연부 표시도.
제6도는 엔헌스먼트 처리를 하는 회로의 구성 표시 블럭도.
제7도는 엔헌스먼트 처리 동작을 표시한 플로우 챠아트.
제8도는 프레임 화상의 추출, 기록 및 재생 정리를 하는 프로세서의 구성 표시 블럭도.
제9a도, 제9b도는 프레임 화상의 추출과 기록 및 재생처리의 동작을 표시한 플로우 챠아트.
제10a도-제10c도는 2치화 처리를 실행하기 위한 도면.
제11도는 영역치를 변경하면서 실행하는 2치화 처리동작의 플로우 챠아트.
제12a도, 제12b도는 안경 프레임 데이터 베이스에 기록되어 있는 프레임의 패턴 데이터 및 화상 데이터의 일예시도.
제13a도-제13g도는 안경 프레임 데이터의 등록작업의 개요 표시도.
제14도는 안경 프레임의 선택 조작을 위한 키 패드의 구성 예시도.
제15도는 합성된 화상의 경계 부분에 있어서의 평균화 처리를 설명하기 위한 도면.
제16도는 합성된 화상의 경계 부분에 있어서 평균화 처리를 하는 회로의 구성 표시 블럭도.
제17도는 합성된 화상의 경계 부분에 있어서의 평균화 처리동작을 표시한 플로우 챠아트.
제18a도, 제18b도는 안경 프레임 데이터 베이스에 기록될 프레임 화상 데이터 및 그의 패턴 데이터 표시도.
제19도는 합성될 화상간의 색의 혼합처리를 하는 회로의 구성 표시 블럭도.
제20도는 합성될 화상간의 색의 혼합처리를 하는 동작표시 플로우 챠아트.
제21a도, 제21b도는 사람의 얼굴의 화상에 안경 프레임 화상을 합성하는 경우를 설명하는 도면.
제22도는 렌즈 부분의 착색방법을 설명하기 위한 도면.
제23a도-제23c도는 복수의 안경 프레임을 선택한 경우의 예시도.
제24a도-제24c도는 1개의 안경 프레임을 선택한 경우에 얼굴의 방향을 바꾸어 표시한 예시도.
* 도면의 주요부분에 대한 부호의 설명
3 : 이미지 메모리 7 : 프로세서
8 : 마이크로컴퓨터 9 : 안경 프레임 데이터 베이스
10a,10b : 커서 11 : 백그라운드 디텍터
12 : 이미지 서브트랙터 13 : 절대치 처리회로
14 : 엔헌스먼트 영역 디텍터 15 : 선택회로
24 : 수치화 처리회로 25 : 영역치 변경회로
27,31 : 합성회로 32 : 평균화회로
본 발명은, 사람의 얼굴의 화상과 프레임 화상을 합성하기 위하여, 안경 프레임만의 화상을 고정도로 추출함으로서 안경 프레임의 데이터 베이스를 구축하는 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템에 관한 것이다.
근래, 여러 가지 안경 프레임 화상을 기록해 두고, 텔레비젼(이하 TV라 한다) 카메라에 의하여 입력된 안경 선택자의 얼굴의 화상에 안경 프레임 화상을 선택적으로 합성하고, 그 합성화상을 모니터 하면서 안경 프레임을 선택하는 것이 생각되어 왔다. 이러한 안경 프레임의 선택의 경우, 여러 가지 안경 프레임의 화상을 데이터 베이스로서 기록해 두는 것이 필요하게 된다. 그러므로, 입력된 안경 프레임 화상에서 프레임 부분의 정보만을 추출하고, 이 정보에 따라서 안경 프레임 화상중에서 프레임 부분을 분리해내고 있다.
종래, 일반적으로 기록 대상으로 하는 안경 프레임 화상을 TV 카메라 등에 의하여 입력하고 그 안경 프레임 화상을 TV 모니터 위에 표시하면서 커서(Cursor)를 이용하여 필요한 부분, 예를 들면 안경 프레임 화상이 담아지는 소정의 사각형 영역을 분리해내고, 이 부분의 화상 데이터를 기록하도록 하고 있다.
이 경우, 촬영 입력된 화상신호는 여러 가지 특성을 가지며, 반드시 배경부분의 화상신호가 일정하거나, 혹은 안경 프레임의 화상신호가 일정하게는 한정되지는 않는다. 가령 배경 부분의 화상신호가 일정할 경우에도, 이 배경부분과 안경 프레임 부분의 경계 부분에 있어서 신호 특유의 윤곽 강조, 즉 엔헌스먼트(Enhancement) 처리가 이루어지고 있어서 주어진 입력 화상 중에서 필요로 하는 화상 부분을 고정도로 분리해내는 것은 대단히 곤란하며, 분리해낸 화상 부분의 윤곽에 부자연성이 남아 있다. 또 안경 프레임 화상의 데이터 베이스를 구축할 때, 종래는 안경 프레임을 포함한 영역내의 화상의 데이터를 모두 추출하고, 이것을 기록하도록 하고 있다. 그러나, 안경 프레임 화상을 주목해보면, 프레임 자체의 화상 데이터는 약간 뿐이고, 그 이외의 대부분은 배경의 화상 데이터로 되어 있다. 그러므로, 프레임의 정보를 효과적으로 추출함으로서 안경 프레임을 포함하는 부분의 정보량의 삭감을 도모하고, 기록매체에 수많은 안경 프레임의 정보를 기록하는 것이 필요하다.
또, 안경 프레임 화상과 사람의 얼굴의 화상을 합성하는 경우, 합성된 화상의 개개 부분에 부자연성이 발생하기 쉽다. 즉 일반적으로 화상신호는 NTSC(National Television System Committee)신호로 표시하기 때문에, 양자의 화상색, 또는 휘도의 차가 크면, 그 경계 부분에 톱날상(Jaggy)이 발생하게 된다. 또 안경 프레임에 착색렌즈를 사용하는 경우, 자기의 얼굴에 적합한지, 아닌지를 확인하기가 실제로 곤란하였다.
이상으로, 필요로 하는 화상 부분만을 고정도로 추출하거나, 추출한 화상을 타의 화상에 부자연성을 발생함이 없이 합성할 수가 있는 화상처리 기록 방법이 요망되었다.
본 발명의 목적은 사람의 얼굴과 프레임 화상을 합성하기 위하여, 안경 프레임만 화상 정보를 고정도로 추출함으로서 안경 프레임의 데이터 베이스를 구축하는 안경 프레임 화상처리 기록방법 및 그를 실시하기 위한 시스템을 제공함에 있다.
본 발명은 텔레비젼 카메라를 이용하여 안경 프레임을 촬상하고, 촬상하므로서 얻어진 안경 프레임의 화상 데이터를 이미지 메모리에 기록하고, 이미지 메모리에 기록된 안경 프레임의 화상 데이터를 텔레비젼 모니터에 표시하고, 텔레비젼 모니터에 표시된 안경 프레임 화상위에 커서를 표시함으로서 화상 추출 영역의 설정을 하여 설정한 화상 추출 영역에서 프레임만의 화상을 추출하고, 추출한 프레임만의 화상에 대하여 미리 설정한 영역치를 사용하여 2치화 처리를 함으로써 프레임의 패턴 데이터를 취득하고, 취득한 프레임의 패턴 데이터를 사용하여 프레임의 화상 데이터를 취득함으로서 안경 프레임의 패턴 데이터와 화상 데이터를 기록하는 안경 프레임 화상처리 기록 방법을 얻게 된다.
또 본 발명에 의하면, 안경 프레임을 촬상하는 수단, 촬상함으로서 얻어진 안경 프레임의 화상 데이터를 이미지 메모리에 기록하는 수단과, 이미지 메모리에 기록된 안경 프레임의 화상 데이터를 텔레비젼 모니터에 표시하는 수단과, 텔레비젼 모니터에 표시된 안경 프레임 화상위에 커서를 표시함으로서 화상 추출영역을 설정하는 수단과, 설정한 화상 추출 영역에서 프레임만의 화상을 추출하는 수단과, 추출한 프레임만의 화상에 대하여 미리 설정한 영역치를 사용하여 2치화 처리를 함으로서 프레임 패턴 데이터를 취득하는 수단과, 취득한 프레임의 패턴 데이터를 이용하여 프레임의 패턴 데이터와 화상 데이터를 기록하는 수단을 갖는 안경 프레임 화상처리 기록 시스템을 얻게 된다. 이하 본 발명의 실시예에 대하여 도면을 참조하여 설명한다.
제1도는 본 발명에서 실시되는 안경 프레임 화상처리 기록 시스템의 표시도이다. 제1도에 있어서, 기록 대상이 되는 안경 프레임은 TV 카메라(1)에 의하여 촬상 입력되며, A/D 콘버터(2)에서 디지탈 신호로 변환된 다음 이미지 메모리(3)에 기록된다. 이 촬상 입력계는 예를 들면 촬상 입력된 안경 프레임 화상신호를 각각 8비트의 RGB신호로서 얻을 수가 있으므로, 이들 색으로 분해된 R, G, B의 각 신호는 이미지 메모리(3)에 각각 격납된다. 혹은 NTSC 신호 성분으로 분해하여도 된다.
이미지 메모리(3)에 기록된 안경 프레임 화상은 디지탈/아날로그(이하 D/A라 한다) 콘버터(4)에 의해 아날로그 신호로 변환된 다음, TV 모니터(5)에 입력되어서 컬러화상으로 표시된다.
이 TV 모니터(5)에 표시되는 안경 프레임 화상을 확인하면서, TV 카메라(1)의 촬상 렌즈계의 촬상 시야의 조정이 이루어진다. 마이크로컴퓨터(8)의 제어를 받아서 동작하는 커서 발생기(6)는 상기 모니터(5)위에 제2도에 표시한 바와 같이 예를 들면 사각형상의 커서(10a)를 표시하기 위한 것이며, TV 모니터(5)위에 표시된 사각형상의 커서(10a)를 제어함으로서, 화상의 추출 영역을 설정한다. 또 제2도에 있어서, 직선상의 커서(10b)는 안경 프레임 화상의 수평성을 확인하기 위한 것이다.
이와 같은 조절에 의해 안경 프레임 화상을 희망하는 크기로 얻을 수가 있고, 안경 프레임 화상을 포함한 소정의 사각형 영역의 추출을 한다. 추출된 안경 프레임 화상은 프로세서(7)에 의하여 2치화 처리되어 프레임 부분을 검출한다. 이 검출결과는 안경 프레임의 패턴 데이터로서 안경 프레임 데이터 베이스(9)에 기록된다. 또 이 패턴 데이터를 사용하여 얻어진 프레임 부분의 화상 데이터도 안경 프레임 데이터 베이스(9)에 기록된다.
여기서, 안경 프레임의 일측 반에 대하여만, 화상 처리하는 것으로 하면, 프로세서(7)는 사각형 영역의 화상 데이터를 이미지 메모리(3)에서 판독하여 처리를 한다. 이와 같이 안경 프레임 화상에서 안경 프레임의 일측 반만을 추출하도록 하면, 그 처리를 반으로 할 수가 있다. 배경 화상 데이터의 추출은, 1) 안경 프레임을 촬영하는 경우, 소정의 백 스크린 앞에 안경 프레임을 세트하여 실시함으로서 배경 화상 데이터는 대체로 균일하다는 것, 2) 안경 프레임은 그 내측에 렌즈를 지지하는 것이고, 제3도에 표시한 바와 같이 안경 프레임의 일측 부분만을 추출한 경우, 그 사각형 영역의 중앙부는 렌즈가 말아 넣은 부분으로서 특정할 수 있음으로서 그 부분은 프레임에 대하여 배경부분이 된다는 것, 이라는 관점에 입각하여 실시되는 것이다. 이와 같이 하여 사각형 영역의 중심 위치를 배경 부분으로서 특정하면, 안경 프레임의 형상이나 크기에 관계없이, 또 다소의 위치가 틀려도 관계없이 배경 부분의 화상 데이터를 추출할 수가 있다.
또 프로세서(7)에서는 안경 프레임 데이터 베이스(9)를 구축하기 위해 여러 가지 처리를 한다. 이하 각 처리 순서에 대하여 블럭도 및 플로우 챠아트를 참조하여 설명한다.(엔헌스먼트 영역의 제거)
TV 카메라에 의해 촬상 입력된 안경 프레임 화상은 배경과 프레임의 경계 부분을 선명화하기 위하여 엔헌스먼트 처리를 한다. 예를 들면, 어두운 배경하에서 밝은 안경 프레임을 촬상한 경우, 제4도에 표시한 바와 같이, 배경 부분의 휘도 보다도 다시 낮은 휘도 신호가 그 경계 부분에 발생한다. 이러한 엔헌스먼트 영역의 신호는, 단순히 그 배경안에 있어서의 안경 프레임을 표시하는 경우에는, 윤곽 부분의 강조를 함으로서 화상을 선명화함으로 조건이 좋다. 그러나, 배경을 기준으로 하는 화상 신호를 추출하여 안경 프레임을 구하는 경우에는, 엔헌스먼트 영역 신호는 안경 프레임 신호와 같이 남게 된다. 제5도의 점선으로 표시한 바와 같이, 안경 프레임 본래의 화상 부분의 주위에 엔헌스먼트 영역의 화상 부분에 대응한 가장자리가 현출한다. 그러므로, 이 엔헌스먼트 영역의 제거가 필요하게 된다.
제6도는 입력 화상에서 필요로 하는 화상을 추출하는 경우에 있어서, 엔헌스먼트 영역을 제거하기 위한 처리회로를 블럭도로 표시한 것이고, 제7도는 그 처리 동작을 표시한 플로우 챠아트이다.
스텝(A1)에서는 백그라운드 디텍터(11)로 입력 화상 데이터의 안에서 배경 화상 데이터만을 추출한다. 스텝(A2)에서는, 이미지 서브트랙터(12)에 있어서 입력 화상 데이터를 배경 화상 데이터로 감산함으로서, 안경 프레임 부분만의 차분 화상 데이터를 추출한다. 그러나, 여기서 얻어진 프레임 화상은 엔헌스먼트 영역의 신호를 포함하고 있으므로, 이것을 제외할 필요가 있다. 그러므로 스텝(A3)에서는 절대치 처리회로(absolute value processing circuit)(13)에 있어서 스텝(A2)에서 얻어진 차분화상 데이터에 대하여 절대치 처리를 한다. 이 절대치 처리에 의하여, 엔헌스먼트 영역 신호는 제4도의 파선으로 표시되어 있는 휘도를 갖는 신호 성분으로서 생성된다.
스텝(A4)에서는, 엔헌스먼트 영역 디텍터(enhancement region detector)(14)에 있어서 차분화상 데이터의 극성으로 엔헌스먼트 영역을 검출하고 있다. 구체적으로는 배경과 프레임의 밝음의 관계로, 배경에 대하여 프레임을 나타내는 화상 데이터가, 배경을 기준으로 한 경우, 어떤 극성을 표시하게 되므로, 역극성(逆極性)의 화상 데이터의 부분을 엔헌스먼트 영역으로서 검출하고 있다.
스텝(A5)에서는, 스텝(A4)에서 실행한 엔헌스먼트 영역의 검출 결과에 따라, 엔헌스먼트 영역에서는 "0"로 표시되는 배경 부분에 상당한 데이터가 선택회로(selecting circuit)(15)에서 선택된다. 따라서, 엔헌스먼트 영역의 신호는 배경 부분과 같은 데이터로 치환된다. 이러한 처리가 이루어진 차분화상 데이터를 기본으로 하여 엔헌스먼트 영역을 포함한 배경 부분을 "0", 안경 프레임 부분을 "1"로 하는 패턴 데이터를 선택한다.
스텝(A5)에서 얻어진 프레임 패턴 데이터에 따라, 안경 프레임 화상 데이터만이 컷 아웃 처리회로(cutout processing circuit)(16)에서 추출되고(스텝 A6), 이미지 버퍼 메모리(17)에 격납된다(스텝 A7).
이와 같은 처리를 함으로서, 엔헌스먼트 영역의 신호를 제거할 수가 있다.(안경 프레임 화상의 추출, 기록, 재생)
TV 카메라에 의하여 촬상 입력된 안경 선택자의 얼굴의 화상에 안경 프레임의 화상을 선택적으로 합성하고, 그 합성 화상을 모니터 하면서 안경 프레임을 선택하는 것이 생각되고 있다. 이를 실시하기 위해서는, 여러 가지 안경 프레임 화상을 데이터 베이스로서 기록해두는 것이 필요하다. 특히, 대량의 프레임 화상을 기록하는 경우, 프레임 화상을 효과적으로 추출함으로서 개개의 프레임의 데이터량의 삭감을 도모하지 않으면 안된다.
제8도는 안경 프레임 화상 데이터를 추출, 기록 및 재생하기 위한 회로의 구성을 표시한 블럭도이며, 제9a도 및 제9b도는 그 처리동작을 표시한 플로우 챠아트이다. 제9a도에 있어서, 스텝(B1)에서는 RAM(21)에 프레임 화상 데이터(RGB 신호)를 격납한다. RAM(21)에 격납된 프레임 화상 데이터(RGB 신호)에서, 제3도에 표시한 바와 같이 사각형 영역의 중심 위치의 화상 데이터(rgb)가 배경 화상 데이터로서 추출되고, 이것을 RAM(22)에 격납한다(스텝 B2).
스텝(B3)에서는 추출한 사각형 영역의 프레임 화상 데이터(RGB 신호)와 배경 부분만의 화상 데이터(rgb 신호)를 순차 주사하여 판독하고, 연산(calculating)회로(23)에 있어서 각각의 신호 사이에서 다음식에 따라 계산된다.
Figure kpo00001
여기서, H를 안경 프레임의 식별관수치(識別關數置)로 한다. 이 식별관수치(H)는 이미지 메모리에서 판독된 화상 데이터가 프레임 부분의 것인 경우, (R,r), (G,g), (B,b) 중 적어도 1조의 H값이 타조와 크게 상이하므로, H는 어느 정도의 수치를 표시하게 된다. 반대로 이미지 메모리(3)에서 판독된 화상 데이터가 배경 부분의 것인 경우에는, (R,r), (G,g), (B,b)의 각 조 값은 각각 대체로 같으므로 0 또는 이에 가까운 값을 나타내게 된다.
이러한 식별관수치(H)는 영역치 변경회로(25)에 있어서 설정된 영역치를 이용함으로서, 수치화 처리회로(24)에서 2치화 처리되고(스텝 B4), 프레임 부분은 "1", 배경 부분은 "0"이 되고, 안경 프레임의 패턴 데이터는 메모리(26)에 격납된다. 합성회로(synthesizing circuit)(27)에서는, 이와 같이 하여 구해진 프레임의 패턴 데이터를 사용하여 프레임 화상 데이터를 추출하고(스텝 B5), 프레임의 패턴 데이터와 화상 데이터는 안경 프레임 데이터 베이스(9)에 기록된다(스텝 B6).
여기서, 패턴 데이터에 대하여 "1"로 표시되는 프레임 부분의 내부 영역을 렌즈 부분 "2"로서 표시한다.
구체적으로는, 제3도에 표시하는 바와 같이, 상기 사각형 영역의 중심 위치는 안경 프레임 부분의 내측에 위치하는 렌즈 부분으로 특정할 수 있으므로, 그 중심 위치에 있어서의 화상 데이터를 패턴 데이터 "2"로서 표시한다. 그 중심좌표에서 좌 혹은 우로 주사하기 시작하여, 주목점의 데이터가 "0"인 경우, 이것을 "2"로서 표시한다. 이 처리를, 프레임 부분을 표시한 패턴 데이터 "1"가 검출될 때까지 반복한다. 프레임이 검출된 시점에서 주목점을 중심 위치에 되돌리고 역방향에의 주사를 동일하게 실시한다. 따라서, 1주사라인에 있어서의 처리를 끝내고, 이하 순차 주사라인을 변경하여 같은 처리를 실행한다.
그런데, 안경 프레임의 종별에 따라서는 그 프레임에 가느다란 것이 있거나, 배경색과 유사한 것이 있다. 이러한 경우, 상술한 2치화 처리에 의하여 프레임의 일부가 패턴 데이터 "1"로 표시되는 프레임 부분으로서 검출되지 않는다. 즉, 패턴 데이터안의 프레임 부분을 표시하는 데이터 "1"의 이어짐이 끊기는 경우가 있다.
이와 같이 프레임 부분의 패턴 데이터에 끊김이 생기는 경우, 상술한 중심좌표에서 주변부에의 주사에 의한 표시를 하면, 데이터 "1"로 표시되는 프레임 부분이 검출되지 않으므로, 그 주사는 안경 프레임 화상을 떼어낸 사각형 영역안에 도달하여 본의 아닌 표시가 되게 된다.
그러므로, 이러한 표시 결과에 의거하여 프레임 부분의 끊김을 검출함과 동시에 그 끊긴 부분의 화소수를 검출하고 있다. 끊긴 부분의 화소수가 소정치보다 큰 경우, 영역치를 변경 설정한 상술한 식별관수치(H)에 대한 영역치 처리를 재차 실시한다. 이 영역치는 그 값을 순차로 저감함으로서 변경된다. 이와 같이 하여 패턴 데이터에 대한 프레임 부분의 처리를 실시한다.
안경 프레임의 화상 정보는 그 프레임 전체에 걸쳐 같다고는 할 수 없으며, 차라리 일반적으로는 불균일한 경우가 많다. 이러한 안경 프레임의 화상 정보를 소정의 영역치로 2치화 처리한 경우, 안경 프레임은 프레임 부분으로서 검출되는 경우(패턴 데이터 "1")와, 배경부분(패턴 데이터 "0")으로서 검출되는 경우가 있다. 즉, 제10a도에 표시하는 바와 같이 영역치 레벨을 "50"으로 설정하여 2치화 처리를 한 경우, 프레임을 형성하는 레벨 "60"의 화소에 대하여는 패턴 데이터 "1"로서 검출할 수가 있으나, 같은 프레임을 형성하는 레벨 "40", "20"의 화소에 대하여는 패턴 데이터 "0"로서 검출하고 있다. 이 결과 상술한 표시 처리에 의한 프레임 부분의 인식 처리를 한 경우, 프레임 부분에 끊김이 검출되어 동시에 그 끊김 부분의 화소수를 구하게 된다.
이러한 인식 결과에 의거하여, 상술한 영역치는 "50"에서 "30"으로 변경되고, 변경 설정된 영역치를 이용하여 식별관수치(H)에 대한 2치화 처리를 반복한다.
이 결과, 제10b도에 표시한 바와 같이 프레임을 형성하는 레벨 "60", "40"의 화소는 패턴 데이터 "1"로서 즉 프레임 부분에서 검출된다. 그러나 이와 같이 영역치를 변경하여도, 같은 프레임을 형성하는 레벨 "20"의 화소에 대하여는 패턴 데이터 "0"로서 검출되고 만다. 따라서 상술한 패턴 데이터의 인식 처리에 의하여 프레임의 끊긴 부분과 그 끊긴 화소수를 구하며, 그 인식 결과에 맞추어, 예를 들면 영역치를 "10"으로 변경하여 상술한 처리가 반복하여 행해진다. 이 영역치 "10"에 의한 2치화 처리에 의하여 예를 들면 제10c도에 표시한 바와 같이 프레임을 형성하는 레벨 "60", "40", "20"의 화소는 각 패턴 데이터 "1"로서 검출된다. 제11도는 이상과 같은 2치화 처리의 순서를 표시한 플로우 챠아트이다.
스텝(D1)에서는, 프레임 화상에 대하여 2치화 처리를 하고, 배경 부분의 경우에는 패턴 데이터 "0"로서, 프레임 부분의 경우에는 패턴 데이터 "1"로서, 렌즈 부분의 경우에는 패턴 데이터 "2"로서 각각 검출한다. 스텝(D2)에서는 프레임 부분의 끊김 또는 끊긴 부분의 화소수를 검출한다.
스텝(D3)에서는 끊긴 프레임 부분의 화소수와 미리 설정된 값의 비교를 한다. 스텝(D3)에 있어서, 끊긴 프레임 부분의 화소수가 미리 설정된 값보다 큰 경우에는 영역치를 변경(스텝 D4)하고, 스텝(D1)에서 스텝(D3)까지의 처리를 한다. 그렇지 않은 경우에는 처리를 끝낸다.
이러한 처리를 함으로서 끊김이 없이 프레임 부분을 검출함이 가능하다.
이때, 안경 프레임 데이터 베이스(9)에 기억되는 패턴 데이터는 프레임 부분을 표시하는 "1"의 값을 취할 때에 화상 데이터를 판독하고 있다. 이 결과, 패턴 데이터의 주사에 따라서, 프레임 부분의 화상 데이터만이 패턴 데이터 "1"에 대응하게 되고, 패턴 데이터와 같이 안경 프레임 데이터 베이스(9)에 기록되게 된다.
실제로는, 프레임 부분을 특정할 패턴 데이터는 제12a도에 표시한 바와 같이 기록되며, 패턴 데이터 "1"로 표시하는 프레임 부분의 화상 데이터만이 제12b도에 표시한 바와 같이 순차 기록된다. 이와 같이, 패턴 데이터를 사용함으로서 데이터량을 크게 저감시키면서 기록할 수가 있다.
이와 같이 하여 기록된 안경 프레임 데이터는 다음과 같이 재생되어, 원화상으로 복원된다. 즉, 안경 프레임 데이터 베이스(9)에서 판독된 데이터는 프로세서(7)에 입력되고, 패턴 데이터와 RGB 신호로 된 화상 데이터로 분리된다. 분리된 패턴 데이터는 "0"의 경우에는 고정적으로 주는 화상 데이터 "0"가 선택되고, 또 패턴 데이터가 "1"의 경우에는 분리된 RGB 신호로 된 화상 데이터가 순차 판독된다.
이 처리에 따라서, 패턴 데이터 "1"로 표시되는 프레임 부분의 화상과, 패턴 데이터 "0"로 표시되는 프레임 이외의 배경 부분의 화상으로 안경 프레임의 화상이 복원되고, 이 화상을 이미지 메모리(3)에 전송함으로서, 그 프레임 화상은 TV 모니터(5)에 표시된다.
상술한 바와 같이 안경 프레임의 일측 반의 데이터만이 기록되어 있는 경우에는, 재생 복원된 일측 반의 안경 프레임 화상의 반환처리를 하는 등에 의하여 반대측의 화상을 생성한다. 이들 2개의 화상을 합성함으로서 1매의 안경 프레임 화상을 형성하고, 이것을 이미지 메모리(3)에 격납하면 된다.
제9b도는 이와 같은 안경 프레임 화상 재생을 위한 처리 순서를 표시한 플로우 챠아트이다. 제9b도에 있어서, 안경 프레임 데이터 베이스(9)에 기록되어 있는 프레임 패턴 데이터와 프레임 화상 데이터는 선택회로(28)에서 분리되고(스텝 C1), 프레임 패턴 데이터는 메모리(26)에, 프레임 화상 데이터는 메모리(29)에 각각 격납된다. 스텝(C2)에서는, 메모리(26)에 격납되어 있는 패턴 데이터에 따라서 프레임 화상의 복원이 이루어진다. 즉, 선택회로(30)에 있어서, 패턴 데이터가 "0"의 경우에는 화상 데이터 "0"가 선택되고, 패턴 데이터가 "1"의 경우에는 메모리(29)에 격납되어 있는 프레임 화상 데이터를 순차 판독한다. 또 패턴 데이터가 "2"의 경우에는, 외부 예를 들면 마이크로컴퓨터(8)에서 입력된 색화상 데이터를 선택한다. 스텝(C3)에서는, 이들 화상 데이터가 RAM(21)에 격납된다.
이와 같이 하여 프레임 화상의 추출, 기록 및 재생이 행해진다.
다음에 본 시스템을 이용하여 실행하는 안경 프레임 화상 데이터의 등록 작업의 개요에 대하여 설명한다.
본 시스템에는, 제13a도에 표시한 바와 같이 작업메뉴가 준비되어 있으며, 메뉴의 선택에 따라서 그 처리기능이 지정된다.
실용메뉴에서는, 제13b도에 표시한 바와 같이 1. FDD 초기화(INITIALIZE FDD), 2. 등록번호 표시(DISPLAY REGISTER NUMBER), 3. 프레임 표시(DISPLAY FRAME)가 있으며, 1. FDD 초기화 모드에 의하여 안경 프레임 데이터를 기록하기 위한 FDD(Floppy Disk Drive)의 초기화가 이루어진다. 2. 등록번호 표시 모드는 FDD에 기록된 안경 프레임에 붙여진 프레임 번호의 리스트를 제13도와 같이 표시한 것이다.
이 프레임 번호 리스트의 표시에 의해서, 이미 등록된 프레임 번호를 확인하며, 등록 가능한 프레임 번호를 발견함이 가능하게 된다. 또, 등록된 프레임 번호는 예를 들면 그 번호순으로 분류되어서 표시된다.
3. 프레임 표시 모드는 프레임 번호를 지정함으로서, 그 프레임 화상이 붙여진 안경 프레임의 화상을 예를 들면 제13d도에 표시한 바와 같이 표시하기 위한 것이며, 프레임의 확인을 행한다.
이상이 본 시스템에 준비된 기본적인 실용 기능이다. 그런데, 상술한 안경 프레임 데이터의 기록은 프레임 작업메뉴로 개시된다. 이 프레임 작업메뉴의 설정시에는, 예를 들면, 제2도와 같이 수평선을 표시하는 커서(10b)를 TV 모니터(5)위에 표시하고, 수평성을 확보한다. 수평성을 확보한 다음, 화상처리 영역을 특정한 사각형 커서(10a)를 TV 모니터위에 표시한다. 또, 안경 프레임의 일측 부분만을 추출하기 위한 위치맞춤에 대하여는, 화상처리에 의하여 하여도 되나, 본 실시예에서는 TV 모니터 위의 화상에 대하여 눈으로 조절함으로서 이루어진다.
이와 같이 하여, 사각형 영역내에 안경 프레임의 일측 부분의 상이 얻어진 시점에서 프로세서(7)를 기동하는 안경 프레임의 데이터를 구하고, 그 프레임에 대한 등록번호를 설정, 기록한다. 프레임 번호 변경 메뉴는 이미 설정 입력된 안경 프레임의 프레임 번호를 변경하기 위한 것이다. 이 메뉴는, 예를 들면 제13e도와 같이 표시되며, 변경되는 안경 프레임의 프레임 번호와 새로이 설정되는 프레임 번호 등을 입력하고, 도시없는 프레임 번호에 대응한 프레임 화상을 표시하여 확인을 얻은 다음, 그 프레임 번호의 변경을 행한다.
프레임 삭제 메뉴는 등록되어 있는 안경 프레임의 데이터를 삭제하기 위한 것이다. 이 메뉴에는, 예를 들면 제13f도와 같이 삭제 대상이 되는 안경 프레임 번호를 입력하고, 그 번호로 특정되는 프레임 화상을 표시하여 확인을 받은 다음, 그 삭제를 행한다.
프레임 편집 메뉴에는, 제13g도에 표시한 바와 같이, 1. 백업(BACK UP), 2. 전송(COPY), 3. 연속전송(CONTINUOUS COPY), 4. 변경된 프레임 번호로 전송(COPY WITH FRAME NUMBER CHANGED)이 있다.
1. 백업은, FDD에 기억된 프레임 데이터를 전부 별도의 FDD에 전송하는 것이다.
2. 전송은 FDD에 기록된 안경 프레임의 데이터의 하나를 프레임 번호에 의하여 특정하고, 그 프레임 번호로 특정된 프레임 데이터를 별도의 FDD에 전송하는 것이다.
3. 연속전송은 FDD에 기록된 안경 프레임의 복수 데이터를 순차 특정하고, 이들 안경 프레임의 데이터를 별도의 FDD에 순차 전송하는 것이다.
4. 변경된 프레임 번호로 전송은 별도의 FDD에 전송기록하는 안경 프레임의 프레임 번호를 변경하여 전송처리를 하는 것이다.
이러한 프레임 편집 기능에 의하여 등록된 안경 프레임의 데이터의 정리를 한다.
제14도는 이러한 처리를 선택 조작하기 위한 키 패드의 구성예를 나타낸 것이다.(합성화상의 경계 처리)
TV 카메라에 의하여 촬상 입력된 안경 선택자의 얼굴의 화상에 안경 프레임 화상을 선택적으로 합성하는 경우, 예를 들면 촬상시에 있어서의 조명 조건 등의 차이에 기인하여, 화상 사이의 색이나, 휘도의 차가 크면, 합성된 화상의 경계 부분에 흔적이 발생한다는 문제가 있다. 이 원인의 하나는 화상 데이터를 NTSC 신호로서 취급하는데 의한다. 즉 NTSC 신호의 특성으로, R-Y, B-Y 신호의 주파수는 휘도신호(Y)의 1/4로 되어 있으므로, 이미지 메모리(3)에는 통상 4화소에 대하여 1개의 색, 즉 4화소에 있어서의 색 성분을 평균화한 화상 데이터가 격납되게 된다. 이 화상 데이터를 표시한 경우, 예를 들면 제15도에 표시한 바와 같이 주사 방향을 따라 연속한 4화소를 단위로 하여 색 데이터를 주게 된다. 또, 휘도성분(Y)에 대하여는 1화소마다 주게 된다.
즉, 제15도에 표시한 바와 같이 4화소를 단위로 하는 영역(33A)에서는 4화소중의 3화소가 배경부분 "0"이므로, 이 영역(33A)에서는 배경 부분의 색 데이터를 주게 된다. 또 영역(33B)에서는, 4화소 전부가 프레임 부분 "1"을 표시하므로, 프레임 부분의 색 데이터를 주게 된다. 영역(33C)에 있어서는, 영역(33A)과는 반대로 4화소중 3화소가 프레임 부분이므로, 프레임 부분의 데이터를 주게 된다. 이러한 화상 데이터를 표시하면, 그 경계 부분이 도면 중 굵은 선으로 표시한 것과 같이 보이게 된다. 그러므로, 합성화상의 경계 부분은 4화소를 단위로 한 흔적을 발생하면서 형성되게 되므로, 이 흔적이 없게 하는 처리가 필요하다.
제16도는 안경 프레임 데이터 베이스(9)에서 선택적으로 판독되는 프레임 화상과 사람의 얼굴의 입력 화상과를 합성하는 회로의 구성을 표시한 도면이고, 제17도는 합성된 화상의 평균화 처리 동작을 표시한 플로우 챠아트이다. 합성회로(31)에서는, 안경 프레임 데이터 베이스(9)에서 선택적으로 판독되는 프레임 화상과 이미지 메모리(3)에서의 사람의 얼굴의 입력 화상이 합성된다.
스텝(E1)에서는, 안경 프레임의 패턴 데이터가 평균화(averaging)회로(32)에 입력되어 4화소를 단위로 하는 영역에 패턴 데이터 "0"와 "1"이 혼재하고 있는지, 아닌지를 검출한다(스텝 E2).
스텝(E2)에 있어서, 4화소를 단위로 하는 영역에 패턴 데이터 "0"와 "1"의 혼재하고 있는 경우에는, 4화소 내에서 평균화가 이루어진다(스텝 E3). 즉, 상술한 바와 같이 패턴 데이터가 "0"인 경우에는, 이미지 메모리(3)에 격납된 사람의 얼굴의 화상 데이터를 배경 화상 데이터(X)로서 판독하고, 패턴 데이터가 "1"의 경우에는, 프레임 부분의 화상 데이터(Y)가 안경 프레임 데이터 베이스(9)에서 판독된다. 여기서는, 종래와 같이 어느 일방의 색의 데이터를 사용하는 것이 아니고, 다음식에 의하여 구해지는 색의 데이터(Z)를 합성후의 화상에 적용한다.
Figure kpo00002
단, 4화소를 단위로 하는 영역에 있어서의 패턴 데이터 "0"의 화소수를 n으로 한다.
스텝(E2)에 있어서, 패턴 데이터가 4화소 모두 "0"인 경우에는 배경 화상 데이터가, 패턴 데이터가 4화소 모두 "1"의 경우에는 프레임 화상 데이터가 각각 이미지 메모리(3)에 격납된다.
이상의 처리를 함으로서, 합성된 화상의 경계 부분의 흔적을 제거할 수가 있다.(합성화상의 색 혼합처리)
종래, 안경 프레임중에서 소망한 프레임을 실제로 시험적으로 착용한 상태를 거울로 봄으로서 안경 프레임의 선택이 이루어져 왔으나, 렌즈 부분은 프레임에 장착되어 있지 않으므로, 안경을 필요로 하는 사람에 있어서는, 자기의 얼굴에 적합한지, 아닌지를 확인하기가 곤란했다. 또 부착된 렌즈를 선택하는 경우에도, 여러 가지 렌즈에 대하여 그때그때 커팅을 하는 것은 경제적으로 곤란하므로 자기의 얼굴에 적합한 안경 프레임을 간단하게 선택하는 것이 필요하였다.
예를 들면 제18a도에 표시되어 있는 바와 같이 프레임의 좌우 대칭성을 고려하여 그 일측 부분만을 추출한 화상 데이터에 있어서, 안경 프레임 데이터 베이스(9)에는 제18b도에 표시되어 있는 바와 같이, 프레임 부분을 "1", 렌즈 부분을 "2", 배경 부분을 "0"로 하여 표시한 패턴 데이터와, 프레임 부분의 화상 데이터가 각각 기록되어 있다.
이러한 안경 프레임 데이터는 마이크로컴퓨터(8)에서의 프레임 번호의 지정에 의하여 안경 프레임 데이터 베이스(9)에서 선택적으로 판독되어 좌우의 대칭성에서 나머지 반의 프레임 화상을 재생함으로서, 완전한 안경 프레임 화상을 얻게 된다.
제19도는 안경 프레임 화상과 사람의 얼굴의 화상의 합성, 및 색의 혼합을 하는 처리 회로의 구성을 나타내는 블럭도이며, 제20도는 그 처리 동작을 나타내는 플로우 챠아트이다.
스텝(F1)에서는 안경 프레임 데이터 베이스(9)에서 패턴 데이터(PDATA)를 판독하며, 이 PDATA가 "0"인지, 아닌지를 판정한다(스텝 F2).
스텝(F2)에 있어서, PDATA가 "0"일 때에는 이미지 메모리(3)에서 주는 사람의 얼굴의 입력 화상 데이터를 선택(스텝 F3)하며, 선택회로(33)에 입력한다.
스텝(F2)에 있어서, PDATA가 "0"이 아닌 때에는, PDATA가 "1"인지, 아닌지를 판정한다(스텝 F4). PDATA가 "1"일 때에는 안경 프레임 데이터 베이스(9)에서 판독되는 프레임 화상 데이터를 선택하고(스텝 F5), 선택회로(33)에 입력한다.
스텝(F4)에 있어서, PDATA가 "1"이 아닐 때 마이크로컴퓨터(8)에 의하여 설정된 렌즈의 색 데이터와 사람의 얼굴의 입력 화상 데이터를 선택하며, 선택회로(33)에 입력한다. 또 이 경우에만 평균화회로(34)에 있어서, 마이크로컴퓨터(8)에 의하여 설정된 색 농도에 맞추어 렌즈색의 데이터와 사람의 얼굴의 입력 화상 데이터의 혼합처리를 한다(스텝 F6).
또 이 혼합처리는 예를 들면 착색렌즈의 투과율이 35%로 지정된 경우, 얼굴의 화상 데이터를 65%, 지정된 색의 데이터를 35%로 하여 이들을 혼합처리하는 것이다. 이 처리에 의하여 렌즈 부분에 있어서의 얼굴의 화상 데이터에, 그 투과율에 맞춘 휘도로 색이 붙여진다. 이와 같이 하여 얼굴, 프레임 및 렌즈의 화상 데이터로 된 합성화상이 얻어지고, TV 모니터에 표시된다.
예를 들면, 제21a도에 표시한 바와 같이 TV 카메라(1)에 의하여 촬상 입력된 사람의 얼굴의 화상에 대하여, 프레임 합성위치를 커서(35a)에 의하여 결정하고, 렌즈의 색을 지정함으로서, 제21b도에 표시한 바와 같이 선택된 프레임 화상과 착색된 렌즈가 사람의 얼굴의 화상에 합성되어 표시된다. 따라서 이 합성 화상에 의하여 선택된 안경 프레임 및 지정한 렌즈색이 자기의 얼굴에 적합한지, 아닌지를 용이하게 판단할 수가 있다.
본 시스템에 있어서, 지정된 색에 의한 렌즈 부분의 착색이나, 그 농도(투과율), 착색영역을 자유로히 설정할 수 있도록 되어 있다. 즉, 렌즈 부분에 대하여 어떤 종류의 색을 지정하고, 각각의 색에 소정의 투과율을 부여한다. 또, 무색 투명한 렌즈를 지정하는 경우에는, 색 테이터로서 "0"을 부여하도록 하면 된다.
렌즈 부분의 착색영역의 설정은 예를 들면 렌즈 부분의 상반부가 착색되고 하반부는 점차 무색투명화되는 식으로 이루어진다. 예를 들면, 지정된 경계에서 아래의 렌즈 부분의 패턴 데이터를 "2"에서 "3"으로 변경함으로서 이 패턴 데이터가 "3"으로 표시되는 렌즈 부분에 있어서의 얼굴의 화상 데이터와 색 데이터의 혼합처리가 제22도에 표시된 대로 이루어진다.
또, 본 시스템에서는 수 프레임의 화상을 이미지 메모리(3)에 기억시켜, 이들의 화상을 서로 비교할 수 있도록 되어 있다. 구체적으로는, 제23a도와 제23b도에 표시된 바와 같이 복수의 안경 프레임을 선택한 경우, 이들의 프레임 화상을 합성한 얼굴의 화상을 서로 비교할 수가 있다. 혹은, 제24a도와 제24b도에 표시한 바와 같이 1개의 프레임이 선택된 경우에는, 실제로 그 프레임을 안경 선택자가 착용해보고, 그때의 얼굴의 화상을 예를 들면, 정면, 좌측 및 우측에서 각각 촬상하여 이들 화상을 표시함으로서, 그 선택의 확인을 할 수가 있다.
또 본 발명은 상기 실시예에 한정되는 것은 아니고, 본 발명의 요지 범위내에서 여러 가지로 변형 실시하는 것이 가능하다.

Claims (24)

  1. 텔레비젼 카메라(1)를 이용하여 안경 프레임을 촬상하고; 촬상함으로써 얻어진 안경 프레임의 화상 데이터를 이미지 메모리(3)에 기록하고; 이미지 메모리에 기록된 안경 프레임의 화상 데이터를 텔레비젼 모니터(5)에 표시하고; 텔레비젼 모니터에 표시된 안경 프레임 화상위에 커서를 표시함으로서 화상 추출 영역의 설정을 하고; 커서에 의하여 설정한 화상 추출 영역에서 프레임만의 화상을 추출하고; 추출한 프레임만의 화상에 대하여 미리 설정한 영역치를 이용하여 2치화 처리를 함으로써 프레임의 패턴 데이터를 취득하고; 취득한 프레임의 패턴 데이터를 이용하여 프레임의 화상 데이터를 취득함으로써, 안경 프레임의 패턴 데이터와 화상 데이터를 기록하는 안경 프레임 화상처리 기록방법.
  2. 제1항에 있어서, 텔레비젼 카메라(1)에 의하여 촬상된 안경 프레임 화상의 프레임 주위에 존재하는 엔헌스먼트 영역의 신호는 배경 레벨을 기준으로 한 경우에 프레임에 대하여 역극성을 표시한 부분을 검출하는 것에 의해 제거되는 것을 특징으로 하는 안경 프레임 화상처리 기록방법.
  3. 제1항에 있어서, 배경 화상 데이터는 안경 프레임 화상에 있어서 설정되는 사각형 영역의 중앙부의 데이터를 추출하는 것에 의해 얻어지는 안경 프레임 화상처리 기록방법.
  4. 제1항에 있어서, 안경 프레임의 패턴 데이터는 소정의 영역치를 이용하여 2치화 처리하는 것에 의해 얻어지는 안경 프레임 화상처리 기록방법.
  5. 제1항에 있어서, 2치화 처리에 이용되는 영역치는 안경 프레임의 패턴 데이터의 취득중에 있어서 프레임의 끊김을 검출하는 것에 의해 변경되는 안경 프레임 화상처리 기록방법.
  6. 제1항에 있어서, 프레임 화상 신호를 R, G, B, 배경 화상 데이터를 r, g, b로 하면, 2치화 처리에 있어서 프레임 부분의 지표로 되는 프레임 식별관수치(H)는 H=|R-r|+|G-g|+|B-b|의 식에 의하여 얻어지는 안경 프레임 화상처리 기록방법.
  7. 제1항에 있어서, 프레임만의 화상 데이터는 프레임의 패턴 데이터를 이용하는 것에 의해 기록 및 재생되는 안경 프레임 화상처리 기록방법.
  8. 제1항에 있어서, 배경 부분에 대응한 패턴 데이터의 화소수를 n, 배경 부분의 화상 데이터를 x, 프레임 부분의 화상 데이터를 Y라 하면, 4화소를 단위로 하는 영역의 색의 데이터(Z)는 Z=(n/4)X+(1-n/4)Y의 식에 의하여 얻어지는 안경 프레임 화상처리 기록방법.
  9. 제1항에 있어서, 안경 프레임의 선택은 기록된 프레임의 화상 데이터와 텔레비젼 카메라로 촬상한 사람의 얼굴의 화상 데이터를 합성하는 것에 의해 이루어지는 안경 프레임 화상처리 기록방법.
  10. 제9항에 있어서, 합성되는 화상의 경계 부분에서 발생하는 흔적은 4화소를 단위로 하는 영역의 색의 데이터를 이용하는 것에 의해 제거되는 안경 프레임 화상처리 기록방법.
  11. 제9항에 있어서, 화상의 합성시에 있어서의 프레임의 렌즈 부분의 색은 마이크로컴퓨터(8)에 의하여 설정되는 안경 프레임 화상처리 기록방법.
  12. 제9항에 있어서, 합성 화상에 있어서의 착색 렌즈의 색 데이터와 얼굴의 화상 데이터의 혼합의 비율은 렌즈의 투과율을 설정하는 마이크로컴퓨터(8)에 의하여 결정되는 안경 프레임 화상처리 기록방법.
  13. 안경 프레임을 촬상하는 수단(1)과; 촬상에 의해 얻어진 안경 프레임의 화상 데이터를 이미지 메모리(3)에 기록하는 수단(2)과; 이미지 메모리에 기록된 안경 프레임의 화상 데이터를 텔레비젼 모니터(5)에 표시하는 수단(4)과; 텔레비젼 모니터에 표시된 안경 프레임 화상위에 커서(10a)를 표시함으로서 화상 추출 영역을 설정하는 수단(6)과; 커서에 의하여 설정된 화상 추출 영역에서 프레임만의 화상을 추출하는 수단(12)과; 추출한 프레임만의 화상에 대하여 미리 설정한 영역치를 이용하여 2치화 처리를 함으로서 프레임 패턴 데이터를 취득하는 수단(24,25)과; 취득한 프레임의 패턴 데이터를 이용하여 프레임의 화상 데이터를 취득함으로서, 안경 프레임의 패턴 데이터와 화상 데이터를 기록하는 수단(9)를 갖는 안경 프레임 화상처리 기록 시스템.
  14. 제13항에 있어서, 텔레비젼 카메라(1)에 의하여 촬상된 안경 프레임 화상의 프레임 주위에 존재하는 엔헌스먼트 영역의 신호는 배경 레벨을 기준으로 한 경우에 프레임에 대하여 역극성을 표시한 부분을 검출하는 수단(14)에 의하여 제거되는 안경 프레임 화상처리 기록 시스템.
  15. 제13항에 있어서, 배경 화상 데이터는 안경 프레임 화상에 있어서 설정되는 사각형 영역의 중앙부의 데이터를 추출하는 수단(11)에 의하여 얻어지는 안경 프레임 화상처리 기록 시스템.
  16. 제13항에 있어서, 안경 프레임의 패턴 데이터는 소정의 영역치를 이용하여 2치화 처리하는 수단(24)에 의하여 얻어지는 안경 프레임 화상처리 기록 시스템.
  17. 제13항에 있어서, 2치화 처리에 이용되는 영역치는 안경 프레임의 패턴 데이터의 취득중에 있어서 프레임의 끊김을 검출하는 수단(25)에 의하여 변경되는 안경 프레임 화상처리 기록 시스템.
  18. 제13항에 있어서, 프레임 화상신호를 R, G, B, 배경 화상 데이터를 r, g, b로 하면, 2치화 처리에 있어서 프레임 부분의 지표가 되는 프레임 식별관수치(H)가 H=|R-r|+|G-g|+|B-b|의 식에 의하여 얻어지는 안경 프레임 화상처리 기록 시스템.
  19. 제13항에 있어서, 프레임만의 화상 데이터는 프레임의 패턴 데이터를 이용하는 수단(27)에 의하여 기록 또는 재생되는 안경 프레임 화상처리 기록 시스템.
  20. 제13항에 있어서, 배경 부분에 대응한 패턴 데이터의 화소수를 n, 배경 부분의 화상 데이터를 x, 프레임 부분의 화상 데이터를 Y라 하면, 4화상을 단위로 하는 영역의 색의 데이터(Z)는 Z=(n/4)X+(1-n/4)Y의 식에 의하여 얻어지는 안경 프레임 화상처리 기록 시스템.
  21. 제13항에 있어서, 안경 프레임의 선택은 기록된 프레임의 화상 데이터와 텔레비젼 카메라로 촬상한 사람의 얼굴의 화상 데이터를 합성하는 수단(31)에 의하여 이루어지는 안경 프레임 화상처리 기록 시스템.
  22. 제21항에 있어서, 합성된 화상의 경계 부분에서 발생한 흔적은 4화소를 단위로 하는 영역의 색의 데이터를 이용하는 수단(32)에 의하여 제거되는 안경 프레임 화상처리 기록 시스템.
  23. 제21항에 있어서, 화상의 합성시에 있어서의 프레임의 렌즈 부분의 색은 마이크로컴퓨터(8)에 의하여 설정되는 안경 프레임 화상처리 기록 시스템.
  24. 제21항에 있어서, 합성 화상에 있어서의 착색 렌즈의 색 데이터와 얼굴의 화상 데이터의 혼합 비율은 렌즈의 투과율을 설정하는 마이크로컴퓨터(8)에 의하여 결정되는 안경 프레임 화상처리 기록 시스템.
KR1019870011919A 1986-10-30 1987-10-26 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템 KR910000591B1 (ko)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
JP61-257023 1986-10-30
JP25702786A JPS63113677A (ja) 1986-10-30 1986-10-30 眼鏡フレ−ム画像処理装置
JP61-257027 1986-10-30
JP257027 1986-10-30
JP61257024A JP2523538B2 (ja) 1986-10-30 1986-10-30 眼鏡フレ−ム記録装置
JP61-257025 1986-10-30
JP257026 1986-10-30
JP61-257026 1986-10-30
JP257025 1986-10-30
JP25702686A JPS63113685A (ja) 1986-10-30 1986-10-30 画像合成装置
JP61-257024 1986-10-30
JP257024 1986-10-30
JP25702386A JPS63113676A (ja) 1986-10-30 1986-10-30 画像信号処理方式
JP257023 1986-10-30
JP61257025A JPS63113671A (ja) 1986-10-30 1986-10-30 眼鏡画像合成装置

Publications (2)

Publication Number Publication Date
KR880005529A KR880005529A (ko) 1988-06-29
KR910000591B1 true KR910000591B1 (ko) 1991-01-26

Family

ID=27530311

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019870011919A KR910000591B1 (ko) 1986-10-30 1987-10-26 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템

Country Status (4)

Country Link
US (1) US4852184A (ko)
KR (1) KR910000591B1 (ko)
DE (1) DE3736932A1 (ko)
FR (1) FR2606244B1 (ko)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3817850A1 (de) * 1988-05-26 1989-12-07 Loh Kg Optikmaschf Verfahren fuer die gewichtsminimierung von brillenglaesern
JP2771858B2 (ja) * 1989-08-23 1998-07-02 富士通株式会社 多画面合成装置
ES2017216A6 (es) * 1989-11-08 1991-01-01 Barrio Miguel Angel Garcia Sistema de fotografias digitales combinadas.
AU656781B2 (en) * 1991-05-30 1995-02-16 Richard John Baker Personalized instructional aid
KR0130552B1 (ko) * 1991-05-30 1998-04-10 리챠드 존 베이커 개인용 교습보조장치
DE4206355C2 (de) * 1992-02-29 1998-03-19 Walter Bergner Verfahren und Vorrichtung zum Festlegen individueller Brillenfassungen
ES2048658B1 (es) * 1992-07-09 1997-02-16 Barrio Miguel Angel Garcia Sistema de obtencion-distribucion de fotografias digitales combinadas en recintos con gran afluencia humana.
DE4224922A1 (de) * 1992-07-28 1994-02-03 Carlo Kuester Vorrichtung und Verfahren zur Verarbeitung personenspezifischer Parameter
JPH06187410A (ja) * 1992-12-21 1994-07-08 Casio Comput Co Ltd 似顔絵作成装置
US5717454A (en) * 1993-07-14 1998-02-10 Lifetouch Portrait Studios, Inc. Method and apparatus for creating posing masks on video screen
JP2751144B2 (ja) * 1993-10-21 1998-05-18 株式会社三城 眼鏡レンズ色の選択方法
ES2077524B1 (es) * 1993-12-02 1997-11-01 Garcia Garcia Manuel Sistema personalizado de video-juegos.
DE4418143A1 (de) * 1994-05-25 1995-11-30 Siemens Ag Verfahren und System zum Auswechseln oder Einblenden von Bildinhalten in Fernsehbilder
FR2740880B1 (fr) * 1995-11-03 1997-12-12 Jerome Jacky Appareil d'aide a la vente technique pour opticiens
FR2742238B1 (fr) * 1995-12-07 1998-02-13 Essilor Int Appareil pour le centrage d'un verre de lunettes et la pose d'un bloc de prehension sur celui-ci
BR9600543A (pt) * 1996-02-06 1997-12-30 Samir Jacob Bechara Sistema computadorizado para escolha e adaptação de óculos
FR2755271B1 (fr) * 1996-10-25 1998-12-18 Monot Benoist Procede et systeme optique et electronique de traitement d'images
US5983201A (en) * 1997-03-28 1999-11-09 Fay; Pierre N. System and method enabling shopping from home for fitted eyeglass frames
JP3537831B2 (ja) 1997-05-16 2004-06-14 Hoya株式会社 眼鏡のオーダーメイドシステム
US6937659B1 (en) * 1997-11-14 2005-08-30 Ac Capital Management, Inc. Apparatus and method for compressing video information
WO1999040526A1 (fr) * 1998-02-03 1999-08-12 Tsuyoshi Saigo Systeme de simulation de port de lunettes
US6095650A (en) 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
US6583792B1 (en) * 1999-11-09 2003-06-24 Newag Digital, Llc System and method for accurately displaying superimposed images
EP1248144B1 (en) * 1999-12-17 2008-02-20 Tsuyoshi Saigo Glossy object photographing method, glasses-frame photographing method and electronic catalog preparing method for glasses-frame
EP1136869A1 (en) * 2000-03-17 2001-09-26 Kabushiki Kaisha TOPCON Eyeglass frame selecting system
EP1299787A4 (en) * 2000-05-18 2005-02-02 Visionix Ltd BRASS ADJUSTMENT SYSTEM AND USEFUL ADAPTATION PROCEDURES
US6535223B1 (en) 2000-05-31 2003-03-18 Schmidt Laboratories, Inc. Method and system for determining pupiltary distant and element height
IL137635A0 (en) * 2000-08-01 2001-10-31 Visionix Ltd Apparatus for interactive optometry
US6792401B1 (en) 2000-10-31 2004-09-14 Diamond Visionics Company Internet-based modeling kiosk and method for fitting and selling prescription eyeglasses
US7016824B2 (en) * 2001-02-06 2006-03-21 Geometrix, Inc. Interactive try-on platform for eyeglasses
US6801216B2 (en) * 2001-02-23 2004-10-05 Michael Voticky Makeover system
US20040006493A1 (en) * 2002-02-13 2004-01-08 Flaherty Edward L. Eyewear education method and system
US7227976B1 (en) 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US7391900B2 (en) * 2002-10-31 2008-06-24 Korea Institute Of Science And Technology Image processing method for removing glasses from color facial images
WO2005029158A2 (en) * 2003-09-12 2005-03-31 Neal Michael R Method of interactive system for previewing and selecting eyewear
FR2885231A1 (fr) * 2005-04-29 2006-11-03 Lorraine Sole Soc D Optique Sa Procedes et dispositifs permettant de faciliter le choix d'une monture de lunettes
US9164299B2 (en) * 2006-10-26 2015-10-20 Carl Zeiss Vision Australia Holdings Limited Ophthalmic lens dispensing method and system
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US8708494B1 (en) * 2012-01-30 2014-04-29 Ditto Technologies, Inc. Displaying glasses with recorded images
US8733936B1 (en) 2012-01-30 2014-05-27 Ditto Technologies, Inc. Fitting glasses frames to a user
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9378584B2 (en) 2012-05-23 2016-06-28 Glasses.Com Inc. Systems and methods for rendering virtual try-on products
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
KR101821284B1 (ko) 2013-08-22 2018-01-23 비스포크, 인코포레이티드 커스텀 제품을 생성하기 위한 방법 및 시스템
EP3270099B2 (en) 2015-03-10 2022-06-22 Hoya Lens Thailand Ltd. Measurement device for eyeglasses-wearing parameter, measurement program for eyeglasses-wearing parameter, and position designation method
EP3355214A1 (de) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells
EP3355104B2 (de) * 2017-01-27 2022-06-01 Carl Zeiss Vision International GmbH Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
US10386657B2 (en) 2017-05-06 2019-08-20 Optikam Tech, Inc. System and method for obtaining lens fabrication measurements that accurately account for natural head position
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2920070C2 (de) * 1979-05-18 1983-11-17 Dr.-Ing. Rudolf Hell Gmbh, 2300 Kiel Verfahren und Einrichtung zum Ermitteln von Konturen innerhalb eines Bildes
US4539585A (en) * 1981-07-10 1985-09-03 Spackova Daniela S Previewer
GB2157122B (en) * 1982-01-15 1986-09-24 Quantel Ltd Image composition system
JPS6180222A (ja) * 1984-09-28 1986-04-23 Asahi Glass Co Ltd メガネ合せ方法及びメガネ合せ装置
DE3509858A1 (de) * 1985-03-19 1986-09-25 Mascon Unternehmensberatungs- und Beteiligungsgesellschaft mbH, 6100 Darmstadt Verfahren und vorrichtung zur optischen praesentation von brillenfassungen
US4845641A (en) * 1986-09-19 1989-07-04 Hoya Corporation Method of forming a synthetic image in simulation system for attachment of spectacles
JPH06180222A (ja) * 1992-12-14 1994-06-28 Olympus Optical Co Ltd 原子間力顕微鏡
US9242251B2 (en) * 2013-01-30 2016-01-26 Wheelabrator Group, Inc. Magnetic separator with dynamic baffle system

Also Published As

Publication number Publication date
FR2606244B1 (fr) 1996-06-07
US4852184A (en) 1989-07-25
FR2606244A1 (fr) 1988-05-06
DE3736932A1 (de) 1988-05-11
KR880005529A (ko) 1988-06-29

Similar Documents

Publication Publication Date Title
KR910000591B1 (ko) 안경 프레임 화상처리 기록방법 및 이를 실시하기 위한 시스템
US5764306A (en) Real-time method of digitally altering a video data stream to remove portions of the original image and substitute elements to create a new image
KR20000068697A (ko) 화상 데이터 처리 장치와 방법, 및 전송 매체
US5438651A (en) Color adjustment for smoothing a boundary between color images
KR20070103327A (ko) 화상 재생 장치 및 그 제어방법
US6525741B1 (en) Chroma key of antialiased images
EP0937361B1 (en) Backing luminance non-uniformity compensation in real-time compositing systems
US6714257B2 (en) Color key preservation during sample rate conversion
JPH09261580A (ja) 画像処理方法
JPH04235589A (ja) 動画像の内容表示方法
US6327003B1 (en) Method for correcting flicker and flutter effects of an on-screen display on a video image
JPH09327037A (ja) 輪郭抽出方法及び画像抽出方法及び装置
JP2688811B2 (ja) 白黒画像に着色する方法
JP3321184B2 (ja) ビデオフォトプリント装置
JP2523538B2 (ja) 眼鏡フレ−ム記録装置
US6456294B1 (en) Method and circuit for improving the chromatics of on-screen displays on a video image
JPS62204379A (ja) 画像処理方法
JPH07274067A (ja) 人物画像背景合成装置
US5929942A (en) Computer system and computer implemented process for editing video fields
JP2001014474A (ja) 人物抽出法
JPH05204348A (ja) カラー画像色変更処理方式とカラー画像合成処理方式
JPH02183873A (ja) 画像編集装置
JPH0659105B2 (ja) ビデオ製版装置における色修正方法
JPS63131793A (ja) 画像合成装置
JPH0830780A (ja) アニメーション線画処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 19931215

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee