KR100276681B1 - 비디오 카메라 시스템 - Google Patents

비디오 카메라 시스템 Download PDF

Info

Publication number
KR100276681B1
KR100276681B1 KR1019930023646A KR930023646A KR100276681B1 KR 100276681 B1 KR100276681 B1 KR 100276681B1 KR 1019930023646 A KR1019930023646 A KR 1019930023646A KR 930023646 A KR930023646 A KR 930023646A KR 100276681 B1 KR100276681 B1 KR 100276681B1
Authority
KR
South Korea
Prior art keywords
color
detection
measurement frame
area
frequency characteristic
Prior art date
Application number
KR1019930023646A
Other languages
English (en)
Other versions
KR940012384A (ko
Inventor
다다후사 도미따가
다까유끼 사사끼
Original Assignee
이데이 노부유끼
소니 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP32265292A external-priority patent/JP3487436B2/ja
Priority claimed from JP32265592A external-priority patent/JP3399995B2/ja
Application filed by 이데이 노부유끼, 소니 가부시키가이샤 filed Critical 이데이 노부유끼
Publication of KR940012384A publication Critical patent/KR940012384A/ko
Application granted granted Critical
Publication of KR100276681B1 publication Critical patent/KR100276681B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Abstract

본 발명은 비디오 신호의 입력 영상 표시 기본 모델의 영상 데이타를 형성하기 위한 입력 영상 형성 단계; 입력 영상의 상기 영상 데이타로부터 타겟 영역을 추출하기 위한 타겟 영역 추출 단계; 상기 추출된 타겟 영역의 크기를 계산하기 위한 검출 타겟 크기 계산 단계; 기준 검출 타겟 크기 계산 단계에서 얻어진 검출 타겟의 크기와 상기 기준 타겟 크기 계산 단계에서 얻어진 기준 타겟의 크기 간의 편차를 얻기 위한 편차 검출 단계; 및 상기 편차를 0으로 만들기 위하여 상기 편차 검출 단계의 편차 출력에 대응하는 상기 입력 영상 형성 단계에서 형성된 입력 영상의 크기를 줌하기 위한 입력 영상 줌 단계를 포함하는 비디오 신호 트랙킹 방법에 관한 것이다.

Description

비디오 카메라 시스템
제1도는 본 발명에 따른 비디오 카메라 시스템의 제1 실시예를 도시하는 블록도.
제2도는 시각 자극을 표현하는 HLS 컬러 좌표를 설명하는 개요도.
제3도는 표준 측정 프레임 FMXR을 설명하는 개요도.
제4도는 표준 측정 프레임 FMXR로부터 얻어진 표준 색상 빈도 특성을 도시하는 특성 곡선도.
제5도는 표준 측정 프레임 FMXR로부터 얻어진 표준 밝기 빈도 특성을 도시하는 특성 곡선도.
제6도는 제1 실시예에 따른 자동 트랙킹 처리 절차를 도시하는 플로우차트.
제7도는 검출 측정 프레임을 도시하는 개요도.
제8도는 검출 색상 빈도 특성을 도시하는 특성 곡선도.
제9도는 검출 밝기 빈도 특성을 도시하는 특성 곡선도.
제10도는 본 발명에 따른 비디오 카메라의 제2 실시예를 도시하는 블록도.
제11도는 제2 실시예의 자동 트랙킹 처리 절차를 도시하는 플로우차트.
제12도는 제2 실시예의 검출 측정 프레임을 도시하는 개요도.
제13도는 제12도의 검출 측정 프레임으로부터 얻어진 색상 빈도 특성을 도시하는 특성 곡선도.
제14도는 제12도의 검출 측정 프레임으로부터 얻어진 검출 밝기 빈도 특성을 도시하는 특성 곡선도.
제15도는 본 발명에 따른 비디오 카메라 시스템의 제3 실시예의 자동 트랙킹 처리 절차를 도시하는 플로우차트.
제16도는 제15도에 도시된 단계 SPl2A 내에 설정된 주요 특징 검출 측정 프레임의 개요도.
제17도는 제16도의 주요 특징 검출 측정 프레임 FMXF로부터 얻어진 색상 빈도 특성을 도시하는 특성 곡선도.
제18도는 제16도에 도시된 주요 특징 검출 측정 프레임 FMXF로부터 얻어진 밝기 빈도 특성을 도시하는 특성 곡선도.
제19도는 특히 픽처 평면 PIC 내에 디스플레이되는 트랙될 피사체 부분의 주요 특징 검출 측정 프레임 FMXF의 설정을 설명하는 개요도.
제20도는 제16도에 도시된 표준 측정 프레임 FMXR로부터 얻어진 색상 빈도 특성을 도시하는 특성 곡선도.
제21도는 제16도의 표준 측정 프레임 FMXR로부터 얻어진 밝기 빈도 특성을 도시하는 특성 곡선도.
제22도는 검출 측정 프레임 FMXD(제17도)에 의하여 디스플레이 평면 PIC가 주사될 때 얻어지는 색상 빈도 특성을 도시하는 특성 곡선도.
제23도는 검출 측정 프레임 FMXD(제12도)에 의하여 디스플레이 평면 PIC가 주사될 때에 얻어지는 밝기 빈도 특성을 도시하는 특성 곡선도.
제24도는 특정 피사체 부분의 자동 트랙킹을 설명하는 개요도.
제25도는 본 발명에 따른 비디오 카메라의 제4 실시예를 도시하는 블록도.
제26도는 작은 영역들로 분할함으로써 영상 정보가 얻어질 수 있는 디스플레이 평면 PIC를 도시하는 개요도.
제27도는 줌 처리 절차를 도시하는 플로우차트.
제28도는 얼굴 추출 처리 절차를 도시하는 플로우차트.
제29도는 제28도로부터 연속된 얼굴 추출 처리 절차를 도시하는 플로우차트.
제30도는 검출된 머리카락 영역 및 피부색 영역을 갖는 디스플레이 평면 PIC를 도시하는 개요도.
제31도는 제30도의 흡수되고 결합된 머리카락 영역 및 피부색 영역을 처리함으로써 형성되는 디스플레이 평면 PIC를 도시하는 개요도.
* 도면의 주요부분에 대한 부호의 설명
1 : 렌즈 블럭부 2 : 렌즈
3 : 조리개 4 : 고체 촬상 소자
5 : 신호 분리/자동 이득 제어 회로부
6 : 아날로그/디지탈 변환 회로
7 : 디지탈 카메라 처리 회로 8 : 디지탈/아날로그 변환 회로
11 : 트랙킹 제어 회로 12A : 줌 구동 모터
12B : 틸트 구동 모터 14 : 포화 레벨/색상 검출 회로
15 : 영상 메모리 16 : 트랙킹 신호 처리 회로
17 : 어드레스 발생 회로 18 : 게이트 회로
19 : 색상 히스토그램 발생 회로
20 : 밝기 히스토그램 발생 회로
25 : 색상 잡음 게이트 신호 발생 회로
본 발명은 비디오 카메라 시스템에 관한 것으로, 특히 적절하고 양호한 영상을 잡기 위하여 비디오 카메라의 프레임 내에 보이는 피사체의 변화를 자동적으로 추적하는 비디오 카메라 시스템에 관한 것이다.
또한, 본 발명은 특히 사람의 얼굴이 거의 동일한 크기의 영상으로 나타나는 비디오 카메라 시스템에 관한 것이다.
오늘날 자동 줌 기능을 갖는 단일 렌즈 리플렉스 카메라가 사용된다. 그러한 카메라는 줌 모터를 구동하기 위하여 피사체와 카메라 간의 정확한 거리를 결정하는 전하 결합 디바이스 라인 센서를 갖는다.
종래의 단일 렌즈 리플렉스 카메라의 자동 줌 카메라 시스템에 따라, 촬영될 대상이 어른으로 제한되고, 카메라 사용자는 버튼을 눌러서 얼굴 촬영, 상반신 촬영, 및 전신 촬영 중의 하나를 선택하며, 렌즈의 위치 및 피사체 간의 거리에 대응하여 줌 렌즈의 특정 위치로부터 줌 렌즈의 위치에 따라 줌 모터가 구동되고, 거리는 결정된 특정 촬영 종류에 따라 사전에 프로그램된다.
그러한 단일 렌즈 리플렉스 카메라는 CCD 라인 센서로 자동 초점을 잡고, CCD 라인 센서는 피사체가 초점 앞 또는 뒤에 있는지를 판단하여 피사체까지의 거리를 정확히 결정할 수 있기 때문에 상대적으로 용이하게 자동 줌 시스템을 구성하는 것이 가능하다.
또한, 비디오 카메라의 시계(visual field) 내의 피사체의 운동을 자동적으로 트랙 또는 추적할 수 있는 자동 트랙킹 장치가 있다. 비디오 카메라에 제공된 종래의 피사체 트랙킹 장치는 밝기 신호의 고주파 부분의 피크 값을 기억하고 그 특성으로서 피사체의 운동을 인지한다.
비디오 카메라의 자동 피사체 트랙킹 장치의 다른 방식은, 운동 벡터를 형성하기 위하여 측정 프레임 내의 2개의 연속적 필드 내의 밝기 신호의 대표점들(representative points)의 매칭을 취하고, 측정 프레임 내에서 운동 벡터로 가정되는 피사체의 운동이 자동적으로 트랙된다. 단일 렌즈 리플렉스 카메라의 종래의 자동 줌 시스템은 마운틴 상향 제어형(mountain-climbing control type)의 자동 초점 시스템을 갖는 비디오 카메라에는 사용될 수 없는데, 이는 종래의 자동 줌 시스템이 피사체까지의 거리를 정확히 측정할 수 없기 때문이다.
첫번째 설명한 피사체 자동 트랙킹 장치는 그 구조가 단순하다는 장점을 갖는다. 그러나, 그 장치는 측정 프레임 내의 배경에 사람 뿐만 아니라 나무가 있는 경우에 촬영 대상인 사람을 트랙킹하지 못하는 문제를 갖는다. 그러한 문제의 이유는 나무의 고주파 성분이 최대 피크가 되기 때문이다.
두번째의 자동 트랙킹 방법은 기본적으로 피크가 발생하였을 때 출력되는 신호를 이용한다. 그리하여, 이 방법은 밝기가 약한 촬영 환경 내에서의 트랙킹 장치의 기능 장애에 의하여 발생하는 잡음에 민감하다. 이론적으로, 두번째의 종래 자동 트랙킹 방법이 고주파 성분을 추출하기 때문에, 낮은 콘트라스트(Contrast)를 갖는 피사체를 자동적으로 트랙킹하지 못하는 경향이 있다.
더구나, 두번째 트랙킹 방법은 계산된 운동 벡터가 비디오 카메라를 잡고 있는 사용자의 손의 떨림에 의한 것인지 또는 피사체의 운동에 의한 것인지를 판단하는 것이 불가능하거나 곤란하여 비디오 카메라 또는 그 트랙킹 장치의 작동 에러를 초래하게 된다.
이상의 설명에 비추어, 본 발명의 목적은 피사체의 운동을 단순하고 확실하게 자동적으로 트랙킹하기 위하여 시계 또는 디스플레이 내의 피사체의 특성치를 안정적이고 효과적으로 포착하는 것을 가능하게 하는 비디오 카메라 시스템을 제공하는 것이다.
본 발명의 다른 목적은 촬영 대상인 사람이 카메라로 가까이 다가오거나 카메라로부터 멀어질 때 얼굴의 영상이 거의 동일한 크기로 유지되는 비디오 카메라 시스템을 제공하는 것이다.
이상의 본 발명의 목적은 촬영된 피사체의 영상 출력 신호를 기초로 하여 디스플레이 평면 PIC를 구성하는 화소를 형성하기 위한 화소 정보 형성 수단(1, 5, 6 및 7); 디스플레이 평면 PIC 상의 예정된 위치에 예정된 크기의 표준 측정 프레임 FMXR을 설정하기 위한 표준 측정 프레임 설정 수단(16, 17, 15 및 SP3); 디스플레이 평면 PIC 상에 예정된 크기의 검출 설정 프레임 FMX1 내지 FMX3, 및 FMXD를 설정하기 위한 검출 측정 프레임 설정 수단(16, 17, 15 및 SP3); 표준 측정 프레임 FMXR 내에서 영상의 밝기 및/또는 색상 정보를 기초로 하여 색상 각도 및/또는 밝기 레벨의 표준 빈도 특성 데이타 YStd(i), HueStd(i)를 형성하기 위한 표준 빈도 특성 데이타 형성 수단(19, 20 및 16), 검출 측정 프레임 FMX1 내지 FMX3, 및 FMXD 내의 영상의 밝기 및/또는 색상 정보를 기초로 하여 휘도 및/또는 색상 각도 의 검출 빈도 특성 데이타 YSmall(i), HueSmall(i), Y(x, y)(i), 및 Hue(x, y)(i)를 형성하기 위한 검출 빈도 특성 데이타 형성 수단(19, 20 및 16); 큰 유사성을 갖는 검출 빈도 특성 데이타를 갖는 검출 측정 프레임을 고정하기 위하여 표준 빈도 특성 데이타 및/또는 검출 빈도 특성 데이타의 유사성을 결정하기 위한 검출 측정 프레임 고정 수단(16, SP5 및 SP15); 및 결정 또는 고정된 검출 측정 프레임의 영상 정보를 표준 측정 프레임 내에 입력시키기 위하여 화소 정보 형성 수단(1, 5, 6 및 7)을 구동 및 제어하기 위한 화소 정보 변경 제어 수단(16, SP6 및 SPl6)을 포함하는 비디오 카메라 시스템을 제공함으로써 달성된다.
본 발명의 다른 목적은 영상 광 LA로부터 피사체의 얼굴 모델을 보여주기 위하여 입력 영상의 영상 데이타를 형성하기 위한 입력 영상 형성 수단(31, 35, 36, 37, 43, 44, 46 및 47); 입력 영상의 영상 데이타로부터 얼굴 영역 HR1 및 FC1을 추출하기 위한 얼굴 영역 추출 수단(45 및 SP22); 추출된 얼굴 영역 HR1 및 FC1의 영역을 계산하기 위한 검출된 얼굴 영역 계산 수단(45 및 SP23; 표준 얼굴 영역을 기억하기 위한 표준 얼굴 영역 기억 수단(43 및 SP24); 표준 얼굴 영역 기억 수단(45 및 SP24)으로부터 얻어지는 표준 얼굴 영역으로부터의 편차를 검출하기 위한 편차 검출 수단(45 및 SP25); 및 편차 검출 수단(45 및 SP25)의 편차 출력에 기초하여 입력 영상 형성 수단(31, 35, 36, 37, 43, 46 및 47) 내에 형성될 입력 영상의 크기의 편차값이 0(nearly 0)이 되도록 줌하기 위한 입력 영상 줌 수단(45 및 SP25)을 포함하는 비디오 카메라 시스템에 의하여 달성된다.
본 발명에 따른 비디오 카메라의 작동에 있어서, 피사체의 화소 정보의 표준 측정 프레임 FMXR 내의 화소 정보는 표준 빈도 특성 데이타 형성 수단(19, 20, 및 16)에 의하여 밝기 레벨 및/또는 색상 각도에 관한 표준 빈도 특성 데이타 Y Std(i) 및 HueStd(i)로 변경된다. 그리고 검출 측정 프레임 FMX1 내지 FMX3, 및 FMXD내의 화소 정보는 검출 빈도 특성 데이타 형성 수단(19, 20 및 16)에 의하여 밝기 레벨 또는 색상 각도에 관한 검출 빈도 특성 데이타 YSmall(i), HueSmall(i), Y(x, y)(i), 및 Hue(x, y)(i)로 변환된다. 표준 빈도 특성 데이타에 관하여 큰 유사성을 갖는 검출 빈도 특성 데이타가 검출 측정 프레임 고정 수단(16, SP5, 및 SP15)에 의하여 결정되고, 화소 정보를 결정된 검출 측정 프레임 내에 화소 정보를 입력하기 위하여 화소 정보 형성 수단(1, 5, 6 및 7)이 화소 정보 변경 제어 수단(16, SP6 및 SP16)에 의하여 구동되고 제어된다.
그리하여, 본 발명에 따른 비디오 카메라 시스템은 빈도 특성 데이타를 사용하고 영상의 특성을 표현함에 의하여 피사체가 디스플레이 평면의 표준 프레임 내에 들어가도록 항상 트랙하고 제어할 수 있다. 결과적으로, 본 비디오 카메라 시스템은 곤란없이 상대적으로 용이하게 형성될 수 있다.
본 발명에 따라, 우선 예정된 측정 프레임 내의 밝기 정보 및 색상 정보에 관한 빈도 특성 데이타를 기초로 하여 큰 유사성을 갖는 검출 측정 프레임의 위치가, 피사체에 대한 비디오 카메라의 영상 상태를 제어하기 위하여 측정된다. 결과적으로, 확실하고 적절하게 작동하며 비디오 카메라에 대한 피사체의 임의의 변화에 대처할 수 있는 비디오 카메라 시스템을 용이하게 제공할 수 있다.
나아가서, 검출된 얼굴 영역 기억 수단(45 및 SP24)로부터 얻어질 표준 얼굴 영역과 표준 얼굴 영역 기억 수단(45및 SP24)로부터 얻어질 검출된 얼굴 영역 간의 차이가 0(nearly 0)이 되도록 입력 영상 줌 수단(45 및 SP25)이 줌한다. 그 결과, 검출된 얼굴 영상의 크기가 표준 얼굴 영상의 크기와 대략 일치하도록 줌 제어된다.
본 발명에 따라, 2차적으로 디스플레이 스크린 상에 나타날 얼굴 영상의 영역이 상기 검출된 얼굴 영역을 표준 얼굴 영역과 그 차이가 0이 되도록 비교함에 의하여 계산되고 줌 처리되기 때문에, 얼굴 영상의 크기를 항상 동일한 크기로 고정시킬 수 있는 비디오 카메라 시스템이 용이하게 얻어질 수 있다.
본 발명의 원리 및 용도는 첨부한 도면을 참조하여 이하의 상세한 설명으로부터 보다 명료해질 것이다. 도면 상에서 동일한 부품은 동일한 참조 번호 또는 기호로 표시되었다.
[제1 실시예]
제1도에서, VCS는 비디오 카메라 시스템의 일반적 구성을 나타내는데 피사체로부터 들어오는 촬영 광 LA는 렌즈 블록부(1) 내의 렌즈(2) 및 조리개(3)를 통과한 후, 예를 들어 CCD(charge coupled device)로 구성되는 고체 촬상 소자(4)에 의하여 수신되고, 피사체의 영상을 표현하는 영상 출력 신호 S1은 신호 분리/자동 이득 제어 회로부(5)에 주어진다.
신호 분리/자동 이득 제어 회로부(5)는 영상 또는 카메라 출력 신호 S1의 샘플들을 홀드하고, 영상 출력 신호 S1이 예정된 이득을 가지도록 하기 위하여 자동 조리개(AE, 도시되지 않음)로부터의 제어 신호를 제어하며, 그렇게 얻어진 카메라 출력 신호 S2를 아날로그/디지탈 변환 회로(6)를 통하여 디지탈 카메라 처리 회로(7)로 공급한다.
디지탈 카메라 처리 회로(7)는 카메라 출력 신호 S2를 기초로하여 밝기 신호 Y 및 색 신호 C를 형성하고, 이 밝기 신호 Y 및 색 신호 C를 디지탈/아날로그 변환 회로(8)를 통하여 비디오 신호로서 송신한다.
또한, 디지탈 카메라 처리 회로(7)는 피사체 트랙킹 검출 신호 S4의 밝기 신호 Y 및 색차 신호 R-Y 및 B-Y를 트랙킹 제어 회로(11)에 공급한다. 트랙킹 제어 회로(11)는 피사체 트랙킹 검출 신호 S4를 기초로 하여 렌즈 블록부(1)를 위하여 사용되는 줌 구동 모터(12A) 및 틸트 구동 모터(12B)를 위하여 트랙킹 제어 신호 S5를 출력한다.
트랙킹 제어 회로(11)은 색상 신호 HUE 및 포화 신호 SAT를 형성하기 위하여 포화 레벨/색상 검출 회로(14)로의 색차 신호 R-Y 및 B-Y를 수신하고, 예를 들어 화소 단위의 필드 메모리로 구성되는, 영상 메모리(15) 내에 밝기 신호 Y와 함께 신호 HUE 및 SAT를 기억시킨다.
포화 레벨/색상 검출 회로(14)는 사람으로 하여금 밝기 신호 Y, 색상 신호 HUE, 및 포화 레벨 신호 SAT를 통하여 피사체를 인지하도록 하기 위한 시각적 자극을 기초로 하여 피사체를 인지하는 색상 신호 HUE 및 포화 레벨 신호 SAT를 형성하기 위하여 색차 신호 R-Y 및 B-Y를 직교 좌표계/곡선 좌표계로 변환시킨다.
한편, 일반적으로, 제2도에는 사람이 인지하는 시각적 자극이 도시되었는데 이는 소위 HLS 시스템이라 불리는, L축과 L축에 수직인 SH 평면을 갖는 컬러 좌표 시스템에 의하여 표현되었다.
L축은 밝기 신호 Y에 대응하는 밝기를 나타낸다. SH 평면은 SH 평면에 수직인 곡선 좌표계에 의하여 표현되었다. SH 평면 상에서, S는 포화를 나타내며 L축으로부터의 거리로 표현되었다. H는 색상을 나타내며 0도의 색차 신호 R-Y의 방향으로부터 측정된 각도로 표현되었다.
HLS 시스템에서 도시된 입체부(solid body)의 모든 컬러는 광원이 밝아지거나, SH 평면 또는 컬러 좌표가 L 축을 따라 상승할 때 백색으로 된다. 이러한 컬러 좌표의 상승 중에, 포화 레벨 S는 작아진다. 반면에, 광원의 밝기가 감소되면, 컬러 좌표 또는 SH 평면이 L 축을 따라 하강하고 모든 컬러가 흑색으로 됨과 함께, 포화 레벨 S가 작아진다.
이러한 컬러 좌표의 특징에 따르면, 포화 레벨 S와 밝기 Y는 광원의 밝기에 쉽게 영향을 받기 때문에, 이들 포화 레벨과 밝기가 피사체의 고유값을 표현하는 양호한 파라메터라고 하기는 어렵다. 반면에, 피사체에 특정한 고유값을 표현하는 색상 H가 광원에 의해 영향 받는 것이 어렵다는 것은 명백하다.
그러나, 피사체의 컬러가 L 축에 인접하여 있거나 컬러가 백색, 흑색 또는 회색이면, 색상 신호 H는 정보의 의미를 가질 수 없고, 영상이 열악한 신호 대 잡음(S/N) 비를 갖는 최악의 경우에, 영상에 나타난 백색은 여러가지 색상 H를 포함할 수 있다.
이러한 문제를 해결하기 위해서, 본 실시예의 트랙킹 제어 회로부(11)는 HLS 컬러 좌표의 특징을 이용한다. 트랙킹 제어 회로부(11)는 피사체의 특성 또는 특징을 픽업하여 줌(zooming) 구동 모터(12A)와 틸트(tilting) 구동 모터(12B)를 구동시켜, 피사체의 특징이 변할 때 피사체의 변화를 트랙킹하므로써 이동 피사체를 적절히 트랙킹하도록 줌 처리된 비디오 신호 S3을 얻을 수 있다.
즉, 영상 메모리(15)에 기억된 피사체 트랙킹 검출 신호 S4를 구성하는 화소 정보는 블록 식별을 제공하거나, 마이크로프로세서를 갖는 트랙킹 신호 처리 회로(16)로부터 어드레스 발생 회로(17)로 보내진 지정 신호 S6을 제공하기 때문에, XY 수직 좌표(x, y)에 기초하여, 영상 메모리(15) 내에 사실상 형성된 디스플레이 평면 PIC를 나누는 어드레스 신호 S7을, 어드레스 회로(17)로주터 선정된 크기의 단위 영역 AR로 구성되는 블록 내로 공급할 수 있다.
상술한 바와 같이, 영상 메모리(15)의 디스플레이 평면 PIC로 구성되는 각각의 화소의 데이타는 모든 단위 영역에서 독출되고 모든 단위 영역 AR에서 한 블록 영상 정보로서 처리된다.
제3도에 도시된 바와 같이, 비디오 카메라 시스템의 본 실시예에 따르면, 픽처 평면 PIC는 x 방향과 y 방향을 따라 16개의 단위 영역 AR로 각각 나눠진다. 결과적으로, 16 × 16 (= 256) 조각의 단위 영역 AR과 관련하여 수직 또는 직교 좌표(x, y)의 좌표 x=i, y=j (예를 들면, 상단부 좌측 코너)를 지정하므로써 지정된 단위 영역 AR의 영상 정보 I(x=i, y=j)를 독출할 수 있다.
상술한 바와 같이, 단위 영역 AR이 게이트 회로(18)를 통해 영상 메모리(15)로부터 색상 히스토그램 발생 회로(19)에 제공될 때마다 영상 정보 I(x=i, y=j)의 색상 신호 HUE 성분은 독출되고, 반면에 밝기 신호 Y 성분은 밝기 히스토그램 발생 회로(20)에 직접 제공된다.
색상 히스토그램 발생 회로(19)는, 제4도에 도시된 바와 같이, 픽처 평면 PIC에 설정된 측정 프레임 FMX 내의 화소 색상과 관련하여, 각각의 색상 각도가 0° 내지 359° 인 화소들의 수를 나타내는 색상 빈도 특성 HueStd(i)를 결정하여 이들 색상 빈도 특성 HueStd(i)를 트랙킹 신호 처리 회로(16)에 색상 히스토그램 신호 S11로서 보낸다.
다시 말하면, 색상 히스토그램 발생 회로(19)는 측정 프레임 FMX 내의 영상의 색상 특징을 색상 빈도 특성 HueStd(i)로 표현된 색상 특징 패턴으로 변환한다.
마찬가지로, 밝기 히스토그램 발생 회로(20)은 제5도에 도시된 바와 같이, 디스플레이 평면 PIC에 설정된 측정 프레임 FAX 내의 화소들과 관련된 밝기 신호 Y에 기초하여 각각의 밝기 레벨이 0 내지 255인 화소들의 수를 나타내는 밝기 빈도 특성 YStd(i)를 결정하여 이들 밝기 빈도 특성 YStd(i)를 트랙킹 신호 처리 회로(16)에 밝기 히스토그램 신호 S12로서 보낸다.
그 결과로, 밝기 히스토그램 발생 회로(20)는 측정 프레임 FMX 내의 영상의 밝기 특징을 밝기 빈도 특성 YStd(i)로 표현된 밝기 특징 패턴으로 변환하여 이 패턴을 트랙킹 신호 처리 회로(16)에 제공한다.
비디오 카메라 시스템의 본 실시예에 따르면, 색상 잡음 게이트 신호 발생 회로(25)가 영상 메모리(15)로부터 화소마다 독출된 포화 신호 SAT를 트랙킹 신호 처리 회로(16)에 의해 주어진 잡음 판정 신호 S14에 비교하기 위해서 게이트 회로(18)에 대응하는 비교기를 갖는다. 포화 신호 SAT가 선정된 레벨보다 작으면, 게이트 회로(18)을 폐쇄시키기 위한 게이트 신호 S15는 게이트 회로(18)에 제공되어, 특정 화소에 대한 색상 신호 HUE가 색상 히스토그램 발생 회로(19)에 입력되는 것을 방지한다.
이와 관련하여, 포화/색상 검출 회로(14)에서 검출된 포화 신호 SAT가 L 축에 인접하여 있으면(제2도), 포화 신호 SAT의 색상 신호 HUE에는 잡음에 감춰지거나 묻힌 작은 포화 현상이 있을 수 있으므로, 소정의 정보 의미를 갖는데 실패할 수 있기 때문에, 그러한 색상 신호 HUE는 게이트 회로(18)로부터 제거된다.
비디오 카메라 시스템의 구성에 따르면, 트랙킹 신호 처리 회로(16)은 사용 조작법에 따라 동작되어, 제6도에 도시된 자동 트랙킹 처리 절차 RT1을 실행한다.
그 결과로, 밝기 특징 패턴과 색상 특징 패턴은 영상 메모리(15)에 취해진 화소들 각각의 밝기 신호 Y와 색상 신호 HUE에 기초하여, 밝기 히스토그램 발생 회로(20)와 색상 히스토그램 발생 회로(19)에 형성되므로, 렌즈 블록(1)의 줌 동작이 최대 효율 조건에서 제어된다.
트랙킹 신호 처리 회로(16)가 제6도에 도시된 자동 트랙킹 처리 절차 RT1에 가입되면, 필드 번호 FN은 단계 SP1에서 FN=0으로 초기 설정되고, 비디오 카메라의 사용자는 기록 동작의 시작을 대기케 하는 기록 일시 정지 버튼 RECPAUSE를 해제시킨다.
그 다음에, 사용자는 기록을 시작하고, 트랙킹 신호 처리 회로(16)는 단계 SP2로 진행되는데, 이 단계에서는 제3도에 도시된 바와 같이, 디스플레이의 중앙 위치에 설정된 표준 측정 프레임 FMXR(이 실시예에서, 4 × 4 조각의 단위 영역으로 선택됨) 내에서 밝기 신호 Y와 색상 신호 HUE의 빈도 특징(또는 히스토그램), 또는 밝기 빈도 특성 YStd(i)(제5도)와 색상 빈도 특성 HueStd(i)(제4도) 등은 각각 표준 밝기 빈도 특징과 표준 색상 빈도 특징으로서 밝기 히스토그램 발생 회로(20)와 색상 히스토그램 발생 회로(19)로부터 취해진다. 상기 이들 특징은 “표준 특징 패턴”으로 기억된다.
그 다음에, 트랙킹 신호 처리 회로(16)은 단계 SP3에 가입하고 필드 번호 FN이 FN+1로 증분된 다음에, 측정 프레임 FMX은 상이한 크기를 각각 갖는 다수의 측정 프레임 FMX1, FMX2 및 FMX3들로 순차적으로 변경되는데, 마찬가지로, 각각의 측정 프레임 FMX1, FMX2 및 FMX3들과 관련된 밝기 빈도 특성 YStd(i)와 색상 빈도 특성 HueStd(i)는 밝기 히스토그램 발생 회로(20)와 색상 히스토그램 발생 회로(19)로부터 취해진다.
본 발명의 실시예에 있어서, 2×2조각의 단위 영역들을 갖는 작은 영역들로 구성된 작은 측정 프레임 FMX1, 4×4 조각의 단위 영역들을 갖는 중간 영역들로 구성된 중간 측정 프레임 FMX2, 및 6×6 조각의 단위 영역들을 갖는 큰 영역들로 구성된 큰 측정 프레임 FMX3 등과 같이 다수의 측정 프레임들이 선택된다. 검출 밝기 빈도 특성과 검출 색상 빈도 특성, YSmall(i)와 HueSmall(i), YMiddle(i)와 HueMiddle(i), 및 YLarge(i)와 HueLarge(i)의 “검출 특징 패턴”은 측정 프레임 FMX1, FMX2, 및 FMX3 각각으로부터 취해진다.
계속해서, 단계 SP4에서, 트랙킹 신호 처리 회로(16)는 밝기와 색상에 관련된 표준 특징 패턴과 검출 특징 패턴 사이의 유클리드 거리를 결정하고, 이들의 합계는 평가치 JSmall, JMiddle 및 JLarge로서 결정된다.
다시 말하면, 트랙킹 신호 처리 회로(16)는 다음 식에서 도시되는 바와 같이, 작은 측정 프레임 FMX1의 밝기 정보에 대하여 결정한다:
검출 밝기 빈도 특성 YSmall(i)/4는 단위 영역 AR(제9도)의 평균값으로 정규화되고, 표준 빈도 특성 YStd(i)/16(제5도)는 단위 영역 AR의 평균값으로 정규화된다. 모든 밝기 레벨 i=0 내지 255와 관련하여 검출 밝기 빈도 특성 YSmall(i)/4와 표준 빈도 특성 YStd(i)/16 사이의 차이의 절대값이 가산되어 합계를 얻을 수 있는데, 이 합계는 작은 측정 프레임 FMX1의 영상 밝기 정보와 표준 측정 프레임 FMXR의 밝기 정보 사이의 유사성을 나타내는 작은 측적 프레임 밝기 유클리드 거리 J1Small이다.
마찬가지로, 트랙킹 신호 처리 회로(16)는 다음 식에서 알 수 있듯이, 작은 측정 프레임 FMX1의 색상 정보에 대하여 결정한다:
HueSmall(i)/4는 작은 영역 AR(제8도)의 평균값으로 정규화되고, HueStd(i)/16은 작은 영역 AR(제4도)의 평균값으로 정규화된다. 모든 색상 각도 j=0° 내지 359° 와 관련하여 HueSmall(i)/4와 HueStd(j)/16 사이의 차이의 절대값이 합산되어, 작은 측정 프레임 FMX1의 영상 색상 정보와 표준 측정 프레임 FMXR의 색상 정보 사이의 유사성을 나타내는 작은 측정 프레임 색상 유클리드 거리 J2Small을 얻을 수 있다.
마찬가지로, 트랙킹 신호 처리 회로(16)는 다음 식에서 알 수 있듯이, 중간 측정 프레임 FMX2 내의 영상의 밝기 신호에 대하여 결정한다:
검출 밝기 빈도 특성 YMiddle(i)의 정규화된 표준 밝기 빈도 특성 YStd(i)/16과 정규화된 밝기 빈도 특성 YMiddle(i)/16이 제공되고, 모든 밝기 레벨 i=0 내지 255와 관련하여 YStd(i)/16과 YMiddle(i)/16 사이의 차이의 절대값의 합계는 중간 측정 프레임 FMX2의 영상 밝기 정보와 표준 측정 프레임 FMXR의 밝기 정보 사이의 유사성을 나타내는 중간 측정 프레임 밝기 유클리드 거리 J1Middle로서 결정된다.
또한, 트랙킹 신호 처리 회로(16)는 다음 식에서 알 수 있듯이, 중간 측정 프레임 FMX2 내의 영상의 색상 정보에 대하여 결정한다:
모든 색상 각도 i=0° 내지 359° 와 관련하여 정규화된 색상 빈도 특성 HueMiddle(i)/16과 정규화된 표준 색상 빈도 특성 HueStd(i)/16 사이의 차이의 절대값의 합계를 중간 측정 프레임 FMX2의 영상 색상 정보와 표준 측정 프레임 FMXR의 색상 정보 사이의 유사성을 나타내는 중간 측정 프레임 색상 유클리드 거리 J2Middle로서 결정한다.
또한, 트랙킹 신호 처리 회로(16)은 다음 식에서 알 수 있듯이, 큰 측정 프레임 FMX3 내의 영상의 밝기 정보에 대한여 결정한다:
모든 밝기 레벨 i=0 내지 255와 관련하여 정규화된 검출 밝기 빈도 특성 YLarge(i)/36과 정규화된 표준 밝기 빈도 특성 YStd(i)/16 사이의 차이의 모든 절대값의 합계를 큰 측정 프레임 FMX3의 영상 밝기 정보와 표준 측정 프레임 FMXR의 밝기 정보 사이의 유사성을 나타내는 큰 측정 프레임 밝기 유클리드 거리 J1Large로서 결정한다.
또한, 트랙킹 신호 처리 회로(16)는 다음 식에서 알 수 있듯이, 큰 측정 프레임의 영상의 색상 정보에 대하여 결정한다:
모든 색상 각도 i=0° 내지 359° 와 관련하여 정규화된 검출 색상 빈도 특성 HueLarge(i)/36과 정규화된 표준 색상 빈도 특성 HueStd(i)/16 사이의 차이의 절대값의 합계를 큰 측정 프레임 FMX3의 색상 정보와 표준 측정 프레임 FMXR의 다른 색상 정보 사이의 유사성을 나타내는 큰 측정 프레임 색상 유클리드 거리 J2Large로서 결정한다.
그 결과로서, 작은 측정 프레임 FMX1, 중간 측정 프레임 FMX2, 및 큰 측정 프레임 FMX3 등의 영상과, 표준 측정 프레임 FMXR의 다른 영상 사이의 유사성은 다음 식에서 알 수 있듯이, 밝기와 색상의 전체 유클리드 거리로 인한 평가치 JSmall, J1Middle 및 JLarge로서 결정될 수 있다:
계속해서, 트랙킹 신호 처리 회로(16)는 작은 측정 프레임 FMX1, 중간 측정 프레임 FMX2, 및 큰 측정 프레임 FMX3 등에 대해 평가치 JSmall, JMiddle 및 JLarge들 중 최소치를 서치하고, 이 최소 평가치는 다음 단계 SP5에 존재하는 피사체의 크기를 가정할 수 있다.
평가치 JSmall, JMiddle 및 JLarge들 중 하나가 선택된다는 의미는, 사전 측정 순간에서의 영상 정보가 현재 측정된 3개의 측정 프레임들 사이에서의 최대 유사성의 영상 정보를 포함하고, 이와 마찬가지로 사전 측정 순간과 현재의 측정 결과들 사이의 최대 연속성을 갖는 측정 프레임이 선택된다는 것을 의미한다.
다음 단계 SP6에서, 트랙킹 신호 처리 회로(16)는 새롭게 선택된 측정 프레임 크기를 증간 측정 프레임 FMX2의 크기와 등일하게 만드는 트랙킹 제어 신호를 줌 구동 모터(12A)에 공급하여, 사전 측정 결과의 연속성을 유지하는 조건에서 렌즈 블록부(1)를 제어하여 유지한다.
다음 단계 SP7에서, 트랙킹 신호 처리 회로(16)는 계속해서 동작하고, 새로운 표준 특징 패턴을 기억시키기 위해서 표준 밝기 빈도 특성 YStd(i)(제5도)와 표준 색상 빈도 특성 HueStd(i)(제4도)는 밝기 히스토그램 신호 S12와 색상 히스토그램 신호 S11을 통해 밝기 히스토그램 발생 회로(20)와 색상 히스토그램 발생 회로(19)로부터 취해진 다음에, 새로운 표준 특징 패턴에 따라 새로운 트랙킹 동작으로 가입되는 사전 단계 SP3으로 복귀된다.
또한, 단계 SP5에서, 예를 들어, 작은 측정 프레임 FMX1이 선택되면, 단계 SP6에서 트랙킹 신호 처리 회로(16)는 줌 구동 모터(12A)를 꼬리측으로 구동시켜, 작은 측정 프레임 FMX1의 영상을 중간 측정 프레임 FMX2의 크기로 확대시킨다.
반면에, 단계 SP5에서 큰 측정 프레임 FMX3이 선택되면, 트랙킹 신호 처리 회로(16)는 단계 SP6에서 줌 구동 모터(12A)를 넓은 측으로 구동시켜, 표준 측정 프레임 FMXR에서 큰 측정 프레임 FMX3 내의 영상을 디스플레이하도록 인에이블시킬 수 있는 크기로 피사체의 영상을 감소시킨다.
반면에, 단계 SP5에서 중간 측정 프레임 FMX2가 선택되면, 단계 SP6에서 트랙킹 신호 처리 회로(16)는 넓은 측과 꼬리측 중에서 어느 한 곳으로 줌 구동 모터(12A)를 강제적으로 구동시키지 않기 때문에, 피사체의 영상 크기는 중간 측정 프레임 FMX2 내의 영상을 연속적으로 디스플레이시킬 수 있도록 유지된다.
상술한 비디오 카메라 시스템의 구성에 따르면, 디스플레이의 중앙 표준 측정 프레임 FMX 내로 피사체를 가입시키기 위해서 사용자가 초기에 카메라를 작동시킨 후에 기록이 시작되고 비디오 카메라와 피사체 간의 거리가 증가되면, 디스플레이 평면 PIC 상의 피사체 크기가 감소되어, 결과적으로 검출 특징 패턴의 내용이 표준 특징 패턴에 가장 근접한 작은 측정 프레임 FMX1로부터 얻어질 수 있다. 그 결과, 트랙킹 신호 처리 회로(16)가 줌 구동 모터(12A)를 꼬리측으로 구동시켜, 디스플레이 평면 PIC 내의 피사체 크기를 제어하기 때문에 표준 측정 프레임 FMXR의 크기를 적절히 조절할 수 있다.
반면에, 피사체가 비디오 카메라 쪽으로 이동하면, 디스플레이 평면 PIC 상의 피사체 크기가 증가하기 때문에 큰 측정 프레임 FMX3으로부터 측정 영상 정보의 표준 특징 패턴에 가장 근접한 검출 특징 패턴을 얻을 수 있다. 그 다음에, 트랙킹 신호 처리 회로(16)가 줌 구동 모터(12A)를 넓은 측으로 구동시키고, 따라서 디스플레이 평면 PIC 상의 피사체 크기는 표준 측정 프레임 FMXR에 적절히 가입되도록 제어된다.
카메라에 대한 피사체의 위치가 변하지 않으면, 디스플레이 평면 PIC 내의 피사체 크기는 표준 측정 프레임 FMXR 내에 항상 가입되거나 포함되도록 인에이블시킬 수 있는 크기로 유지된다. 그 결과, 중간 측정 프레임 FMX2로부터 얻어진 검출 특징 패턴은 표준 특징 패턴에 가장 유사하게 된다. 이 시점에서, 트랙킹 신호 처리 회로(16)가 줌 구동 모터(12A)의 구동을 방지하도록 제어되면, 디스플레이 평면 PIC 내의 피사체 크기는 표준 측정 프레임 FMXR 내에 가입된다.
[제2 실시예]
제10도는 본 발명의 비디오 카메라 시스템 VSC의 제2 실시예를 도시하고 있다. 제1도의 도면에 대응하는 소자 또는 부분에는 동일하거나 대응하는 참조 번호를 부여하였다. 트랙킹 신호 처리 회로(16)는 트랙킹 제어 신호 S5를 통해 틸팅 구동 모터(tilting drive motor;12B) 및 패닝 구동 모터(panning drive moter; 12C)를 구동하고 제어하도록 되어 있다.
상술한 구성에 따르면, 트랙킹 신호 처리 회로(16)에 의한 제11도에 도시된 자동 트랙킹 처리 절차 RT2의 수행함으로써 언제나 비디오 카메라의 적절한 제어를 통해 표준 측정 프레임의 영상과 비교하여 가장 유사한 영상을 디스플레이할 수 있다.
트랙킹 신호 처리 회로(16)가 자동 트랙킹 처리 절차 RT2로 들어가면, 단계 SP1에서 초기에 프레임 번호 FN을 FN=0으로 설정하고, 비디오 카메라 시스템의 사용자가 기록 일시정지 상태를 해제시키기 위해 기록 버튼 RECPAUSE 를 동작시키는 것을 대기하는 상태로 설정된다.
사용자가 이러한 트랙킹 신호 처리 회로(16)의 상태를 시동시키면, 트랙킹 신호 처리 회로(16)는 단계 SP12로 진행하여 제3도 내지 제5도를 참조하여 상술한 바와 같이 밝기 히스토그램 발생 회로(20) 및 색상 히스토그램 발생 회로(19)에 대한 표준 측정 프레임 내의 화소(picture element)에 대응하는 밝기 신호 Y 및 색상 신호 HUE를 주기 위해 어드레스 발생 회로(17)에 의해 디스플레이 평면의 의 중심에 표준 측정 프레임 FMXR를 지정한다. 결과적으로, 표준 밝기 빈도 특성 YStd(i)(제5도) 및 표준 색상 빈도 특성 HueStd(i)(제4도)가 표준 특성 패턴으로서 밝기 히스토그램 신호 S12 및 색상 히스토그램 신호 S11에 의해 기록된다.
부수적으로, 트랙킹 신호 처리 회로(16)는 단계 SP13으로 진행하는데, 이 단계에서, 어드레스 발생 회로(17)는 검출 측정 프레임 FMXD의 위치를 주사하여, 검출 측정 프레임 FMXD는 검출 측정 프레임 FMXD의 단위로서 디스플레이 평면 PIC 상의 영상 정보를 픽업한다.
본 발명의 제1 실시예에 따르면, 검출 측정 프레임 FMXD는, 제12도에 도시된 바와 같거나 표준 측정 프레임 FMXR과 유사하게, 4 × 4 = 16 편(片)의 단위 영역 AR을 갖고 어드레스 발생 회로(17)는 검출 측정 프레임 FMXD의 좌측 상부 코너부에 좌측에서 우측으로 그리고 상측에서 하측으로 단위 영역 어드레스를 순차적으로 지정함으로써 주사된다.
결과적으로, 검출 측정 프레임 FMXD은 순차적으로 어드레스 (x, y)= (0, 0), (1, 0), …, (12, 0), (0, 1), (1, 1), …, (12, 1), …, (0, 12), (1, 12), …, (12, 12)를 전이시키도록 위해 주사한다.
이러한 주사 동작 중에, 트랙킹 신호 처리 회로(16)는 제13 및 14도에 도시된 바와 같이 어드레스 (x, y)로 전송되는 검출 측정 프레임 FMXD의 영상의 색상 정보 및 밝기 정보의 검출 색상 빈도 특성 Hue(x, y)(i) 및 검출 밝기 빈도 특성 Y(x, y)(i)를 결정한다.
여기에서, 검출 색상 빈도 특성 Hue(x, y)(i)는 검출 측정 프레임 FMXD 내에 포함되어 있는 모든 화소내에 내포된 색상 각도 i = 0° 내지 359° 의 화소의 발생 빈도에 따른 검출 측정 프레임 FMXD의 색상 검출 패턴을 도시한다.
반면, 검출 밝기 빈도 특성 Y(x, y)(i)은 검출 측정 프레임 FMXD에 포함된 모든 화소가 갖고 있는 밝기 레벨 0 내지 255의 화소의 발생 빈도에 따라 검출 특징 패턴을 묘사한다.
계속적으로, 트랙킹 신호 처리 회로(16)은 밝기 신호와 관련하여, 단계 SP14에서 다음 방정식
으로 표현되는 바와 같이, 검출 측정 프레임 FMXD 및 밝기 레벨 y = 0 내지 255에 관련하여, 검출 밝기 빈도 특성 Y(x, y)(i)과 표준 밝기 빈도 특성 YStd(i) 사이의 차의 절대값의 총합에 의한 유클리드 거리 J1(x, y)를 결정한다. 유클리드 거리는 표준 측정 프레임 FMXR 내의 영상의 밝기 정보와 비교하여 어드레스 (x, y)은 위치에 속하는 검출 측정 프레임 FMXD 내의 밝기 정보의 유사성을 표현하는 정보이다.
또한, 검출 측정 프레임 FMXD의 색상 정보와 관련하여, 트랙킹 신호 처리 회로(16)는 다음의 방정식
으로 표현되는 바와 같이, 어드레스 (x, y) 위치에서의 검출 측정 프레임 FMXD의 검출 색상 빈도 특성 Hue(x, y)(i)와 표준 색상 빈도 특성 HueStd(i) 사이의 차의 절대값을 i= 0° 내지 359° 에 대하여 합산하고, 유클리드 거리 J2(x, y)를 결정한다. 그렇게 하여, 표준 측정 프레임 FMXR의 영상이 갖고 있는 표준 색상 패턴과 비교하여 위치 (x, y)에서의 검출 측정 프레임 FMXD의 영상의 검출 특성 패턴의 유사성을 묘사하는 정보가 얻어진다.
트랙킹 신호 처리 회로(16)는 상술한 바와 같이 밝기 및 색상에 따라 결정된 유틀리드 거리 J1(x, y), J2(x, y) 및 다음의 방정식에 기초하여 계산값 J(x, y)를 결정한다.
상술한 바와 같이, 트랙킹 신호 처리 회로(16)는 현재 시간이 계수될 때, 계산값 J(x, y)가 최소가 되는 검출 측정 프레임 FMXD의 위치가 피사체의 위치인 지를 결정하기 위해 검출 측정 프레임 FMXD의 주사 위치 (x, y) (x = 0, 1, …, 12, y = 0, 1, …, 12)에 속하는 모든 검출 측정 프레임 FMXD 상의 계산값 J(x, y)(x = 0, 1, …, 12, y = 0, 1, …, 12)을 얻은 후 다음 단계 SP16로 진행한다. 다음 단계 SP16에서, 트랙킹 신호 처리 회로(16)는 새로운 피사체 위치 (x, y)를 틸팅 구동 모터(12B) 및 패닝 구동 모터(12C)에 대해 디스플레이 윈도우의 중심 위치에 설정된 표준 측정 프레임 FMXR (제3도)로 이동시키기 위해 트랙킹 제어 신호 S5를 제공한다.
계속적으로, 트랙킹 신호 처리 회로(16)는 단계 SP17로 진행하여 영상의 밝기 신호 및 색상 신호의 표준 빈도 특성 데이타 (제4 및 5도)를 새롭게 표준 측정 프레임 FMXR이 되게 하고 단계 SP13으로 복귀하여 다음 측정 사이클로 들어간다.
상술한 바와 같이, 추적(following) 또는 트랙킹(trcking) 신호 처리 회로(16)는 가장 유사한 검출 측정 프레임 FMXD를 표준 측정 프레임 FMXR으로 이동시키기 위해 피사체가 텔레비젼 카메라에 대해 움직이고 텔레비젼 카메라의 패닝 및 틸팅 운동을 제어할 때, 전체 화면 PIC 상의 표준 측정 프레임 FMXR의 영상 정보에 가장 유사한 영상 정보를 갖고 있는 검출 측정 프레임 FMXD의 위치를 결정한다. 결과적으로, 이동 하는 피사체를 뒤따르도록 비디오 카메라 시스템을 적절히 이동시키는 것이 가능하다.
한편, 표준 측정 프레임 FMXR의 위치에 배치된 피사체가 움직이지 않으면, 단계 SP14에서 계산 값을 얻는 것이 가능한데, 표준 측정 프레임 FMXR의 위치와 동일한 위치의 검출 측정 프레임 FMXD로부터 얻은 검출 측정 패턴이 표준 특성 패턴에 대해 가장 큰 유사성을 갖는다. 결과적으로, 비디오 카메라 시스템 VCS는 신호 처리 회로(16)이 새로운 피사체를 트랙킹 제어 신호 S5에 의해 계속적으로 검출 측정 프레임 FMXD에 배치되어 있도록 하기 위해 제어된다.
상술한 본 발명의 구성에 따르면, 사용자가 피사체가 초기에 포쥰 측정 프레임 FMXR의 중심에 배치된 후에 기록을 시작하는 한, 표준 검출 패턴에 대한 밝기 신호 및 색상 신호의 빈도 특성 데이타에 기초하여 트랙킹 신호 처리 회로(16)에 의해 얻어진 검출 특징 패턴을 비교함으로써 피사체를 적절히 검출하여 비디오 카메라가 이동 피사체를 적절히 추적하도록 하는 것이 가능한다.
이러한 비디오 시스템의 동작을 얻기 위해서, 특정 전용 구성을 갖는 비디오 카메라 시스템 회로를 준비한 필요가 없다.
또한, 이러한 구성을 갖추고 있는 비디오 카메라 시스템에 따라, 표준 패턴이 시간의 경과에 따라 순차적으로 새롭게 만들어지기 때문에, 피사체가 그의 방향을 바꾸어, 카메라 맨을 향해 갑자기 돌진하거나, 피사체에 있어서 갑작스런 변화가 일어날 때(예를 들면, 피사체가 사람인 경우, 그가 그의 옷을 벗을 땐)에도 변화하는 피사체를 자동적으로 추적할 수 있다.
[제3 실시예]
제15도는 본 발명의 비디오 카메라 시스템의 제3 실시예를 도시한다. 비디오 카메라 시스템 VCS의 구성은 트랙킹 신호 처리 회로(16)가 제15도에 도시된 자동 트랙킹 처리 절차 RT3을 수행하도록 되어 있다는 점만 제외하고는 제10도에 도시된 제2 실시예의 구성과 동일하다.
제11도에 도시된 절차 RT2의 것에 대응하는 자동 트랙킹 처리 절차 RT3의 부분 또는 일부에는 동일한 기호를 부여하였다. 제11도에 도시된 단계 SP12 대신, 트랙킹 신호 처리 회로(16)가 단계 SP12A 및 SP12B를 순차적으로 수행한다. 부수적으로 제11도의 단계 SP13 대신, 트랙킹 신호 처리 회로(16)가 단계 SP13A를 수행한다.
즉, 트랙킹 신호 처리 회로(16)는 자동 트랙킹 처리 절차 RT3으로 들어가서 단계 SP11을 수행하고, 그 다음 제16도에 도시된 바와 같이, 단계 12A에서, 디스플레이 윈도우의 중심에 배치된 프레임들의 특정 표준 측정 프레임 FMXR의 것보다 더 작은 영역 또는 간격을 갖추고 있는 주요 특징 검출 측정 프레임 FMXF 내의 밝기 신호 Y 및 색상 신호 HUE의 빈도 특성 데이타를 취하여 주요 특징 데이타로서 성분의 명칭을 기억한다.
제3 실시예에 따르면, 표준 측정 프레임 FMXR은 4 × 4= 16 편의 단위 영역으로 구성된다. 반면에, 주요 특징 검출 측정 프레임 FMXF는 표준 측정 프레임 FMXR의 중심에 1x1 =1 편의 크기를 갖도록 선택된다.
주요 특징 검출 측정 프레임 FMXF에서의 밝기 신호 및 색상 신호의 빈도 특성 데이타는 특히 제17 및 18도에 도시된 바와 같이 모든 소자의 명칭 또는 모든 색상 각도 0° 내지 359° 및 밝기 레벨 0 내지 255를 갖을 수 없음을 알 수 있다.
특히, 빈도 특성 데이타는 예를 들면, 미세한 영상 부분의 특성을 구별적으로 표현하는 소자들의 6개의 명칭으로서, 단지 색상 각도 H1 내지 H6, 및 밝기 레벨 Y1 내지 Y6만을 갖는다.
예를 들면, 제19도에 도시된 바와 같이, 걷고 있는 사람의 몸 전체가 디스플레이 평면 PIC 상에 표시될 때, 걷고 있는 사람의 얼굴 부분은 표준 측정 프레임 FMXR의 일부에 디스플레이되고, 얼굴을 제외한 나머지 부분은 표준 측정 프레임 FMXR의 전체에서 볼 수 있는 반면, 주요 특징 검출 측정 프레임 FMXF에서의 영상은 단지 얼굴 자체의 특징을 묘사하는 색상 각도 성분과 밝기 성분들만을 갖는다.
반면에, 표준 측정 프레임 FMXR은 그 일부에 얼굴의 일부가 디스플레이되므로, 얼굴의 특징을 표현하는 색상 각도 성분과 밝기 레벨 성분들뿐만이 아니고, 얼굴을 제외한 배경의 특징을 표현하는 색상 각도 성분과 밝기 레벨 성분들을 동시에 갖는다.
주요 특징 검출 측정 프레임 FMXF의 히스토그램의 빈도 특성이 검출되면, 색상 신호 상의 모든 색상 각도 0° 내지 359° 의 색상 각도 성분을 갖지 못하는 얼굴의 특징을 묘사하는 색상 각도 성분 H1 내지 H6만이 발생된다. 유사하게, 밝기 신호에 관하여, 모든 밝기 레벨 성분 0 내지 255가 발생되지 않고 얼굴의 특정에 대응하는 밝기 성분 Y1 내지 Y6 만이 발생된다.
반면에, 표준 측정 프레임 FMXR는 얼굴 영상뿐만 아니라 배경 영상을 디스플레이하므로, 색상 신호는 제20도에 도시된 바와 같이 얼굴의 특징을 표현하는 색상 각도 성분 H1 내지 H6만을 포함하는 것이 아니라 다른 색상 각도 성분을 갖는 색상 빈도 특성 HueStd(i)도 발생한다. 유사하게, 제21도에 도시된 바와 같이, 표준 측정 프레임 FMXR의 밝기 신호는 얼굴 부분의 특징을 나타내는 밝기 레벨 성분 Y1 내지 Y6을 포함하고, 다른 밝기 레벨 성분을 갖는 밝기 빈도 특성 YStd(i)이 발생된다.
트랙킹 신호 처리 회로(16)는 단계 SP12A에서 주요 특징 검출 측정 프레임 FMXF의 영상 부분의 빈도 특성 데이타 성분의 명칭 H1 내지 H6 및 Yl 내지 Y6을 기억한 후에, 단계 SP12B로 진행하고, 표준 측정 프레임 FMXR 내의 밝기 신호 및 색상 신호의 빈도 특성 데이타의 주요 특징 데이타에 의해 표현되는 성분 명칭으로 된 빈도 특성 데이타만을 픽업하고, 다른 데이타를 0으로 간주하여 이를 표준 특성 패턴으로 기억한다.
그 다음, 트랙킹 신호 처리 회로(16)는 단계 SP13A로 진행하는데, 이 단계에서 어드레스 발생 회로(17)는 검출 측정 프레임 FMXD의 위치를 주사하여, 검출 측정 프레임 FMXD의 단위로서 디스플레이 평면 PIC 상의 영상 정보를 사용하는 검출 측정 프레임 FMXD에 의해 밝기 신호 및 색상 신호의 빈도 특성 데이타의 주요 특징 데이타에 의해 표현되는 성분의 명칭으로 된 빈도 특성 데이타만을 픽업하고, 다른 데이타를 0으로 가정하고, 이를 검출 특징 패턴으로 간주한다.
제15도의 구성에 따르면, 트랙킹 신호 처리 회로(16)가 자동 트랙킹 처리 절차 RT3으로 들어가서 기록을 개시하면(단계 SP11), 제19도에 도시한 바와 같이 단계 SP12A에서, 조작자는 비디오 카메라를 표준 측정 프레임 FMXR에서는 배경과 함께 사람의 얼굴 부분이, 주요 특징 검출 측정 프레임 FMXF에서는 얼굴만이 동시에 디스플레이되도록 설정한다. 그 다음, 제17 및 18도에 도시된 바와 같이, 단계 SP12A에서, 트랙킹 신호 처리 회로(16)는 얼굴 부분의 특징을 묘사하는 성분 H1 내지 H6 및 Y1 내지 Y6의 명칭을 갖고 있는 색상 빈도 특성 및 밝기 빈도 특성을 얻는다. 제20 및 21도에 도시된 바와 같이, 단계 SP12B에서, 트랙킹 신호 처리 회로(16)은 표준 측정 프레임 FMXR에서 얼굴 부분과 배경의 전체 픽처의 색상 빈도 특성 HueStd(i) 및 밝기 빈도 특성 YStd(i)의 명칭 성분 H1 내지 H6 및 Y1 내지 Y6의 빈도 특성 성분의 값을 갖고, 또한 다른 빈도 특성 성분인 0 값을 갖고 있는 색상 빈도 특성 및 밝기 빈도 특성을 발생시킨다.
연속적으로, 트랙킹 신호 처리 회로(16)는 단계 SP13A에서, 검출 측정 프레임 FMXD에 의해 전체 디스플레이 평면을 주사하고, 제22 및 23도에 도시된 바와 같이 검출 측정 프레임 FMXD의 각각의 주사 위치에서 검출 색상 빈도 특성 Hue(x, y)(i) 및 검출 밝기 빈도 특성 Y(x, y)(i)의 주요 특징 데이타 및 0인 빈도 특성 데이타의 성분 명칭으로 묘사되는 성분 명칭 H1 내지 H6 및 Y1 내지 Y6의 빈도 특성 데이타만을 포함하는 검출 특징 패턴을 발생한다.
그 다음으로, 단계 SP14에서, 트랙킹 신호 처리 회로(16)는 상술한 방정식(10) 및 (11)으로 나타낸 바와 같이, 표준 특성 패턴 및 검출 특성 패턴 사이의 유크 리드 거리를 결정한 후에, 계산 값 J(x, y)의 합을 결정하기 위해 방정식(12)을 사용한다. 단계 SP15에서, 최소 계산 값을 갖고 있는 측정 프레임의 위치가 피사체의 새로운 위치라고 가정하면, 트랙킹 신호 처리 회로(16)은 디스플레이 평면 PIC의 중심으로 새로운 피사체의 위치 J(x, y)를 이동시키기 위해 패닝 구동 모터(12C) 및 틸팅 구동 모터(12B)를 제어한 다음 단계 SPl7에서, 표준 특성 패턴을 갱신하기 위한 반복 절차를 수행한다.
상술한 바와 같이, 단계 SP15 및 SP16에서, 트랙킹 신호 처리 회로(16)은 새로운 피사체를 결정하고 새로운 피사체를 디스플레이 윈도우의 중심으로 이동시키는 패닝 구동 모터 및 틸팅 구동 모터를 구동시킨다. 최소한 제24도에 도시된 바와 같이, 주사에 의해 얻어진 다수의 검출 측정 프레임 FMXD중 특히 주요 특징 검출 측정 프레임 FMXF의 특징에 가장 가까운 검출 측정 프레임 FMXD의 위치가 패닝 및 틸팅 동작을 수행하기 위해 검출된다.
결과적으로, 제24도에 도시된 바와 같이, 트랙킹 신호 처리 회로(16)는 주요 비교 판단 조건으로서 배경 부분 IM1 및 얼글 부분 IM2를 포함하는 표준 측정 프레임 FMXR (검출 측정 프레임 FMXD) 내의 주요 특징 검출 측정 프레임 FMXF에 설정된 얼굴 부분 IM2의 특징을 추적할 수 있다. 결과적으로, 배경으로 잘못 유인되는 현상이 발생될 위험을 효과적으로 피할 수 있는 비디오 카메라 시스템 VCS를 제공하는 것이 가능하다.
[제1 내지 제3 실시예에 관한 다른 실시예]
상술한 제2 및 제3 실시예에 따르면, 본 발명은 디스플레이 평면 PIC이 중심위치에서 피사체를 패닝, 틸팅 및 트랙킹하도록 텔레비젼 카메라를 제어하기 위해 물체의 이동 위치의 검출 결과를 사용하는데 이용된다. 그러나, 본 발명은 최고의 유사성을 갖고 있는 검출 측정 프레임 FMXD을 결정하고 위치 정보에 기초하여 초점 또는 조리개를 자동적으로 제어하기 위해 표준 특성 패턴 및 검출 특성 패턴으로서 또는 자동 조리개 정보의 시점으로부터 자동 초점 정보를 비교하면 동일한 효과가 얻어질 수도 있다.
또한, 상술한 실시예에 따르면, 디스플레이 평면 PIC를 구성하는 화소 정보는 렌즈 블록부(1) 내에 형성되고, 렌즈 블록부(1)의 줌, 패닝 및 틸팅 동작은 영상의 움직임이 피사체의 움직임을 추적하도록 한다.
그러나, 렌즈 블록부(1)로부터의 영상 출력 신호 S1이 영상 메모리 (15)에 기억되고, 기억된 영상 데이타가 디스플레이 평면을 형성하기 위해 이러한 처리 중에 줌, 패닝 및 틸팅된다면, 동일한 효과를 얻을 수 있다.
또한, 비디오 카메라 시스템의 제3 실시예에 따르면, 표준 특성 패턴 및 검출 특성 패턴이 단계 SP12A 및 SP13A (제15도)에서 얻어지면, 주요 특징 데이타에 의해 표현되는 성분 명칭이 아닌 성분의 명칭의 빈도 특성 데이타의 값은 0으로된다. 그러나, 상술한 경우 대신 필요하다면, 0이 아닌 값을 사용할 수도 있다. 요약하면, 값이 선정된 값으로 대체되는 경우에도 동일한 효과를 얻을 수 있다.
[제5 실시예]
제25도에서, VCS는 일반적으로 비디오 카메라 시스템을 나타내고 이 비디오 카메라 시스템(VCS)는 피사체로서 인간 얼굴 모델을 트랙킹하는, 인간 얼굴 모델을 갖는 인간 인식 자동 타겟 트랙커(ATT-HR) 시스템에 적용할 수 있다.
비디오 카메라 시스템 VCS는 렌즈 블록 유니트(31)의 렌즈(2) 및 조리개(3)를 통해 전하 결합 디바이스 CCD를 포함하는 영상 픽업 디바이스(4)에서 물체로서 인간 얼굴 모델로부터 인입하는 영상 광 LA를 수신하고 신호 분리/자동 이득 조정 회로(35)에 물체 영상을 나타내는 영상 출력 신호 S1을 전송한다.
신호 분리/자동 이득 조정 회로(35)는 홀드 영상 출력 신호 S1 및 제어 신호에 의해 자동 조리개 AE 시스템(도시되지 않음)으로부터 규정 이득을 갖도록 제어되는 이득인 영상 출력 신호 S2를 샘플하고 이렇게 얻어진 영상 출력 신호 S2는 아날로그/디지탈 변환기(36)을 통해 디지탈 카메라 처리 회로(37)에 공급된다.
디지탈 카메라 처리 회로(37)는 영상 출력신호 S2에 따라 밝기 신호 Y, 색신호 C 및 색차 신호 R-Y 및 B-Y를 형성하고 디지탈/아날로그 변환기(38)를 통해 비디오 신호 S3으로서 밝기 신호 Y 및 색 신호 C를 출력한다.
또한, 디지탈 카메라 처리 회로(37)은 트랙킹 제어 회로(11)에 타겟 트랙킹 검출 신호 S4로서 휘도 신호 Y 및 색차 신호 R-Y 및 B-Y를 공급하고 이 트랙킹 제어 회로(11)는 타겟 줌 검출 신호 S4에 따라 렌즈 블록 유니트(31)에 장치된 줌 구동 모터(12)용의 트랙킹 제어 신호 S5를 발생한다.
트랙킹 제어 회로(11)는 저역 통과 필터(43)를 통해 스크린 감소 회로(44)에 휘도 신호 Y 및 색차 신호 R-Y 및 B-Y를 공급한다. 스크린 감소 회로(44)는 디지탈 카메라 처리 회로(37)로부터 출력될 각 화소의 밝기 신호 Y 및 색차 신호 R-Y 및 B-Y의 디스플레이 평면 PIC를 트랙킹 신호 처리 회로(45)로부터 출력될 스크린 감소 제어 신호 S21에 의해 32 × 32 또는 16 × 16 편의 단위 영역으로 분리하기 위해 처리한다.
이 구성에 따라, 스크린 감소 회로(44)로부터 포화/색상 검출 회로(46)로 32 × 32 또는 16 × 16 편의 단위 영역에 대응하는 색차 신호 R-Y 및 B-Y를 제공함으로써 색상 신호 HUE 및 포화 신호 SAT가 영상 메모리(47)에 제공됨과 동시에 밝기 신호 Y가 영상 메모리(47)에 직접 공급된다.
이 경우에, 영상 메모리(47)가 32 × 32 블록에 대한 메모리 영역을 갖고 있어 16 × 16 편의 단위 영역 또는 32 × 32 편의 단위 영역에 대응하는 스크린 감소 회로(44)로부터 출력될 1 필드에 대한 화소 데이타가 32 × 32 또는 16 × 16 블록에 대한 정보 데이타로 압축되고 영상 메모리(47)에 기억된다. 결과적으로, 통상의 경우에 화소의 1 필드의 메모리 용량을 갖는 것이 필요하다. 제25도의 경우에 더 간단히 할 수 있다.
포화/색상 검출 회로(46)는 색차 신호 R-Y 및 B-Y를 변환하는 직각 좌표/극좌표에 의해 색상 신호 HUE 및 포화 신호 SAT를 형성하고 인간이 밝기 신호 Y, 색상 신호 HUE 및 포화 신호 SAT로써 감시할 수 있는 시각 자극에 기초하여 피사체로서 인간 얼굴 모델을 인식한다.
이에 관련하여, 제2도에 도시된 바와 같이, 인간이 일반적으로 감지할 수 있는 시각 자극이 L축과 이 L축에 수직으로 교차하는 SH 평면을 갖는 “HLS 시스템” 이라 불리는 컬러 좌표 시스템으로 표시될 수 있다.
HLS 색 좌표 시스템의 이러한 특징들을 이용하여, 트랙킹 제어 회로(11)는 피사체로서 사람 얼굴 모델의 특징을 추출하고, 그 특징이 변화할 때 그 변화를 따르기 위하여 줌 구동 모터(12)가 구동되고, 그 결과 피사체의 운동에 따라 줌 하는 비디오 신호 S3이 얻어진다.
특히, 영상 메모리(47) 내에 기억된 타겟을 줌하기 위한 검출 신호 S4가, 트랙킹 신호 처리 회로(45)를 구성하는 마이크로프로세서로부터 출력될 블록 한정 신호 S22를 제26도에 도시된 바와 같이 어드레스 발생 회로(48)로 줌에 의하여, 영상 메모리(47) 내에 형성된 디스플레이 평면 PIC를 XY 직교 좌표(X, Y)에 기초한 예정된 크기의 단위 영역 AR로 분할하기 위한 어드레스 신호 S23을 공급한다.
그리하여, 영상 메모리(47)의 디스플레이 평면 PIC를 구성하는 각각의 블록의 데이타는 각각의 단위 영역 AR 내에서 판독되고 각각의 단위 영역 AR 내에서 영상 정보로서 평가된다.
이 실시예의 경우에, 디스플레이 평면 PIC는 x 및 y 방향으로 각각 32(또는 16) 단위 영역 AR로 분할되고, 따라서 32 × 32(또는 16 × 16) 조각의 단위 영역의 직교 좌표계(x, y)의 좌표 x=i, y=j를 지정하여 지정될 단위 영역 AR의 영상 정보 (x=i, y=j)가 판독될 수 있다.
이러한 구성에서, 영상 메모리(47)로부터 각각의 단위 영역 AR 내에서 판독 될 영상 정보 I(x=i, y=j)에서, 색상 신호 HUE 성분이 게이트 회로(19)를 통하여 피부색 검출 회로(50)에 주어지고, 밝기 신호 Y의 성분이 머리카락 검출 회로(51)에 직접 주어진다.
피부색 검출 회로(50)는 사람 얼굴 모델 내의 피부에 해당하는 영상 부분을 검출하고 각각의 블록의 인입되는 색상 신호 HUE 성분이 예정된 피부색 범위 내에 있을 때, 예상 피부색 검출 출력 신호 S54를 출력한다.
실제로, 색상 신호 HUE 성분의 동적 범위는 0° 내지 359° 범위 내의 값을 갖는다.
반면에, 머리카락 검출 회로(51)는 사람 얼굴 모델의 영상 부분 내에서 머리카락 영역을 검출하고, 밝기 신호 Y의 동적 범위는 0 내지 255(8비트)의 값에 의하여 표현되고 각각의 화소의 밝기 신호 Y의 값이 10 미만일 때, 그것을 블록으로서 한정하여 상기 화소가 머리카락 영역 내에 존재하는 것으로 판단하고 예상 머리카락 검출 신호 S25를 트랙킹 신호 처리 회로(45)로 출력한다.
이 실시예의 경우에, 게이트 회로(19)를 위하여 비교기로 구성되는 색상 잡음 게이트 신호 형성 회로(25)가 마련되어 영상 메모리(47)의 각각의 블록으로부터 판독될 포화 신호 SAT를 트랙킹 신호 처리 회로(45)로부터 출력될 잡음 판단 신호 S26과 비교하여, 포화 신호 SAT가 예정된 레벨 이하일 때 게이트 회로(49)가 폐쇄되도록 하는 게이트 신호 S27을 게이트 회로(19)에 제공하여, 상기 화소의 색상 신호 HUE 성분이 피부색 검출 회로(50)으로 입력되지 않는다.
이와 관련하여, 포화/색상 검출 회로(46)에서 검출된 색상 신호 HUE가 L축(제2도)의 근방에 있는 경우에, 이는 상기 색상 신호 HUE가 작은 포화를 가지며 잡음으로부터 유도된 것으로서 정보로서의 의미를 가지지 않는 것을 의미하고, 이 의미없는 색상 신호 HUE는 게이트 회로(19)에서 제거된다.
이상에서 설명한 구성에 따라, 트랙킹 신호 처리 회로(45)는 제27도에 도시된 바와 같은 줌 처리 절차 RT2l을 실행하고, 디스플레이 평면 PIC 상에서 항상 거의 동일한 크기로 얼굴 영상을 투사하기 위한 처리를 수행한다.
특히, 트랙킹 신호 처리 회로(45)가 줌 처리 절차 RT2l에 들어갈 때, 사용자가 단계 SP21에서 얼굴 촬영, 상반신 촬영, 또는 전신 촬영 중에 선택하고 프레임 번호 FN을 FN=1로 설정하여 트랙킹 신호 처리 회로(45)가 비디오 카메라 시스템을 초기 스테이지로 설정하는 것을 대기한다.
그후에, 트랙킹 신호 처리 회로(45)는 단계 SP22로 진행되어 얼굴 추출 처리 절차 RT22(제28, 29도)에 따라 얼굴 영역을 추출하고 프레임 번호 FN을 FN=1로 증가시킨다.
제28도 및 제29도에 도시된 바와 같이, 얼굴 추출 처리 절차 RT22는 색상 신호 HUE 및 포화 신호 SAT에 따라 얻어지는 피부색 검출 신호 S54 및 예상 머리카락 검출 신호 S25로부터 디스플레이 평면 PIC 상의 영상의 특성을 판단하고, 디스플레이 평면 PIC 상에 투사될 사람 얼굴 모델의 크기가 항상 거의 동일하도록 하기 위하여 트랙킹 제어 신호 S5를 줌 구동 모터(12)에 제공한다.
특히, 트랙킹 신호 처리 회로(45)가 제28도의 얼굴 추출 처리 절차 RT22로 들어갈 때, 단계 SP3l에서 디스플레이 평면 PIC를 32 × 32 단위 영역 AR로 분할하고, 피부색 검출 회로(50) 및 머리카락 검출 회로(51)가 상기 화소 블록의 영상 부분이 각각의 단위 영역 AR 내에 포함된 화소 블록 상에서 피부색 또는 머리카락 색인지 검출하게 하고, 만약 상기 단위 영역이 예상 피부 영역이며 상기 예상 피부색 검출 신호 S54를 입력하고, 동시에 상기 단위 영역 AR이 예상 머리카락 영역이면 해당 머리카락 검출 신호 S25를 입력한다.
그리하여, 단계 SP3l의 절차가 종료되고, 트랙킹 신호 처리 회로는 제26도 및 제30도에 도시된 바와 같이 예상 머리카락 단위 영역 ARA 및 예상 피부색 단위 영역 ARB의 분포 상태를 얻게된다.
이 시점에서, 만약 예상 머리카락 영역 ARA 및 예상 피부색 영역 ARB가 간격없이 상호 인접하여 있고, 또한 일 군의 예상 머리카락 단위 영역 ARB 간에 간격이 없는 것으로 추출 결과가 얻어지면, 이는 타겟으로서 인간 얼굴 모델의 실제 상태와 일치하는 정보가 얻어진 것을 의미한다.
그러나, 통상의 경우에, 타겟에 대한 광원의 방향 및 리플렉스 방식이 균일하지 아니하고, 따라서 제30도에 도시된 바와 같이 일군의 예상 머리카락 영역 ARA 및 예상 피부색 영역 ARB 간에 공백 영역이 발생하게 된다. 또한 일군의 예상 머리카락 영역 ARA 및 예상 피부색 영역 ARB 간에 공백 영역이 있는 것으로 추출 결과가 나타나는 경우가 많다.
그 때에, 트랙킹 신호 처리 회로(45)는 후속 단계 SP32에서 “머리카락 영역 흡수 룰 1” 및 “피부색 영역 흡수 룰 2”에 따라 불연속 영역들을 흡수한다. 불연속 영역의 “흡수 룰 1”은 “만약 I(i+p, j+q)=예상 머리카락 영역이면 (p, g = +1 또는 -1 또는 0, p=g=0인 경우는 제외) I(i, j)를 예상 머리카락영역으로 흡수한다” 이다. 불연속 영역의 이 “흡수 룰 1”은 만약 어드레스(x=i, y=i) 영역 내의 단위 영역 AR을 중심으로 한 주변 영역에 예상 머리카락 단위 영역 ARA가 존재하면, 지정된 단위 영역(x=i, y=i)의 영상정보 I(x, j)가 예상 머리카락 단위 영역 ARA내로 흡수됨을 의미한다.
예를 들어, 제30도에서, 공백 작은 영역(x=6, y=5)(Δ 표시로 도시됨)이 지정 영역으로 지정되면, 공백 단위 영역(x=6, y=5)는 머리카락 영역(x=6, y=4)이 공백 작은 영역(x=5, y=6)을 둘러싸는 단위 영역 AR 내에 포함되므로 “흡수 룰 1”에 의하여 예상 머리카락 영역 ARA1의 그룹 내로 흡수된다. 이상에서 영역(x=6, y=5)을 들러싸는 단위 영역은(x=5, y=4), (x=6, y=4), (x=7, y=4), (x=7, y=5), (x=7, y=6), (x=6, y=6), (x=5, y=6), 및 (x=5, y=5)이다.
또한, 불연속 영역의 “흡수 룰 2”는 “흡수 룰 1”이 적용된 후에 적용된다. “흡수 룰 2”의 내용은 다음과 같다 : 만약 I(i+p,j+q)=예상 피부색 영역, (p,q= +1 또는 -1, 또는 o, p=q=o은 제외), 그때 I(i, j)를 예상 피부색 영역으로 흡수.
불연속 영역의 “흡수 룰 2”는 이상에서 예상 머리카락 단위 영역 ARA에 관하여 설명한 바와 동일하고, 만약 지정 단위 영역(x=i, y=j)의 주변 영역 내에 예상 피부색 영역이 존재하면, 지정 단위 영역(x=i, y=j)의 영상 정보 I(x=i, y=j)는 예상 피부색 영역 ARB로서 흡수된다.
예를 들어, 제30도에 도시된 바와 같이, 만약 공백 단위 영역(x=6, y=6)(x표시로 도시됨)이 지정 영역으로서 지정되면, 피부색 단위 영역(x=7, y=7)이 예상 피부색 단위 영역 ARB1으로서 공백 단위 영역(x=6, y=6)을 둘러싸는 단위 영역 AR 내에 포함되고, 공백 단위 영역(x=6, y=6)은 일군의 예상 피부색 단위 영역 ARB1들 내로 흡수된다.
따라서, 제30도에 도시된 바와 같이 단계 SP32에서 불연속 영역의 흡수 처리가 종결되면, 일군의 예상 머리카락 단위 영역 ARA1 내에 공백 영역이 존재하기 때문에 일군의 예상 머리카락 단위 영역 ARA1이 불연속적이므로, 상기 불연속 단위 영역이 제31도에 도시된 바와 같이 흡수된 영역 ARA1으로서 채워질 수 있다.
동일하게, 제31도에 도시된 바와 같이, 일군의 예상 피부색 단위 영역 ARB1 내의 공백 영역 때문에 예상 피부색 단위 영역 ARB1이 불연속적이므로, 블록은 흡수된 예상 피부색 단위 영역 ARB2로 채워질 수 있다.
단계 SP32의 처리가 종결되면, 트랙킹 신호 처리 회로(35)는 단계 SP33으로 진입하여, “머리카락 영역 결정 룰 1” 및 “피부색 영역 결정 룰 2”에 의하여 머리카락 영역 및 피부색 영역을 한정하고 결정한다.
“머리카락 영역 결정 룰 1”은 “만약 I((i, j) = 예상 머리카락 영역이고(i+p, j+q) = 예상 머리카락 영역이면(p, q =+1 또는 -1 또는 o, p=q=o은 제외), I(i, j), I(i+P, j=q)는 머리카락 영역으로 결합”으로 정해진다.
이 “머리카락 영역 결정 룰 1”은 어드레스(x=i, y=j) 단위 영역을 중심으로 하는 주변의 미소 영역들 중에 예상 머리카락 미소 영역들이 존재하면, 지정된 영역 (x=i, y=i)의 영상 정보 I(i, j)는 머리카락 단위 영역 그룹 HR 내로 결합된다.
또한 “피부색 영역 결정 룰 2”는 “만약 I(i, j)=예상 피부색 영역이고, I(i+p, j+q) = 예상 피부색 영역이고(p, q = +1 또는 -1 또는 0이고 p=q=o이 아니면)” I(i, j), I(i+p, j+q)를 피부색 영역으로 결합시킨다.
이 “피부색 영역 결정 룰 2”는 예상 머리카락 단위 영역에 관하여 이상에서 설명한 바와 같이, 지정 단위 영역(x=i, y=j)의 주변 영역 내에 예상 피부색 단위 영역이 존재하면, 피부색 영역 그룹 FC 내의 예상 피부색 단위 영역의 주변 영역의 영상 정보와 지정 단위 영역의 영상 정보 I(x=i, y=j)를 결합시킨다.
그 다음, 예를 들어 전술한 바와 같이, “머리카락 영역 결정 룰 1:”이 Δ로 표시되고 “머리카락 영역 흡수 룰 1”에 의해 머리 카락 단위 영역(제27도)에 흡수되는 영역(x=6, y=5)에 적용되는 경우에, 머리카락 단위 영역(x=5, y=5), (x=5, y=4), (x=6, y=4), (x=7, y=4) 및 (x=7, y=5)는 단위 영역(x=6, y=5) 주위의 단위 영역 즉 (x=5, y=4), (x=6, y=4), (x=7, y=4), (x=7, y=5), (x=7, y=6), (x=6, y=6), (x=5, y=6) 및 (x=5, y=5) 내의 예상 머리카락 단위 영역으로서 포함되고, 영역(x=5, y=4), (x=6, y=4), (x=7, y=4), (x=7, y=5), (x=6, y=5) 및 (x=5, y=5)가 머리카락 단위 영역 그룹 FC1로 결합된다.
또한, 전술한 바와 같이, 예를 들어 “피부색 결정 룰 2”는 “피부 색 영역 흡수 룰2”에 의해 피부 색 단위 영역에 흡수되고 x표시에 의해 표시되는 단위 영역 (x=6, y=6)에 적용되는 경우에, 피부색 단위 영역(x=7, y=6), (x=7, y=7) 및 (x=6, y=7)이 단위 영역(x=6, y=6) 주위의 단위 영역, 즉(x=5, y=5), (x=6, y=5), (x=7, y=5), (x=7, y=6), (x=7, y=7) 및 (x=6, y=7) 내의 예상 피부색 단위 영역으로 포함되기 때문에 영역(x=6, y=6), (x=7, y=6), (x=7, y=7) 및 (x=6, y=7)이 피부색 단위 영역 그룹 FC1로 결합된다.
이 구성에 따라, 제31도에 도시된 바와 같이, 디스플레이 스크린 PIC 내의 단위 영역 그룹 HR1 및 HR2가 머리카락 영역으로 결합되고, 단위 영역 그룹 SP22 및 SP23은 불연속 단위 영역을 흡수하여 머리카락 영역 및 피부색 단위 영역을 결합함으로써 단계 SP22 및 SP23에서 피부색 영역으로 결합된다.
그 다음, 트랙킹 신호 처리 회로(45)는 제29도의 단계 SP34로 진행하고 머리카락 영역 HR1 및 HR2 및 피부색 영역 FC1 및 FC2를 결합한 Area_Hair 및 Area_Skin을 계산한다.
디스플레이 스크린 PIC의 경우에, 제31도에 도시된 바와 같이, 머리카락 영역 HR1의 Area_Hair가 Area_Hair HR1=45에 포함된 전체 영역의 수로서 계산되고, 동일한 방식으로 머리카락 영역 그룹 HR2의 Area_Hair가 Area_Hair HR2=14로 계산되며 피부색 영역 그룹 FC1의 Area_Skin이 Area_Skin FC1=66으로 계산되고 피부 색 영역 그룹 FC2의 Area_Skin이 Area_Skin FC2=10으로 계산된다.
그 다음, 트랙킹 신호 처리 회로(45)는 단계 SP35로 진행하고 “얼굴 영역 결정 룰 1” 및 “얼굴 영역 결정 룰 2”의 조건을 만족하기 위한 상태에서 얼굴 영역을 결정하도록 처리를 판단한다.
“얼굴 영역 결정 룰 1”이 일련의 영역으로 한 그룹의 머리카락 단위 영역 및 한 그룹의 피부색 단위 영역을 정하고, 한 그룹의 머리카락 영역의 Area_Hair 대 한 그룹의 피부색 영역의 비가 “(Area_Hair)/(Area_Skin)<5 및 (Area_Hair)/(Area_Skin)>1/5”인 경우에, “예상 얼굴 영역”을 결정한다.
이 “얼굴 결정 룰 1”은 머리카락 단위 영역 그룹 대 피부색 단위 영역 그룹이 5배 보다 작고 1/5배 보다 큰 경우에 일련의 단위 영역 그룹이 아마 최상의 얼굴 영역이라 판단한다.
상기 판단은 모든 어두운 영역이 디스플레이 평면 PIC 상의 어두운 밝기 레벨(뒤에 어두운 스크린 있음)과 함께 많은 단위 영역을 갖는 영상과 같은 머리카락 영역인 경우에 오판 가능성을 피하고, 이와 마찬가지로 얼굴 색 옆에 많은 피부색 단위 영역이 존재하는 경우에, 얼굴 영역이 정확히 판단될 수 없어 상기 판단이 오류 판단을 면하게 된다.
또한, “얼굴 영역 결정 룰 2”는 “I(i, j) = 머리카락 영역 및 I(i, j-1) = 피부 색 영역이면, Neighbor = Neighbor+1 ; Neighbor>3이면, 머리카락 영역 + 피부색 영역=얼굴”인 것을 정한다.
스크린의 상부 영역이 머리카락 단위 영역 그룹(즉, I(i, j)]이고 하부 영역이 피부 색 영역 그룹 [즉, I(i, j-1)]인 경우 머리카락 단위 영역 그룹 및 피부색 단위 영역 그룹이 3개 이상의 단위 영역과 접촉하는 조건에서, ”얼굴 영역 결정 룰 2”가 얼굴로서 일련의 머리카락 영역 그룹 및 피부색 영역 그룹을 판단한다.
이 “얼굴 영역 결정 룰 2”에 따라, 한 쌍의 단위 영역 그룹, 즉 일련의 머리카락 영역 그룹 HR1 및 피부색 영역 그룹 FC1이 8개의 단위 영역과 접촉하고 룰 2를 만족하여 그것이 얼굴로서 판단된다.
반면에, 한 쌍의 단위 영역 그룹, 즉 일련의 머리카락 영역 그룹 HR2 및 피부색 영역 그룹 FC2가 소정의 영역과 접촉하지 않고, 룰 2의 조건을 만족하지 않기 때문에 그것은 얼굴 영역으로 판단되는 것을 배제한다.
이 구성에 따라, 트랙킹 신호 처리 회로(45)는 얼굴 추출 처리를 종료하고 단계 SP36으로부터 제27도의 주 루틴으로 복귀한다.
그 다음, 트랙킹 신호 처리 회로(45)는 제27도의 주 루틴에서 단계 SP23으로 진행하고 단계 SP22에서 “머리카락 영역 + 피부색 영역”으로서 결정된 Area_Face를 얻는다.
이 구성에 따라, 트랙킹 신호 처리 회로(45)는 프레임 수 FN=1의 얼굴 영역을 검출하고 얼굴 영역 테이블로부터 바로 선택된 촬영 모드에 대응하는 표준 얼굴 영역 Area_Std를 얻는다.
여기에서, 얼굴 영역 테이블은 두 종류의 스크린 분할 방법, 즉 32 × 32 블록 및 16 × 16 블록에 따라 얼굴 촬영 모드가 선택되는 경우에 표준 영역 Area_Std=400 및 100, 상반신 촬영 모드가 선택되는 경우에 Area_Std = 100 및 25, 전신 촬영 모드가 선택되는 경우에 Area_Std = 25 및 7로 설정된다.
그 후, 트랙킹 신호 처리 회로(45)는 단계 SP25로 진행하여 Area_Std를 타겟의 검출된 얼굴 영역과 비교한 후, 그 차가 0이 되도록 트랙킹 제어 신호 S5를 줌 구등 모터(12)에 제공한다.
이 때, 트랙킹 제어 신호 S25에 의한 제어 신호는 룰 1 및 2와 같은 스크린 분할 방법에 근거하여 결정된다.
룰 1은 스크린이 16 × 16 블록으로 분할되고 제어 신호가 Area_Face와 Area_Std 간의 차이값을 4배 해줌으로써 “(Area_Face - Area_Std) × 4“로 얻어지는 경우에 적용된다.
한편, 룰 2는 스크린이 32 × 32 블록으로 분할되고 제어 신호가 “분할된 스크린 = 32 × 32, 제어 신호 = (Area_Face - Area_Std)로 정의되는 경우”에 제어 신호를 나타낸다.
트랙킹 신호 처리 회로(45)는 프레임 번호 FN=1에 대한 줌 처리를 종료하고 상술한 단계 SP22로 복귀한 다음, 다음의 프레임 FN=FN+1에 대한 줌 처리를 반복한다.
트랙킹 신호 처리 회로(45)가 줌 처리를 반복할 때, 줌 구동 모터(12)는 검출된 얼굴의 현재값이 단계 SP24에서 얼굴 영역 테이블로부터 얻어진 Area_Std와 거의 동일한 값이 되게 하여 디스플레이 평면 PIC에 투영되는 얼굴 영상의 크기가 표준 얼굴 영역 Area_Std에 대응되게 유지되도록 하기 위하여 렌즈 블록 유니트(31)의 렌즈 3S(2)를 줌 제어(Zoom Control)한다.
앞서 언급한 구성에 따르면, 타겟으로서의 얼굴 모델이 카메라에 가깝게 접근하거나 카메라로부터 멀어지는 경우에, 렌즈 블록의 렌즈(2)는 항상 동일한 크기의 얼굴 영상이 디스플레이 스크린 PIC 상에 투영되도록 하기 위하여 줌 제어될 수 있다. 이러한 구성으로 인해, 단일 렌즈 리플렉스 카메라에 이용되는 거리 감지기 등과 같은 것이 불필요하게 되며, 그로 인해' 비디오 카메라 시스템의 구성이 보다 간단하게 된다.
더욱이, 상술한 실시예는 줌 방법으로서 줌 구동 모터(12)에 의해 렌즈 블록 유니트(31)의 렌즈(2)를 광학적으로 줌 처리하는 경우를 다루었다. 그러나, 상기 줌 방법은 이에 한정되는 것이 아닐 뿐만 아니라, 예를 들어 확대 또는 축소된 영상을 얻어서 렌즈 블록 유니트(31)의 전하 결합 디바이스(4)로부터 얻어지는 비디오 신호 S1에 근거해서 얻어진 디지탈 비디오 신호를 프레임 메모리에 입력시키고 트랙킹 제어 회로(45)에 대응하는 프레임 메모리를 판독하므로써 줌 처리를 실행한다면, 상기의 경우와 동일한 효과를 얻을 수 있다.
본 발명은 양호한 실시예를 들어 설명되었으므로 본 기술 분야에서 숙련된 사람이면 본 발명의 사상 및 범위를 벗어나지 않고도 특허 청구 범위에 기술되어 있는 내용을 변경할 수 있을 것이다.

Claims (34)

  1. 비디오 신호 트랙킹 방법에 있어서, 비디오 신호의 입력 영상 표시 기본 모델의 영상 데이타를 형성하기 위한 입력 영상 형성 단계; 입력 영상의 상기 영상 데이타로부터 타겟 영역을 추출하기 위한 타겟 영역 추출 단계; 상기 추출된 타겟 영역의 크기를 계산하기 위한 검출 타겟 크기 계산 단계; 기준 검출 타겟 크기 계산 단계에서 얻어진 검출 타겟의 크기와 기준 타겟 크기 계산 단계에서 얻어진 기준 타겟의 크기 간의 편차를 얻기 위한 편차 검출 단계; 및 상기 편차를 0으로 만들기 위하여 상기 편차 검출 단계의 편차 출력에 대응하는 상기 입력 영상 형성 단계에서 형성된 입력 영상의 크기를 줌(zooming)하기 위한 입력 영상 줌 단계를 포함하는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  2. 제1항에 있어서, 상기 타겟 모델로서 얼굴 촬영, 상반신 촬영 또는 전신 촬영에 대응하는 크기를 갖고 있는 입력 영상의 영상 데이타가 상기 입력 영상 형성 단계에서 형성되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  3. 제2항에 있어서, 상기 타겟 영역은 제1 컬러 영역과 피부색 영역을 포함하는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  4. 제3항에 있어서, 선택된 촬영의 타겟의 기준 크기가 상기 다수 단계들에 대응하게 제공되는 타겟 크기 테이블로부터 선택된 다음 계산되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  5. 제4항에 있어서, 상기 기준 타겟 크기는 검출된 현 피사체 크기와 비교되고 이 비교 결과로부터 얻어진 차가 0이 되도록 줌 수단이 제어되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  6. 제5항에 있어서, 상기 영상은 다수의 단위 영역들로 나뉘어지고, 예상되는 제1 컬러 영역과 예상되는 제2 컬러 영역이 추출되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  7. 제6항에 있어서, 상기 예상되는 제1 컬러 영역과 상기 예상되는 제2 컬러 영역을 추출할 때 불연속 영역들이 흡수되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  8. 제7항에 있어서, 상기 불연속 영역들을 흡수할 때, 상기 각각의 영역 주위에 집중해 있는 단위 영역에 인접하는 제1 컬러 액상 단위 영역이 존재한다면, 지정된 단위 영역의 영상 정보가 상기 제1 컬러 예상 단위 영역에 흡수되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  9. 제7항에 있어서, 상기 불연속 영역들을 흡수할 때, 상기 각각의 영역 주의에 집중해 있는 단위 영역에 인접하는 제2 컬러 예상 단위 영역이 존재한다면, 지정된 단위 영역의 영상 정보가 상기 제2 컬러 예상 단위 영역에 흡수되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  10. 제7항에 있어서, 상기 제1 컬러 예상 영역과 상기 제2 예상 컬러 영역을 추출할 때, 불연속 영역들이 서로 흡수되고 그 후에 제1 컬러 영역과 제2 컬러 영역이 결합되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  11. 제10항에 있어서, 제1 컬러 영역과 제2 컬러 영역을 결합할 때, 상기 각각의 영역 주위에 집중해 있는 단위 영역에 인접하는 제1 컬러 단위 영역이 존재하면, 지정된 영역의 영상 정보가 컬러 단위 영역의 제1 그룹과 결합되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  12. 제11항에 있어서, 제1 컬러 영역과 제2 컬러 영역을 결합할 때, 제2 예상 컬러 단위 영역에 인접해 있는 단위 영역의 영상 정보와 상기 지정된 단위 영역의 영상 정보는 상기 제2 컬러 예상 단위 영역이 상기 지정된 단위 영역에 인접해 있는 경우, 상기 제2 예상 단위 영역과 결합되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  13. 제10항에 있어서, 상기 제1 컬러 영역과 제2 컬러 영역의 크기가 더 계산되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  14. 제13항에 있어서, 상기 제1 컬러는 머리카락색으로 판정되고 상기 제2 컬러는 피부색으로 판정되는 것을 특징으로 하는 비디오 신호 트랙킹 방법.
  15. 비디오 카메라 시스템에 있어서, 피사체로부터의 광을 초점 맞추는 렌즈 그룹; 상기 렌즈 그룹으로부터의 광을 전기 신호로 변환시키는 영상 소자; 상기 영상 소자로부터의 아날로그 영상 신호를 디지탈 신호로 변환시키는 아낱로그/디지탈 변환기; 아날로그-디지탈 변환된 피사체의 기본 모델을 표현하는 입력 픽처의 영상 데이타를 형성하는 입력 영상 형성 수단; 입력 영상의 상기 영상 데이타로부터 타켓 영역을 추출하는 타겟 영역 추출 수단; 상기 추출된 타겟 영역의 크기를 계산하는 검출 타겟 크기 계산 수단; 기준 타겟 크기 계산 수단으로부터 얻은 기준 타겟의 크기와 기준 검출 타겟 크기 계산 수단으로부터 얻은 검출 타겟의 크기 간의 차를 얻기 위한 차 검출 수단; 및 상기 차가 0이 되도록 상기 차 검출 수단의 차 출력에 대응하는 상기 입력 영상 형성 수단에서 형성된 입력 영상의 크기를 줌하는 입력 영상 줌 수단을 포함하는 것을 특징으르 하는 비디오 카메라 시스템.
  16. 제15항에 있어서, 입력 영상 형성 수단은 상기 타겟 모델로서 얼굴 촬영, 상반신 촬영 또는 전신 촬영에 대응하는 크기를 갖고 있는 입력 영상 데이타를 선택적으로 형성하는 것을 특징으로 하는 비디오 카메라 시스템.
  17. 제16항에 있어서, 상기 타겟 영역은 제1 컬러 영역과 피부색 영역을 포함하는 것을 특징으로 하는 비디오 카메라 시스템.
  18. 제17항에 있어서, 선택된 촬영의 타겟의 기준 크기가 상기 다수의 촬영에 대응하게 제공되는 타겟 크기 테이블로부터 정해진 다음 계산되는 것을 특징으로 하는 비디오 카메라 시스템.
  19. 제18항에 있어서, 상기 기준 타겟의 크기는 검출된 현재의 피사체 크기와 비교되고, 이 비교 결과로 부터 얻어진 차가 0이 되도록 줌 수단이 제어되는 것을 특징으로 하는 비디오 카메라 시스템.
  20. 제19항에 있어서, 상기 영상은 다수의 단위 영역으로 분할되고, 제1 컬러 예상 영역과 제2 컬러 예상 영역이 추출되는 것을 특징으로 하는 비디오 카메라 시스템.
  21. 제20항에 있어서, 불연속 영역들은 상기 제1 컬러 예상 영역과 상기 제2 컬러 예상 영역을 추출할 때 흡수되는 것을 특징으로 하는 비디오 카메라 시스템.
  22. 제21항에 있어서, 상기 불연속 영역들을 흡수할 때, 상기 제1 컬러 예상 단위 영역이 상기 각각의 영역 주위에 집중해 있는 단위 영역에 인접해 있다면 지정된 단위 영역의 영상 정보가 상기 제1 컬러 예상 단위 영역에 흡수되는 것을 특징으로 하는 비디오 카메라 시스템.
  23. 제21항에 있어서, 상기 불연속 영역들을 흡수할 때, 상기 제2 컬러 예상 단위 영역이 상기 각각의 영역 주위에 집중해 있는 단위 영역에 인접해 있다면 지정된 단위 영역의 영상 정보가 상기 제2 컬러 예상 단위 영역에 흡수되는 것을 특징으로 하는 비디오 카메라 시스템.
  24. 제21항에 있어서, 상기 제1 컬러 예상 영역과 상기 제2 컬러 예상 영역을 추출할 때, 불연속 영역들이 흡수된 다음, 제1 컬러 영역과 제2 컬러 영역이 결합되는 것을 특징으로 하는 비디오 카메라 시스템.
  25. 제24항에 있어서, 제1 컬러 영역과 제2 컬러 영역을 결합할 때, 제1 컬러 단위 영역이 상기 각각의 영역 주위에 집중해 있는 단위 영역에 인접해 있다면 지정된 영역의 영상 정보는 컬러 단위 영역의 제1 그룹과 결합되는 것을 특징으로 하는 비디오 카메라 시스템.
  26. 제25항에 있어서, 상기 제1 컬러 영역과 제2 컬러 영역을 결합할 때, 제2 컬러 예상 단위 영역이 지정된 단위 영역에 인접해 있다면 지정된 단위 영역의 영상 정보를 갖고 있는 인접 영역의 영상 정보와, 제2 예상 단위 영역에 인접한 단위 영역의 영상 정보가 제2 예상 컬러 소영역과 결합되는 것을 특징으로 하는 비디오 카메라 시스템.
  27. 제25항에 있어서, 서로 결합된 제1 컬러 영역과 제2 컬러 영역의 크기가 더 계산되는 것을 특징으로 하는 비디오 카메라 시스템.
  28. 제27항에 있어서, 상기 제1 컬러가 머리카락색으로 결정되고, 상기 제2 컬러가 피부색으로 결정되는 것을 특징으로 하는 비디오 카메라 시스템.
  29. 영상화될 피사체의 카메라 출력 신호에 기초하여 디스플레이 평면을 구성하는 화소 정보를 형성하기 위한 화소 정보 형성 수단, 상기 디스플레이 평면 상의 선정된 위치에서 선정된 크기의 표준 측정 프레임을 설정하기 위한 표준 측정 프레임 설정 수단, 상기 디스플레이 평면 상에 선정된 크기의 검출 설정 프레임을 설정하기 위한 검출 측정 프레임 설정 수단, 상기 표준 측정 프레임 내의 영상의 밝기 정보 또는 색상(hue) 정보에 기초하여 색상 각도 또는 밝기 레벨의 표준 빈도 특성 데이타를 형성하기 위한 표준 빈도 특성 데이타 형성 수단, 상기 검출 측정 프레임 내의 영상의 밝기 정보 또는 색상 정보에 기초하여 밝기 레벨 또는 색상 각도의 검출 빈도 특성 데이타를 형성하기 위한 검출 빈도 특성 데이타 형성 수단, 유사성이 많은 검출 빈도 특성 데이타를 갖는 검출 측정 프레임을 결정하기 위해, 표준 빈도 특성 데이타 또는 검출 빈도 특성 데이타의 유사성을 결정하기 위한 검출 측정 프레임 결정 수단, 및 결정된 검출 측정 프레임의 영상 정보를 상기 표준 측정 프레임에 입력시키기 위해, 상기 화소 정보 형성 수단을 구동하여 제어하기 위한 화소 정보 변경 제어 수단을 포함하는 것을 특징으로 하는 비디오 카메라 시스템.
  30. 영상화될 피사체의 카메라 출력 신호에 기초하여 디스플레이 평면을 구성하는 화소 정보를 형성하기 위한 화소 정보 형성 수단, 상기 디스플레이 평면 상의 선정된 위치에서 선정된 크기의 표준 측정 프레임을 설정하기 위한 표준 측정 프레임 설정 수단, 상기 디스플레이 평면 상에 선정된 크기의 검출 설정 프레임을 설정하기 위한 검출 측정 프레임 설정 수단, 상기 표준 측정 프레임 내의 선정된 크기의 주요 특징 검출 측정 프레임을 설정하기 위한 주요 특징 검출 측정 프레임 설정 수단, 빈도 특성 성분의 명칭으로된 상기 주요 특징 검출 측정 프레임 내의 영상의 밝기 정보 또는 색상 정보에 기초하여, 밝기 레벨 또는 색상 각도에 관한 주요 특징 데이타를 형성하기 위한 주요 특징 데이타 형성 수단, 상기 표준 측정 프레임 내의 상기 영상의 밝기 정보 또는 색상 정보에 기초하여, 상기 주요 특징 데이타에 의해 표현된 빈도 특성 성분의 명칭으로 된 표준 빈도 특성 데이타 성분과, 빈도 특성 성분의 다른 명칭으로 된 선정된 값의 표준 빈도 특성 데이타 성분을 갖는 표준 빈도 특성 데이타를 형성하기 위한 표준 빈도 데이타 형성 수단, 상기 검출 측정 프레임 내의 상기 영상의 밝기 정보 또는 색상 정보에 기초하여 밝기 레벨 또는 색상 각도에 관한 검출 빈도 특성 데이타의 특정한 검출 빈도 특성 데이타인, 상기 주요 특징 데이타에 의해 표현된 빈도 특성 성분의 명칭으로된 검출 빈도 특성 데이타 성분과, 빈도 특성 성분의 다른 명칭으로 된 선정된 값의 표준 빈도 특성 데이타 성분을 갖는 특정 검출 빈도 특성 데이타를 형성하기 위한 검출 빈도 특성 데이타 형성 수단, 상기 표준 빈도 특성 데이타와 상기 검출 빈도 특성 데이타 간의 유사성을 결정하여, 유사성이 많은 상기 검출 빈도 특성 데이타를 갖는 상기 검출 측정 프레임을 결정하기 위한 검출 측정 프레임 결정 수단, 및 영상 정보를 상기 결정된 검출 측정 프레임에 입력시키기 위해서, 상기 화소 정보 형성 수단을 구동하여 제어하기 위한 화소 정보 변경 제어 수단을 포함하는 것을 특징으로 하는 비디오 카메라 시스템.
  31. 제29항에 있어서, 상기 검출 측정 프레임 설정 수단은 크기가 서로 다른 다수의 검출 측정 프레임을 설정하고, 상기 검출 빈도 특성 데이타 형성 수단은 다수의 검출 측정 프레임으로부터 상기 검출 빈도 특성 데이타를 형성하며, 상기 검출 측정 프레임 결정 수단은 다수의 검출 측정 프레임의 검출 빈도 특성 데이타로부터 가장 유사성이 많은 검출 측정 프레임을 결정하며, 상기 화소 정보 변경 제어 수단은 상기 검출 측정 프레임 결정 수단에 의해 결정된 검출 측정 프레임의 크기를 상기 표준 측정 프레임의 크기와 동일하게 만들기 위해서, 상기 화소 정보 형성 수단을 줌 제어하는 것을 특징으로 하는 비디오 카메라 시스템.
  32. 제29항에 있어서, 상기 검출 측정 프레임 설정 수단은 상기 디스플레이 평면 상의 서로 다른 선정된 위치에서 다수의 검출 측정 프레임을 설정하고, 상기 검출 빈도 특성 데이타 형성 수단은 상기 다수의 검출 측정 프레임으로 부터 상기 검출 빈도 특성 데이타를 형성하며, 상기 검출 측정 프레임 결정 수단은 상기 다수의 검출 측정 프레임의 상기 검출 빈도 특성 데이타와 가장 유사성이 많은 검출 빈도 특성 데이타를 갖는 특정 검출 측정 프레임을 결정하고, 상기 화소 정보 변경 제어 수단은 상기 검출 측정 프레임 결정 수단에 의해 결정된 상기 검출 측정 프레임 내에 영상 정보를 입력시키기 위해 상기 화소 정보 형성 수단을 제어하는 것을 특징으로 하는 비디오 카메라 시스템.
  33. 제31항에 있어서, 상기 표준 측정 프레임 설정 수단은 상기 디스플레이 평면의 중앙에 상기 표준 측정 프레임을 형성하는 것을 특징으로 하는 비디오 카메라 시스템.
  34. 제31항에 있어서, 상기 검출 측정 프레임 결정 수단은 상기 표준 빈도 특성 데이타와 비교하여 상기 다수의 검출 측정 프레임에 관한 상기 검출 빈도 특성 데이타의 유클리드(Euclidean) 거리를 계산하고, 작은 유클리드 거리를 갖는 검출 측정 프레임을 상기 유사성이 많은 검출 측정 프레임으로 결정하는 것을 특징으로 하는 비디오 카메라 시스템.
KR1019930023646A 1992-11-07 1993-11-06 비디오 카메라 시스템 KR100276681B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP92-322652 1992-11-07
JP92-322655 1992-11-07
JP32265292A JP3487436B2 (ja) 1992-09-28 1992-11-07 ビデオカメラシステム
JP32265592A JP3399995B2 (ja) 1992-11-07 1992-11-07 映像信号追尾方法及びビデオカメラシステム

Publications (2)

Publication Number Publication Date
KR940012384A KR940012384A (ko) 1994-06-23
KR100276681B1 true KR100276681B1 (ko) 2001-01-15

Family

ID=27339930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019930023646A KR100276681B1 (ko) 1992-11-07 1993-11-06 비디오 카메라 시스템

Country Status (2)

Country Link
US (1) US5812193A (ko)
KR (1) KR100276681B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091931B2 (en) 2001-08-17 2006-08-15 Geo-Rae Co., Ltd. Method and system of stereoscopic image display for guiding a viewer's eye motion using a three-dimensional mouse

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493031B1 (en) * 1995-03-31 2002-12-10 Canon Kabushiki Kaisha Visual information processing method and apparatus for extracting feature quantities from a two-dimensional image signal
DE19601005A1 (de) * 1996-01-15 1997-07-17 Bosch Gmbh Robert Verfahren zur Erkennung bewegter Objekte in zeitlich aufeinanderfolgenden Bildern
US7650015B2 (en) 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
KR20010033768A (ko) * 1997-12-31 2001-04-25 프레데릭 티. 바우어 자동차 영상장치
US6380968B1 (en) 1998-01-06 2002-04-30 Intel Corporation Method and apparatus for controlling a remote video camera in a video conferencing system
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP3433125B2 (ja) * 1999-01-27 2003-08-04 三洋電機株式会社 動画像再生装置
US6754389B1 (en) * 1999-12-01 2004-06-22 Koninklijke Philips Electronics N.V. Program classification using object tracking
EP1107584B1 (en) * 1999-12-03 2008-08-27 Fujinon Corporation Automatic following device
AUPQ684600A0 (en) * 2000-04-11 2000-05-11 Safehouse International Limited An object monitoring system
US6850265B1 (en) 2000-04-13 2005-02-01 Koninklijke Philips Electronics N.V. Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications
WO2001088836A1 (en) * 2000-05-18 2001-11-22 Commwell, Inc. Method and apparatus for remote medical monitoring incorporating video processing and system of motor tasks
EP1158801A3 (en) * 2000-05-22 2006-09-13 Matsushita Electric Industrial Co., Ltd. Image communication terminal
US20010055058A1 (en) * 2000-06-08 2001-12-27 Rajko Milovanovic Method and system for video telephony
KR100332639B1 (ko) * 2000-10-05 2002-04-17 이종법 라인 매칭 기법을 이용한 이동 물체 검출 방법
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7742073B1 (en) * 2000-11-01 2010-06-22 Koninklijke Philips Electronics N.V. Method and apparatus for tracking an object of interest using a camera associated with a hand-held processing device
US20020176001A1 (en) * 2001-05-11 2002-11-28 Miroslav Trajkovic Object tracking based on color distribution
GB0116877D0 (en) * 2001-07-10 2001-09-05 Hewlett Packard Co Intelligent feature selection and pan zoom control
KR100445799B1 (ko) * 2001-10-30 2004-08-25 거래주식회사 영상의 디스플레이 방법 및 장치
US20030052971A1 (en) * 2001-09-17 2003-03-20 Philips Electronics North America Corp. Intelligent quad display through cooperative distributed vision
US20040100560A1 (en) * 2002-11-22 2004-05-27 Stavely Donald J. Tracking digital zoom in a digital video camera
US7991192B2 (en) 2002-11-27 2011-08-02 Lockheed Martin Corporation Method of tracking a moving object by an emissivity of the moving object
GB2395853A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Association of metadata derived from facial images
KR100474312B1 (ko) * 2002-12-12 2005-03-10 엘지전자 주식회사 디지털 카메라의 자동 주밍 방법
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8159561B2 (en) * 2003-10-10 2012-04-17 Nikon Corporation Digital camera with feature extraction device
JP2005165984A (ja) * 2003-12-05 2005-06-23 Seiko Epson Corp 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US8503542B2 (en) * 2004-03-18 2013-08-06 Sony Corporation Methods and apparatus to reduce blocking noise and contouring effect in motion compensated compressed video
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US20060115185A1 (en) * 2004-11-17 2006-06-01 Fuji Photo Film Co., Ltd. Editing condition setting device and program for photo movie
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
EP1966648A4 (en) * 2005-12-30 2011-06-15 Nokia Corp METHOD AND DEVICE FOR ADJUSTING THE AUTOFOCUS OF A VIDEO CAMERA BY FOLLOWING A REGION OF INTEREST
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
ATE497218T1 (de) 2006-06-12 2011-02-15 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern
JP4110178B2 (ja) 2006-07-03 2008-07-02 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
EP2050043A2 (en) 2006-08-02 2009-04-22 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20080063389A1 (en) * 2006-09-13 2008-03-13 General Instrument Corporation Tracking a Focus Point by a Remote Camera
JP4850692B2 (ja) * 2006-12-27 2012-01-11 キヤノン株式会社 光学機器及び撮像システム
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP4655054B2 (ja) 2007-02-26 2011-03-23 富士フイルム株式会社 撮像装置
JP5049356B2 (ja) 2007-02-28 2012-10-17 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド テクスチャ空間分解に基づく統計的顔モデリングにおける指向性照明変動性の分離
WO2008107002A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
CN101420523A (zh) * 2007-10-23 2009-04-29 鸿富锦精密工业(深圳)有限公司 拍照装置及方法
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
CN103475837B (zh) 2008-05-19 2017-06-23 日立麦克赛尔株式会社 记录再现装置及方法
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
JP5200780B2 (ja) * 2008-09-08 2013-06-05 ソニー株式会社 撮影装置および方法、並びにプログラム
US8270682B2 (en) * 2008-11-25 2012-09-18 Eastman Kodak Company Hair segmentation
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
JP5538865B2 (ja) * 2009-12-21 2014-07-02 キヤノン株式会社 撮像装置およびその制御方法
JP2011210179A (ja) * 2010-03-30 2011-10-20 Sony Corp 移動物体検出装置及び方法、並びにプログラム
JP5539045B2 (ja) * 2010-06-10 2014-07-02 キヤノン株式会社 撮像装置およびその制御方法、記憶媒体
US9661232B2 (en) 2010-08-12 2017-05-23 John G. Posa Apparatus and method providing auto zoom in response to relative movement of target subject matter
TWI424361B (zh) * 2010-10-29 2014-01-21 Altek Corp 物件追蹤方法
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
JP5851206B2 (ja) * 2011-11-04 2016-02-03 オリンパス株式会社 追尾装置及び追尾方法
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US20150318765A1 (en) * 2014-04-30 2015-11-05 Rossie Owen Terry Electrical motors and methods thereof having reduced electromagnetic emissions
CN106030614A (zh) 2014-04-22 2016-10-12 史內普艾德有限公司 基于对一台摄像机所拍摄的图像的处理来控制另一台摄像机的系统和方法
US9179184B1 (en) 2014-06-20 2015-11-03 Google Inc. Methods, systems, and media for detecting a presentation of media content on a display device
CN104778726A (zh) * 2015-04-29 2015-07-15 深圳市保千里电子有限公司 一种基于人体特征进行运动轨迹跟踪的方法及系统
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
US9769367B2 (en) 2015-08-07 2017-09-19 Google Inc. Speech and computer vision-based control
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US9838641B1 (en) 2015-12-30 2017-12-05 Google Llc Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US9836819B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US9836484B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods that leverage deep learning to selectively store images at a mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
EP3640677B1 (en) * 2018-10-17 2023-08-02 Trimble Jena GmbH Tracker of a surveying apparatus for tracking a target

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987482A (en) * 1987-10-27 1991-01-22 Canon Kabushiki Kaisha Image pickup apparatus having exposure control for human subjects
JPH02140073A (ja) * 1988-08-05 1990-05-29 Omron Tateisi Electron Co カメラの自動追尾制御装置,対象物の自動追尾装置,追尾制御を利用した対象物の方向検出装置,ならびに追尾制御を利用したロボット制御装置
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
US5196929A (en) * 1989-07-05 1993-03-23 Olympus Optical Co., Ltd. Display system of camera having tracking apparatus
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
JP3487436B2 (ja) * 1992-09-28 2004-01-19 ソニー株式会社 ビデオカメラシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091931B2 (en) 2001-08-17 2006-08-15 Geo-Rae Co., Ltd. Method and system of stereoscopic image display for guiding a viewer's eye motion using a three-dimensional mouse
US7190825B2 (en) 2001-08-17 2007-03-13 Geo-Rae Co., Ltd. Portable communication device for stereoscopic image display and transmission

Also Published As

Publication number Publication date
US5812193A (en) 1998-09-22
KR940012384A (ko) 1994-06-23

Similar Documents

Publication Publication Date Title
KR100276681B1 (ko) 비디오 카메라 시스템
US5355163A (en) Video camera that automatically maintains size and location of an image within a frame
US5631697A (en) Video camera capable of automatic target tracking
US6078726A (en) Recording medium, an apparatus for recording a moving image, an apparatus and a system for generating a digest of a moving image, and a method of the same
KR100274999B1 (ko) 비디오 카메라 시스템
JP3733392B2 (ja) 画像の構図変化検出方法
EP0366136B1 (en) Image sensing and processing device
KR100312608B1 (ko) 비디오신호추종처리시스템
US8542941B2 (en) Imaging device, image detecting method and focus adjusting method
JP5279635B2 (ja) 画像処理装置、画像処理方法、および、プログラム
US8189056B2 (en) Image capturing apparatus, angle-of-view adjusting method and recording medium
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JPH0580248A (ja) オートフオーカス装置
JPH06268894A (ja) 自動撮像装置
JPH0730795A (ja) ビデオカメラシステム
US20230148125A1 (en) Image processing apparatus and method, and image capturing apparatus
JP3399995B2 (ja) 映像信号追尾方法及びビデオカメラシステム
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法
JP2004117195A (ja) 速度計測機能付デジタルカメラ
US11669975B2 (en) Subject tracking device, subject tracking method, and imaging apparatus
US20230237758A1 (en) Image processing apparatus, control method therefor, image capturing apparatus, and storage medium
JP2023124598A (ja) 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム
JP2023086270A (ja) 画像処理装置、画像処理方法、撮像装置、プログラムおよび記録媒体
JPH0560714B2 (ko)
JP2011248157A (ja) 撮像装置、撮像方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110928

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee