KR20120124782A - Apparatus and method for processing digital image - Google Patents

Apparatus and method for processing digital image Download PDF

Info

Publication number
KR20120124782A
KR20120124782A KR1020110042626A KR20110042626A KR20120124782A KR 20120124782 A KR20120124782 A KR 20120124782A KR 1020110042626 A KR1020110042626 A KR 1020110042626A KR 20110042626 A KR20110042626 A KR 20110042626A KR 20120124782 A KR20120124782 A KR 20120124782A
Authority
KR
South Korea
Prior art keywords
signal
skin
normalization factor
color
detected
Prior art date
Application number
KR1020110042626A
Other languages
Korean (ko)
Other versions
KR101685419B1 (en
Inventor
정영제
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020110042626A priority Critical patent/KR101685419B1/en
Publication of KR20120124782A publication Critical patent/KR20120124782A/en
Application granted granted Critical
Publication of KR101685419B1 publication Critical patent/KR101685419B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

PURPOSE: A digital image processing apparatus and a method thereof are provided to increase recognition ratio according to brightness by increasing recognition ratio of a neural skin color by using normalized skin color data. CONSTITUTION: A DSP(Digital Signal Processor) converts an RGB(Red, Green, Blue) signal of an image, in which motion is detected, into a YCbCr signal(503). The DSP normalizes a color signal(505). The DSP detects a skin by a back propagation algorithm(507). The DSP calculates a location of the detected pixel(509). The DSP operates zoom based on the calculated location(511). [Reference numerals] (501) Detecting movement; (503) Color change(R/G/B→YCbCr); (505) Normalization Dr=(Cr+n/Y)*m Db=(Cb+n/Y)*m; (507) Detecting a skin by a back propagation algorithm; (509) Calculating a location of the detected pixel; (511) Operating zoom based on the calculated location; (AA) Start; (BB) End

Description

디지털 영상 처리 장치 및 방법{Apparatus and method for processing digital image}Apparatus and method for processing digital image}

본 발명은 이미지 센서를 이용하여 영상 처리를 수행하는 디지털 영상 처리 장치 및 방법에 관한 것이다.The present invention relates to a digital image processing apparatus and method for performing image processing using an image sensor.

일반적인 감시 시스템에서 움직임이 발생한 경우 움직임에 따라 카메라에서 줌이 동작되었다. 특히, 움직임이 발생할 경우 카메라 줌이 동작하여 움직이는 물체를 확대하여 좀 더 자세히 물체를 감시하려는 기능이 자주 사용되었다.When motion occurred in a general surveillance system, the camera zoomed according to the movement. In particular, when a movement occurs, the camera zoom is used to zoom in on a moving object to monitor the object in more detail.

종래의 감시 시스템은 움직임만을 고려하여 모션에 따른 스마트 줌인 경우가 많은데 기후적인 영향(바람, 비) 등 기타 다른 영향에 의한 물체의 움직임도 동일하게 작동되는 문제점이 있었다. 특히 일반적으로 움직이는 물체 중 사람, 특히 얼굴을 주로 감시하고자 할 경우가 많은데 이 경우 사람 이외의 물체 움직임에도 쉽게 스마트 줌이 동작하여 감시에 효율이 떨어지는 문제점이 있다. 또한 기존의 얼굴인식 기술은 시간이 오래 걸리고 실행 시간이 크기가 복잡하여 크기가 작은 감시 카메라 시스템에 알고리즘 내장이 쉽지 않은 문제가 있다. 따라서 움직임 발생 시에 실시간으로 사람의 얼굴 영역만을 감시하는 단순한 기술이 요구된다.Conventional surveillance systems are often smart zoom according to the motion in consideration of the movement, there was a problem that the movement of the object by other influences such as climatic influences (wind, rain) also works the same. In particular, there are many cases where a person, especially a face, is to be mainly monitored among the moving objects. In this case, the smart zoom is easily operated even when the object is moved. In addition, the conventional face recognition technology takes a long time and has a large execution time, which makes it difficult to embed an algorithm into a small surveillance camera system. Therefore, there is a need for a simple technology of monitoring only the face area of a person in real time when a motion occurs.

본 발명이 해결하고자 하는 기술적인 과제는 조도에 따른 인식률을 높이기 위해서 정규화된 스킨 컬러 데이터를 이용하여 줌을 수행하는 디지털 영상 처리 장치 및 방법을 제공하는데 있다.The technical problem to be solved by the present invention is to provide a digital image processing apparatus and method for performing a zoom using the normalized skin color data in order to increase the recognition rate according to the illumination.

본 발명의 일 실시 예에 따른 디지털 영상 처리 방법은 (a) 입력되는 영상의 움직임을 검출하는 단계; (b) 상기 검출된 움직임 영상의 휘도신호를 이용하여 상기 검출된 움직임 영상의 컬러신호를 정규화하는 단계; (c) 역전파 알고리즘을 이용하여 상기 정규화된 신호로부터 피부를 검출하는 단계; 및 (d) 상기 피부로 검출된 영역을 중심으로 줌을 수행하는 단계를 포함한다.A digital image processing method according to an embodiment of the present invention includes the steps of (a) detecting the movement of the input image; (b) normalizing a color signal of the detected motion image by using the luminance signal of the detected motion image; (c) detecting skin from the normalized signal using a backpropagation algorithm; And (d) zooming around the area detected by the skin.

본 발명에 있어서, 상기 (b)단계에서 정규화 시에 상기 컬러신호에 제1 정규화 팩터를 가산한 값을 상기 휘도신호로 나눈 후, 제2 정규화 팩터를 곱하여 정규 신호를 출력할 수 있다.In the present invention, after normalizing in step (b), a value obtained by adding a first normalization factor to the color signal may be divided by the luminance signal, and then a normal signal may be output by multiplying a second normalization factor.

본 발명에 있어서, 상기 제1 정규화 팩터는 상기 컬러 신호를 양의 값으로 만들어 주는 비트 이동 계수 이고, 상기 제2 정규화 팩터는 상기 역전파 알고리즘 입력 값을 생성하기 위한 0-1 사이의 값일 수 있다.In the present invention, the first normalization factor may be a bit shift coefficient for making the color signal positive, and the second normalization factor may be a value between 0-1 for generating the backpropagation algorithm input value. .

본 발명의 다른 실시 예에 따른 디지털 영상 처리 장치는 입력되는 영상신호 및 이전 영상신호를 이용하여 움직임을 검출하는 움직임 검출부; 상기 검출된 움직임 영상의 휘도신호를 이용하여 상기 검출된 움직임 영상의 컬러신호를 정규화하는 정규화부; 역전파 알고리즘을 이용하여 상기 정규화된 신호로부터 피부를 검출하는 피부 검출부; 및 상기 피부로 검출된 영역을 중심으로 줌 수행 신호를 출력하는 줌 제어부를 포함한다.According to another aspect of the present invention, there is provided a digital image processing apparatus including a motion detector configured to detect a motion by using an input image signal and a previous image signal; A normalizer for normalizing a color signal of the detected motion image by using the luminance signal of the detected motion image; A skin detector for detecting skin from the normalized signal using a backpropagation algorithm; And a zoom controller configured to output a zoom performing signal centering on the area detected by the skin.

본 발명에 있어서, 상기 정규화부는 상기 컬러신호에 제1 정규화 팩터를 가산한 값을 상기 휘도신호로 나눈 후, 제2 정규화 팩터를 곱하여 정규 신호를 출력할 수 있다.In the present invention, the normalization unit may divide a value obtained by adding a first normalization factor to the color signal by the luminance signal, and then multiply a second normalization factor to output a normal signal.

본 발명에 있어서, 상기 제1 정규화 팩터는 상기 컬러 신호를 양의 값으로 만들어 주는 비트 이동 계수 이고, 상기 제2 정규화 팩터는 상기 역전파 알고리즘 입력 값을 생성하기 위한 0-1 사이의 값일 수 있다.In the present invention, the first normalization factor may be a bit shift coefficient for making the color signal positive, and the second normalization factor may be a value between 0-1 for generating the backpropagation algorithm input value. .

상술한 바와 같이 본 발명에 따르면, 정규화된 스킨 컬러 데이터를 이용하여 신경망 스킨 컬러의 인식률을 높여 줌을 수행함으로써 조도에 따른 인식률을 높일 수 있고, 계산량 및 학습 시간을 감소하여 빠른 줌 처리가 가능하다.As described above, according to the present invention, by increasing the recognition rate of the neural network skin color by using the normalized skin color data, the recognition rate according to the illumination can be increased, and the calculation amount and the learning time can be reduced, so that a quick zoom process is possible. .

도 1은 본 발명의 일 실시 예에 따른 디지털 영상 처리 장치가 적용된 감시 시스템을 보여주는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 디지털 영상 처리 장치의 구성을 보이는 블록도 이다.
도 3은 도 2 중 디지털 신호 처리부의 상세 블록도 이다.
도 4는 도 3 중 역전파 알고리즘으로 사전학습을 통해 생성되는 가중치를 설명하는 도면이다.
도 5는 본 발명의 다른 실시 예에 따른 디지털 영상 처리 방법의 동작을 보이는 흐름도 이다.
1 is a diagram illustrating a surveillance system to which a digital image processing apparatus is applied according to an exemplary embodiment.
2 is a block diagram illustrating a configuration of a digital image processing apparatus according to an exemplary embodiment.
3 is a detailed block diagram of the digital signal processor of FIG. 2.
FIG. 4 is a diagram illustrating weights generated through pre-learning by the back-propagation algorithm of FIG. 3.
5 is a flowchart illustrating an operation of a digital image processing method according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, do.

도 1은 본 발명의 일 실시 예에 따른 디지털 영상 처리 장치가 적용된 감시 시스템을 보여주는 도면이다.1 is a diagram illustrating a surveillance system to which a digital image processing apparatus is applied according to an exemplary embodiment.

도 1을 참조하면, 감시 카메라들(101, 111, 121)은, 통신 신호들(Dcom)에 의하여 호스트 장치로서의 호스트 장치(2)와 통신하면서, 라이브 뷰(live view)의 비디오 신호(Svid)를 호스트 장치(2)에 전송한다. 호스트 장치(2)에서 수신된 비디오 신호(Svid)는, 디스플레이 장치를 통하여 디스플레이되는 한편, 기록 장치 예를 들어, 하드 디스크 드라이브(hard disk drive)에 저장된다.Referring to FIG. 1, the surveillance cameras 101, 111, 121 communicate with a host device 2 as a host device by means of communication signals Dcom, while a video signal Svid of a live view is present. Is transmitted to the host device 2. The video signal Svid received at the host device 2 is displayed via a display device, while being stored in a recording device, for example a hard disk drive.

감시 카메라들(101, 111, 121) 각각은 동축(coaxial) 케이블을 통하여 호스트 장치(2)와 통신하면서 비디오 신호(Svid)를 호스트 장치(2)에 전송한다. 이에 따라, 호스트 장치(2)로 전송되는 비디오 신호(Svid)의 수직 블랭크 구간(vertical blank interval)에서 통신 신호들(Dcom)이 송수신된다.Each of the surveillance cameras 101, 111, 121 transmits a video signal Svid to the host device 2 while communicating with the host device 2 via a coaxial cable. Accordingly, the communication signals Dcom are transmitted and received in the vertical blank interval of the video signal Svid transmitted to the host device 2.

호스트 장치(2)로부터의 제어 신호들에 의하여 감시 카메라들(101, 111, 121) 각각은 좌우 회전의 패닝(panning) 및 상하 회전의 틸팅(tilting)을 수행한다.In response to control signals from the host device 2, the surveillance cameras 101, 111, 121 each perform panning of left and right rotations and tilting of up and down rotations.

여기에서, 호스트 장치(2)는 본 발명의 일 실시 예에 의한 감시 카메라 제어 방법에 따라 감시 카메라(101, 111, 121) 각각의 동작을 제어한다. 이와 관련된 내용은 도 2 내지 도 4를 참조하여 상세히 설명될 것이다.Here, the host device 2 controls the operations of each of the surveillance cameras 101, 111, and 121 according to the surveillance camera control method according to an embodiment of the present disclosure. Related contents will be described in detail with reference to FIGS. 2 to 4.

도 2는 본 발명의 일 실시 예에 따른 디지털 영상 처리 장치의 구성을 보이는 블록도 이다.2 is a block diagram illustrating a configuration of a digital image processing apparatus according to an exemplary embodiment.

도 2를 참조하면, 디지털 영상 처리 장치는 광학계(OPS), 광전 변환부(OEC), CDS-ADC(correlation double sampler and analog-to-digital converter, 210), 타이밍 회로(220), 제어부로서의 디지털 신호 처리기(DSP, digital signal processor, 230), 비디오-신호 발생부(240), 조리개 모터(MA), 줌 모터(MZ), 포커스 모터(MF), 필터 모터(MD), 패닝 모터(MP), 틸팅 모터(MT), 구동부(250), 통신 인터페이스(260), 마이크로-컴퓨터(270) 및 조명부(280)를 포함한다.2, the digital image processing apparatus includes an optical system (OPS), a photoelectric conversion unit (OEC), a correlation double sampler and analog-to-digital converter (CDS-ADC) 210, a timing circuit 220, and a digital as a controller. Digital signal processor (DSP) 230, video-signal generator 240, aperture motor (M A ), zoom motor (M Z ), focus motor (M F ), filter motor (M D ), panning The motor M P , the tilting motor M T , the driver 250, the communication interface 260, the micro-computer 270, and the lighting unit 280 are included.

렌즈부와 필터부를 포함한 광학계(OPS)는 피사체로부터의 빛을 광학적으로 처리한다. The optical system OPS including the lens unit and the filter unit optically processes light from a subject.

광학계(OPS)의 렌즈부는 줌 렌즈 및 포커스 렌즈를 포함한다. 광학계(OPS)의 필터부에 있어서, 야간 동작 모드에 사용되는 광학적 저역통과필터(OLPF, optical low pass filter)는 고주파 함량의 광학적 노이즈를 제거한다. 주간 동작 모드에 사용되는 적외선 차단 필터(IRF, infra-red cut filter)는 입사되는 빛의 적외선 성분을 차단한다.The lens unit of the optical system OPS includes a zoom lens and a focus lens. In the filter section of the optical system OPS, an optical low pass filter (OLPF) used in a night mode of operation removes high frequency optical noise. Infra-red cut filters (IRFs) used in daytime mode of operation block the infrared component of incident light.

CCD(charge coupled device) 또는 CMOS (complementary metal-oxide- semiconductor)의 광전 변환부(OEC)는 광학계(OPS)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 여기에서, 디지털 신호 처리기(230)는 타이밍 회로(220)를 제어하여 광전 변환부(OEC)와 CDS-ADC(correlation double sampler and analog-to-digital converter, 210)의 동작을 제어한다. A photoelectric converter (OEC) of a charge coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS) converts light from an optical system (OPS) into an electrical analog signal. Here, the digital signal processor 230 controls the timing circuit 220 to control operations of the photoelectric converter OEC and the correlation double sampler and analog-to-digital converter 210.

CDS-ADC(210)는, 광전 변환부(OEC)로부터의 아날로그 영상 신호를 처리하여, 그 고주파 노이즈를 제거하고 진폭을 조정한 후, 디지털 영상 데이터로 변환시킨다. 이 디지털 영상 데이터는 디지털 신호 처리기(230)에 입력된다.The CDS-ADC 210 processes the analog video signal from the photoelectric converter (OEC), removes the high frequency noise, adjusts the amplitude, and converts the digital video data. This digital image data is input to the digital signal processor 230.

주 제어부로서의 디지털 신호 처리기(230)는 CDS-ADC 소자(210)로부터의 디지털 신호를 처리하여 휘도 및 색도 신호로 분류된 디지털 영상 데이터를 발생시킨다. The digital signal processor 230 as the main controller processes the digital signal from the CDS-ADC element 210 to generate digital image data classified into luminance and chroma signals.

비디오-신호 발생부(240)는 디지털 신호 처리기(230)로부터의 디지털 영상 데이터를 아날로그 영상 신호인 비디오 신호(SVID)로 변환한다. The video-signal generator 240 converts digital image data from the digital signal processor 230 into a video signal S VID which is an analog image signal.

주 제어부로서의 디지털 신호 처리기(230)는, 통신 인터페이스(260) 및 통신 채널(DCOM)을 통하여 호스트 장치들 예를 들어, 컴퓨터들과 통신하면서, 비디오 신호 채널(SVID)을 통하여 비디오-신호 발생부(240)로부터의 비디오 신호를 호스트 장치들에 전송한다.The digital signal processor 230 as the main control unit communicates with host devices, for example, computers, via a communication interface 260 and a communication channel D COM , and video-signal via a video signal channel S VID . The video signal from the generator 240 is transmitted to the host devices.

한편, 마이크로-컴퓨터(270)는 구동부(250)를 제어하여 조리개 모터(MA), 줌 모터(MZ), 포커스 모터(MF), 필터 모터(MD), 패닝 모터(MP) 및 틸팅 모터(MT)를 구동한다. 또한, 마이크로-컴퓨터(270)는 조명부(280)를 제어하여 조명광을 비춘다. Meanwhile, the micro-computer 270 controls the driving unit 250 to control the aperture motor M A , the zoom motor M Z , the focus motor M F , the filter motor M D , and the panning motor M P. And a tilting motor M T. In addition, the micro-computer 270 controls the lighting unit 280 to illuminate the illumination light.

조리개 모터(MA)는 조리개를 구동하고, 줌 모터(MZ)는 줌 렌즈를 구동하며, 포커스 모터(MF)는 포커스 렌즈를 구동한다. 필터 모터(MD)는 필터부에서의 광학적 저역통과필터(OLPF)와 적외선 차단 필터(IRF)를 구동한다.The aperture motor M A drives the aperture, the zoom motor M Z drives the zoom lens, and the focus motor M F drives the focus lens. The filter motor M D drives the optical low pass filter OLPF and the infrared cut filter IRF at the filter part.

패닝 모터(MP)는 광학계(OPS)를 좌우로 회전시킨다. 틸팅 모터(MT)는 광학계(OPS)를 상하로 회전시킨다. The panning motor M P rotates the optical system OPS from side to side. The tilting motor M T rotates the optical system OPS up and down.

이하, 주 제어부로서의 디지털 신호 처리기(230)에 의하여 수행되는 정규화된 스킨 컬러 데이터를 이용하여 신경망 스킨 컬러의 인식을 도 3 및 도 4를 참조하여 설명한다.Hereinafter, recognition of the neural network skin color using normalized skin color data performed by the digital signal processor 230 as the main controller will be described with reference to FIGS. 3 and 4.

도 3은 도 2 중 디지털 신호 처리부(230)의 상세 블록도 이다.3 is a detailed block diagram of the digital signal processor 230 of FIG. 2.

도 3을 참조하면, 디지털 신호 처리부(230)는 버퍼(231), 움직임 검출붐(232), 변환부(233), 정규화부(234), 피부 검출부(235), 위치 계산부(236) 및 줌 제어부(237)를 포함한다.Referring to FIG. 3, the digital signal processor 230 includes a buffer 231, a motion detection boom 232, a converter 233, a normalizer 234, a skin detector 235, a position calculator 236, and And a zoom control unit 237.

움직임 검출부(232)는 입력되는 현재(t) 영상 및 버퍼(231)에 저장된 이전(t-1) 영상을 비교하여 움직임을 검출한다.The motion detector 232 detects motion by comparing an input current (t) image with a previous (t-1) image stored in the buffer 231.

변환부(233)는 움직임이 검출된 영상의 RGB 신호를 휘도신호 및 색차신호인 YCbCr 신호로 변환한다.The converting unit 233 converts the RGB signal of the motion detected image into a YCbCr signal which is a luminance signal and a color difference signal.

정규화부(234)는 검출된 움직임 영상의 휘도신호(Y)를 이용하여, 검출된 움직임 영상의 컬러신호(CbCr)를 정규화하며, 정규화된 출력신호(DbDr)는 하기 수학식 1과 같다.The normalizer 234 normalizes the color signal CbCr of the detected motion image by using the luminance signal Y of the detected motion image, and the normalized output signal DbDr is represented by Equation 1 below.

Figure pat00001
Figure pat00001

수학식 1에서 n은 제1 정규화 팩터로, Cr 값이 음수로 표현되는 경우 양수로 표현하기 위해 비트를 시프트하는 값이다. 또한 m은 제2 정규화 팩터로 후술하는 피부 검출을 위한 역전파 알고리즘 이용 시에 입력 값을 생성하기 위한 0-1 사이의 계수값이다. 이와 같이 정규화 시에 컬러신호(CbCr)를 휘도신호(Y)로 나누기 때문에, 역전파 알고리즘을 이용하여 피부 검출 시에, 조도의 영향도가 제거되어 판단 경계 영역이 작아서 피부 인식율을 높일 수 있고, 계산량 및 학습시간이 감소되어 처리속도가 개선된다.In Equation 1, n is a first normalization factor, and when the Cr value is expressed as a negative number, n is a value shifted in order to express a positive number. M is a second normalization factor and is a coefficient value between 0-1 for generating an input value when using a backpropagation algorithm for skin detection described later. Since the color signal CbCr is divided by the luminance signal Y at the time of normalization, the influence of illuminance is removed at the time of skin detection using a backpropagation algorithm, so that the judgment boundary area is small, so that the skin recognition rate can be increased. The computational speed and learning time are reduced to improve the processing speed.

피부 검출부(225)는 정규화 신호(DrDb) 입력 및 사전 학습으로 획득된 가중치로 역전파 알고리즘을 수행하여 피부를 검출한다. The skin detector 225 detects the skin by performing a backpropagation algorithm based on the weight obtained by inputting the normalization signal DrDb and prior learning.

도 4에는 역전파 알고리즘으로 사전학습을 통해 생성되는 가중치를 설명하는 도면이 개시되어 있다. 도 4를 참조하면, 역전파 알고리즘 수행부(235-1)는 입력층/은닉층/출력층의 다층(multilayer)으로 구성되어 있어서 비선형적인 경계 영역을 설정 시에 유용하다. 일반적으로 학습을 위해서는 입력 데이터와 출력 데이터가 있어야 한다. 입력 데이터는 사전에 입력영상의 RBG 신호를 YCbCr 신호로 변환하여 정규화한 값(DbDr, 도 3참조)이다. 이 입력 데이터(DrDb)가 신경망의 가중치(Wji,Wkj)와 곱하고 더하는 과정을 반복하여 결과가 출력되면, 원하는 출력값과 비교하여 오차를 계산하고 오차에 비례하여 츨력층 및 은닉층의 가중치(Wji,Wkj)를 역으로 갱신하는 과정을 통하여 가중치(Wji,Wkj)를 갱신한다. 출력 데이터는 입력층, 은닉층, 출력층 방향으로 진행되며, 가중치(Wji,Wkj)의 갱신은 출력층, 은닉층의 반대 방향으로 진행된다. 이와 같은 역전파 알고리즘은 주지 관용의 기술이므로 상세한 설명은 생략한다.4 is a diagram illustrating a weight generated through pre-learning with a back-propagation algorithm. Referring to FIG. 4, the backpropagation algorithm performing unit 235-1 is formed of a multilayer of an input layer, a hidden layer, and an output layer, and thus is useful when setting a nonlinear boundary region. In general, learning requires input data and output data. The input data is a value (DbDr (see FIG. 3)) which is previously normalized by converting the RBG signal of the input image into a YCbCr signal. When the input data DrDb is multiplied by the weight of the neural network (W ji , W kj ) and repeated, the result is outputted. ji , W kj ) is updated inversely to update the weight (W ji , W kj ). The output data proceeds in the direction of the input layer, the hidden layer, and the output layer, and the update of the weights W ji and W kj proceeds in the opposite directions of the output layer and the hidden layer. Since such a backpropagation algorithm is a well-known conventional technique, detailed description is omitted.

피부 검출부(235)는 역전파 알고리즘을 수행하여 해당 영상 신호에 피부 색이 검출되면 1, 그렇지 않으면 0을 출력한다.The skin detector 235 performs a backpropagation algorithm and outputs 1 when the skin color is detected in the corresponding video signal, and 0 otherwise.

위치 계산부(236)는 피부로 검출된 픽셀의 개수를 카운트하고, 그 위치를 계산한다.The position calculator 236 counts the number of pixels detected by the skin and calculates the position.

줌 제어부(237)는 위치 계산부(236)가 카운트한 픽셀이 일정 개수 이상이면, 해당 위치를 중심으로 줌을 수행하는 줌 제어 신호를 구동부(250)로 출력한다. 구동부(250)는 줌 제어신호를 수신하여 줌 모터(MZ)를 작동시킨다.If the number of pixels counted by the position calculator 236 is greater than or equal to a certain number, the zoom controller 237 outputs a zoom control signal to the driver 250 to perform zooming around the corresponding position. The driver 250 receives the zoom control signal to operate the zoom motor M Z.

도 5는 본 발명의 다른 실시 예에 따른 디지털 영상 처리 방법의 동작을 보이는 흐름도 이다.5 is a flowchart illustrating an operation of a digital image processing method according to another embodiment of the present invention.

디지털 신호 처리부(230)는 입력되는 현재(t) 영상 및 버퍼(231)에 저장된 이전(t-1) 영상을 비교하여 움직임을 검출한다(501단계).The digital signal processor 230 detects a motion by comparing the current (t) image and the previous (t-1) image stored in the buffer 231 (step 501).

이어서, 디지털 신호 처리부(230)는 움직임이 검출된 영상의 RGB 신호를 YCbCr 신호로 변환한다(503단계).Subsequently, the digital signal processor 230 converts the RGB signal of the image from which the motion is detected into a YCbCr signal (step 503).

디지털 신호 처리부(230)는 휘도신호(Y), 제1 정규화 팩터 및 제2 정규화 팩터를 이용하여 컬러신호(CbCr)를 정규화한다(505단계). 정규화된 신호(DbDr)는 역전파 알고리즘의 입력 데이터로 이용된다.The digital signal processor 230 normalizes the color signal CbCr using the luminance signal Y, the first normalization factor, and the second normalization factor (step 505). The normalized signal DbDr is used as input data of the backpropagation algorithm.

이후 디지털 신호 처리부(23)는 정규화 신호(DrDb) 입력 및 사전 학습으로 획득된 가중치로 역전파 알고리즘을 수행하여 피부를 검출한다(507단계). 디지털 신호 처리부(230)는 피부 색이 검출되면 검출되면 1, 그렇지 않으면 0을 출력한다.Thereafter, the digital signal processor 23 detects the skin by performing a backpropagation algorithm based on the weight obtained by inputting the normalized signal DrDb and pre-learning (step 507). The digital signal processor 230 outputs 1 when the skin color is detected and 0 when it is detected.

피부색이 검출되면, 디지털 신호 처리부(230)는 피부로 검출된 픽셀의 개수를 카운트하고, 그 위치를 계산한다(509단계).When the skin color is detected, the digital signal processor 230 counts the number of pixels detected by the skin and calculates the position (step 509).

위치가 계산되면, 디지털 신호 처리부(230)는 해당 위치를 중심으로 줌을 수행하는 줌 제어 신호를 구동부(250)로 출력하고, 구동부(250)는 줌 제어신호를 수신하여 줌 모터(MZ)를 작동시킨다(511단계).When the position is calculated, the digital signal processor 230 outputs a zoom control signal for zooming around the position to the driver 250, and the driver 250 receives the zoom control signal to receive the zoom motor M Z. Start operation (step 511).

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the invention in detail and is not to be construed as a limitation on the scope of the invention, It is not. In addition, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made depending on design conditions and factors within the scope of the appended claims or equivalents thereof.

101,111,121: 감시 카메라 2: 호스트 장치
OPS: 광학계 OEC: 광전 변환부
210: CDS-ADC 220: 타이밍 회로
230: 디지털 신호 처리기 240: 비디오-신호 발생부
250: 구동부 260: 통신 인터페이스
270: 마이크로-컴퓨터 280: 조명부
231: 버퍼 232: 움직임 검출부
233: 변환부 234: 정규화부
235: 피부 검출부 236: 위치 계산부
237: 줌 제어부
101,111,121: surveillance camera 2: host device
OPS: Optical System OEC: Photoelectric Converter
210: CDS-ADC 220: timing circuit
230: digital signal processor 240: video-signal generator
250: drive unit 260: communication interface
270: micro-computer 280: lighting unit
231: buffer 232: motion detection unit
233: conversion unit 234: normalization unit
235: skin detection unit 236: position calculation unit
237: zoom control

Claims (6)

a) 입력되는 영상의 움직임을 검출하는 단계;
(b) 상기 검출된 움직임 영상의 휘도신호를 이용하여 상기 검출된 움직임 영상의 컬러신호를 정규화하는 단계;
(c) 역전파 알고리즘을 이용하여 상기 정규화된 신호로부터 피부를 검출하는 단계; 및
(d) 상기 피부로 검출된 영역을 중심으로 줌을 수행하는 단계를 포함하는 디지털 영상 처리 방법.
a) detecting a movement of an input image;
(b) normalizing a color signal of the detected motion image by using the luminance signal of the detected motion image;
(c) detecting skin from the normalized signal using a backpropagation algorithm; And
and (d) zooming around the area detected by the skin.
제 1항에 있어서, 상기 (b)단계에서 정규화 시에
상기 컬러신호에 제1 정규화 팩터를 가산한 값을 상기 휘도신호로 나눈 후, 제2 정규화 팩터를 곱하여 정규 신호를 출력하는 디지털 영상 처리 방법.
The method of claim 1, wherein in normalizing in the step (b),
And dividing a value obtained by adding a first normalization factor to the color signal by the luminance signal, and then multiplying a second normalization factor to output a normal signal.
제 2항에 있어서, 상기 제1 정규화 팩터는 상기 컬러 신호를 양의 값으로 만들어 주는 비트 이동 계수 이고, 상기 제2 정규화 팩터는 상기 역전파 알고리즘 입력 값을 생성하기 위한 0-1 사이의 값인 디지털 영상 처리 방법.3. The method of claim 2, wherein the first normalization factor is a bit shift coefficient that makes the color signal positive, and the second normalization factor is a value between 0-1 for generating the backpropagation algorithm input value. Image processing method. 입력되는 영상신호 및 이전 영상신호를 이용하여 움직임을 검출하는 움직임 검출부;
상기 검출된 움직임 영상의 휘도신호를 이용하여 상기 검출된 움직임 영상의 컬러신호를 정규화하는 정규화부;
역전파 알고리즘을 이용하여 상기 정규화된 신호로부터 피부를 검출하는 피부 검출부; 및
상기 피부로 검출된 영역을 중심으로 줌 수행 신호를 출력하는 줌 제어부를 포함하는 디지털 영상 처리 장치.
A motion detector for detecting a motion by using an input video signal and a previous video signal;
A normalizer for normalizing a color signal of the detected motion image by using the luminance signal of the detected motion image;
A skin detector for detecting skin from the normalized signal using a backpropagation algorithm; And
And a zoom controller configured to output a zoom performing signal centering on the area detected by the skin.
제 4항에 있어서, 상기 정규화부는
상기 컬러신호에 제1 정규화 팩터를 가산한 값을 상기 휘도신호로 나눈 후, 제2 정규화 팩터를 곱하여 정규 신호를 출력하는 디지털 영상 처리 장치.
The method of claim 4, wherein the normalization unit
And dividing a value obtained by adding a first normalization factor to the color signal by the luminance signal, and then multiplying a second normalization factor to output a normal signal.
제 5항에 있어서, 상기 제1 정규화 팩터는 상기 컬러 신호를 양의 값으로 만들어 주는 비트 이동 계수 이고, 상기 제2 정규화 팩터는 상기 역전파 알고리즘 입력 값을 생성하기 위한 0-1 사이의 값인 디지털 영상 처리 장치.6. The method of claim 5, wherein the first normalization factor is a bit shift coefficient that makes the color signal positive, and the second normalization factor is a value between 0-1 for generating the backpropagation algorithm input value. Image processing device.
KR1020110042626A 2011-05-04 2011-05-04 Apparatus and method for processing digital image KR101685419B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110042626A KR101685419B1 (en) 2011-05-04 2011-05-04 Apparatus and method for processing digital image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110042626A KR101685419B1 (en) 2011-05-04 2011-05-04 Apparatus and method for processing digital image

Publications (2)

Publication Number Publication Date
KR20120124782A true KR20120124782A (en) 2012-11-14
KR101685419B1 KR101685419B1 (en) 2016-12-12

Family

ID=47510061

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110042626A KR101685419B1 (en) 2011-05-04 2011-05-04 Apparatus and method for processing digital image

Country Status (1)

Country Link
KR (1) KR101685419B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2566050A (en) * 2017-08-31 2019-03-06 Imagination Tech Ltd Luminance-normalised colour spaces
KR20210116748A (en) * 2020-03-13 2021-09-28 동국대학교 산학협력단 Apparatus and method for motionbased frame condensation in videos using deep neural network

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040079804A (en) * 2003-03-06 2004-09-16 삼성전자주식회사 CCTV system capable of detecting face image and method for detecting face image thereof
KR20090055426A (en) * 2007-11-28 2009-06-02 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR20100101819A (en) * 2009-03-10 2010-09-20 엘지전자 주식회사 Method for processing image and terminal using the same
KR20120035807A (en) * 2010-10-06 2012-04-16 원광대학교산학협력단 A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040079804A (en) * 2003-03-06 2004-09-16 삼성전자주식회사 CCTV system capable of detecting face image and method for detecting face image thereof
KR20090055426A (en) * 2007-11-28 2009-06-02 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR20100101819A (en) * 2009-03-10 2010-09-20 엘지전자 주식회사 Method for processing image and terminal using the same
KR20120035807A (en) * 2010-10-06 2012-04-16 원광대학교산학협력단 A recognition system of facial expression for laughter therapy on mobile terminal, and a method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2566050A (en) * 2017-08-31 2019-03-06 Imagination Tech Ltd Luminance-normalised colour spaces
EP3451294A1 (en) * 2017-08-31 2019-03-06 Imagination Technologies Limited Luminance-normalised colour spaces
GB2566050B (en) * 2017-08-31 2021-08-25 Imagination Tech Ltd Luminance-normalised colour spaces
US11574387B2 (en) 2017-08-31 2023-02-07 Imagination Technologies Limited Luminance-normalised colour spaces
KR20210116748A (en) * 2020-03-13 2021-09-28 동국대학교 산학협력단 Apparatus and method for motionbased frame condensation in videos using deep neural network

Also Published As

Publication number Publication date
KR101685419B1 (en) 2016-12-12

Similar Documents

Publication Publication Date Title
JP5882455B2 (en) High resolution multispectral image capture
US10204275B2 (en) Image monitoring system and surveillance camera
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
KR20110102695A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
WO2006008944A1 (en) Image processor, image processing method, image processing program, and recording medium on which the program is recorded
CN107635099B (en) Human body induction double-optical network camera and security monitoring system
KR101396326B1 (en) Method of controlling digital image processing apparatus for face detection, and image processing apparatus adopting the method
JP5708036B2 (en) Imaging device
CN102088539A (en) Method and system for evaluating pre-shot picture quality
KR101375186B1 (en) Method for detecting disturbance of monitoring camera
KR101685419B1 (en) Apparatus and method for processing digital image
KR20100118368A (en) Fire detecting method using hidden markov models in video surveillance and monitoring system
KR101920369B1 (en) Apparatus and method for image processing of thermal imaging camera
US8588530B2 (en) Method and camera for detecting a region having a specific shape
JP5539565B2 (en) Imaging apparatus and subject tracking method
KR101706221B1 (en) Security camera and Method of controlling thereof
JP2019215661A (en) Image quality adjustment system and image quality adjustment method
CN105635718A (en) Image capture device
US20210297573A1 (en) Imaging device, control method, and storage medium
US20140267889A1 (en) Camera lens button systems and methods
KR101630285B1 (en) Apparatus and method for color rolling suppression
KR101665392B1 (en) Shape detection method in camera
KR20190139788A (en) Methods and apparatus for capturing media using plurality of cameras in electronic device
WO2013114802A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
KR101990815B1 (en) Remote monitoring system, monitoring method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191126

Year of fee payment: 4