KR20090027550A - System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure - Google Patents

System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure Download PDF

Info

Publication number
KR20090027550A
KR20090027550A KR1020070107166A KR20070107166A KR20090027550A KR 20090027550 A KR20090027550 A KR 20090027550A KR 1020070107166 A KR1020070107166 A KR 1020070107166A KR 20070107166 A KR20070107166 A KR 20070107166A KR 20090027550 A KR20090027550 A KR 20090027550A
Authority
KR
South Korea
Prior art keywords
value
label
information
image
labeling
Prior art date
Application number
KR1020070107166A
Other languages
Korean (ko)
Inventor
김민석
김영현
Original Assignee
주식회사 코아로직
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코아로직 filed Critical 주식회사 코아로직
Priority to KR1020070107166A priority Critical patent/KR20090027550A/en
Publication of KR20090027550A publication Critical patent/KR20090027550A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

An apparatus and a method detecting an image object and a recording medium thereof are provided to detect an object in an image by performing labeling technique effectively with small memory and simple calculation. An image object detecting apparatus comprises the followings: a detecting unit(210) detecting a value of a surrounding pixel based on the labeled pixel; a labeling unit(220) determining existence of a value of a binary image on the value of the surrounding pixel and converting the value of label into a new label value or the surrounding pixel; and a detection object determining unit(260) determining a detection object by using a statistical calculation value in which the label value is given.

Description

영상 오브젝트 검출장치와 방법 및 그 기록매체{SYSTEM AND METHOD FOR DETECTING OBJECT OF IMAGE AND COMPUTER READABLE MEDIUM STORED THEREON COMPUTER EXECUTABLE INSTRUCTION RECORDED WITH TIME-SERIES DATA STRUCTURE}FIELD AND METHOD FOR DETECTING OBJECT OF IMAGE AND COMPUTER READABLE MEDIUM STORED THEREON COMPUTER EXECUTABLE INSTRUCTION RECORDED WITH TIME-SERIES DATA STRUCTURE}

본 발명은 영상에 포함되는 피사체의 각 대상을 검출하는 영상에서의 오브젝트 검출장치 및 방법에 관한 것으로 더욱 구체적으로는 주변 픽셀과의 상관 관계를 이용한 라벨링을 이용한 오브젝트 검출장치 및 방법에 대한 것이다. The present invention relates to an object detecting apparatus and method in an image for detecting each target of a subject included in an image, and more particularly, to an object detecting apparatus and method using labeling using correlation with surrounding pixels.

영상 신호 처리의 다양한 응용 기법 중 라벨링은 영상 내에서 서로 이격되어 있는 대상체(피사체)들을 구별하고자 하는 경우 사용되는 영상처리기법을 의미한다. Among various application techniques of image signal processing, labeling refers to an image processing technique used to distinguish objects (subjects) spaced apart from each other in an image.

이러한 라벨링 기법은 영상 내에 대상체가 복수 개 존재하는 경우, 라벨링(labeling)의 과정을 통해 대상체마다 고유번호를 부여하고, 이후 관심 대상이 되는 특정 대상체만을 프로세싱하고자 하는 경우, 상기 특정 대상체에 부여된 고유 번호를 이용하여 활용하는 기법을 의미한다.Such a labeling technique is used to assign a unique number to each object through a labeling process when there are a plurality of objects in the image, and to process only a specific object of interest afterwards, and then, uniquely assigned to the specific object. It refers to a technique used by using a number.

이러한 라벨링 기법은 영상 처리가 이용되는 다양한 응용례에 적용될 수 있으며, 특히, 그 구체적인 예로 출입 통제 등을 위해 이용되는 얼굴 인식 시스템을 들 수 있다. 즉, 출입 인증 등을 위한 얼굴 인식의 사전 단계로 소정의 광학장치로부터 획득된 영상에서 얼굴 영역을 검출하여 분리하는 작업을 수행하여야 하는 경우에 이용될 수 있다.Such a labeling technique may be applied to various applications in which image processing is used, and in particular, a face recognition system used for access control and the like may be used. That is, it may be used when a task of detecting and separating a face region from an image acquired from a predetermined optical device is to be performed as a preliminary step of face recognition for access authentication.

라벨링 기법 및 이를 이용한 영상에서의 특정 오브젝트(object)검출 기법은 상기와 같이 영상에서 얼굴 영역을 검출 및 분리하는 프로세싱에 해당하며, 이와 함께 홍채 인식, 인체의 특정 신체 부위 인식 또는 제조업의 자동화 라인에서 불량품을 식별하는 과정 등에서도 폭넓게 이용될 수 있다.The labeling technique and the specific object detection technique in the image using the same as the above process for detecting and separating the face region in the image, together with the iris recognition, the recognition of a specific body part of the human body or in the automation line of the manufacturing industry It can be widely used in the process of identifying defective products.

라벨링 알고리즘으로 제시되는 종래의 기법으로는 크게 재귀 알고리즘과 반복문을 사용하는 알고리즘을 나눌 수 있는데, 상기의 방법은 과도한 자기 호출방식을 이용하거나 스택구조를 이용하는 방법을 채용하고 있는데, 원하는 영상에 대한 프레임정보 또는 라인정보를 모두 메모리에 저장하고 저장된 정보를 이용하는 방식에 해당한다.Conventional techniques presented as labeling algorithms can be classified into recursive algorithms and algorithms using loops. The above method employs excessive self-calling or stack structure. This corresponds to a method of storing all information or line information in a memory and using the stored information.

이러한 방식은 하드웨어 리소스가 충분한 경우에는 다소 시간이 소요되더라도 적용가능할 수 있으나, 휴대 단말과 같이 휴대성, 간편성 및 이동성 등을 고유 목적으로 한 휴대 장비에서는 요구되는 하드웨어 리소스, 처리 시간 등의 측면에서 판단하여 볼 때 적용하기가 상당히 어렵다는 문제점이 있다.This method may be applicable even if it takes some time when there are enough hardware resources, but it is determined in terms of hardware resources and processing time required for portable devices such as portable terminals with the purpose of portability, simplicity and mobility. There is a problem that it is quite difficult to apply.

이러한 라벨링 기법을 전제로 하는 얼굴 검출 기법 및 이러한 기법이 디지털 카메라 등에서 활용되는 AF(Auto Focus), AWB(Auto White Balance), AE(Auto Exposure) 등의 응용 애플리케이션에서도 상기와 같은 문제점은 그대로 포함되어 있다고 할 수 있다. The above problems are also included in the face detection technique that presupposes the labeling technique and application applications such as AF (Auto Focus), AWB (Auto White Balance), and AE (Auto Exposure) that are used in digital cameras. It can be said.

대화형 영상 통화 서비스가 개시되고 있는 근래에는 엔터테인먼트의 목적으로 얼굴을 검출하는 기능이 포함된 이동통신단말기가 출시되고 있으며, 이러한 동향은 HCI(Human Communication Interact)기술에 대한 이동단말기로의 저변확대로의 동향을 나타내고 있다고 평가되고 있다.Recently, when the interactive video call service is launched, a mobile communication terminal including a function of detecting a face for the purpose of entertainment has been released, and this trend is being expanded as a mobile terminal for the Human Communication Interact (HCI) technology. It is evaluated to show trends.

이러한 동향에 따라 이동통신단말기 등에도 대상인식기법 등이 적용되고 있으나 상기와 같은 기법이 채용되는 단말(휴대폰, 디지털 카메라, 광학장치, 인증시스템 등)은 프레임메모리 또는 라인 메모리를 통하여 입력 영상을 처리하는 기법에 해당하므로 이에 부합되는 만큼의 메모리 리소스가 요구된다. According to this trend, target recognition techniques are applied to mobile communication terminals, etc., but terminals (mobile phones, digital cameras, optical devices, authentication systems, etc.) employing the above techniques process input images through frame memory or line memory. This technique requires a memory resource corresponding to this.

즉, 요구되는 하드웨어 리소스 만큼 하드웨어 단말은 그 경제성에서 불리하게 되며, 앞서 설명한 바와 같이 메모리 저장 및 저장된 정보의 활용을 기본으로 하고 있으므로 데이터 저장, 독출 및 연산 등의 처리 시간이 길어진다는 문제점 또한 가지고 있다고 할 수 있다.In other words, hardware terminals are disadvantageous in terms of economical efficiency as required hardware resources, and as described above, memory terminals have a problem of lengthening processing time such as data storage, reading, and operation since they are based on the utilization of stored and stored information. can do.

본 발명은 상기된 문제점을 극복하기 위하여 안출된 것으로, 간단한 연산 및 작은 메모리의 사용으로도 효과적인 라벨링 기법을 수행하고, 이를 바탕으로 영상에서의 대상체를 검출하는 효율적인 장치 및 시스템을 제공하는 데 목적이 있다. Disclosure of Invention The present invention has been made to overcome the above-mentioned problems, and an object thereof is to provide an efficient apparatus and system for performing an effective labeling technique even with simple calculation and use of a small memory, and detecting an object in an image based on this. have.

또한, 상기와 같은 방법을 컴퓨터에서 구현하기 위하여 컴퓨터로 인식가능하고 실행되는 프로그램을 기록한 기록매체를 제공하는 데 목적이 있다.Another object of the present invention is to provide a recording medium on which a computer-readable program is executed so as to implement the method in a computer.

본 발명에 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시예에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 구성과 구성의 조합에 의해 실현될 수 있다.Other objects and advantages of the present invention will be described below and will be appreciated by the embodiments of the present invention. In addition, the objects and advantages of the present invention can be realized by the configuration and combination of configurations shown in the claims.

상기 목적을 달성하기 위한 영상 오브젝트 검출장치는, 이진화 영상의 픽셀 중 라벨링 변환의 대상이 되는 대상 픽셀을 기준으로 라벨링 변환을 위한 변환 매트릭스 영역에 속하는 주위 픽셀에 대한 값을 검출하는 검출부;상기 주위 픽셀 값에 상기 이진화 영상을 나타내는 값 이외의 값이 존재하는지 여부에 따라 상기 대상 픽셀의 라벨링 값을 새로운 라벨값으로 변환하거나 상기 주위 픽셀의 라벨값으로 변환하는 라벨링부; 및 상기 라벨값이 부여된 각 픽셀의 통계적 산출값을 이용하여 검출대상을 판단하는 검출대상판단부를 포함한다.An image object detecting apparatus for achieving the above object comprises: a detector configured to detect a value for a surrounding pixel belonging to a transformation matrix region for labeling transformation based on a target pixel, which is a target of labeling transformation, among pixels of a binarization image; A labeling unit converting a labeling value of the target pixel into a new labeling value or a labeling value of the surrounding pixel according to whether a value other than the value representing the binarized image exists in the value; And a detection object determination unit which determines a detection object using a statistical calculation value of each pixel to which the label value is assigned.

한편, 본 발명의 다른 측면에 의한 영상 오브젝트 검출방법은, 이진화 영상의 픽셀 중 라벨링 변환의 대상이 되는 대상 픽셀을 기준으로 라벨링 변환을 위한 변환 매트릭스 영역에 속하는 주위 픽셀에 대한 값을 검출하는 검출단계; 상기 주위 픽셀 값에 상기 이진화 영상을 나타내는 값 이외의 값이 존재하는지 여부에 따라 상기 대상 픽셀의 라벨링 값을 새로운 라벨값으로 변환하거나 상기 주위 픽셀의 라벨값으로 변환하는 라벨링단계; 및 상기 라벨값이 부여된 각 픽셀의 통계적 산출값을 이용하여 검출대상을 판단하는 검출대상판단단계를 포함한다.On the other hand, the image object detection method according to another aspect of the present invention, the detection step of detecting a value for the surrounding pixels belonging to the transformation matrix region for labeling conversion on the basis of the target pixel of the labeling transformation of the pixels of the binarization image ; A labeling step of converting a labeling value of the target pixel into a new labeling value or a labeling value of the surrounding pixel according to whether a value other than a value representing the binarized image exists in the surrounding pixel value; And a detection object determination step of determining a detection object using a statistical calculation value of each pixel to which the label value is assigned.

본 발명은 디지털 카메라 등의 디지털 광학 장치에서 이용되는 자동 포커싱 기능, 자동 화이트 벨런스 기능 및 자동 노출 기능 등은 얼굴 영역을 기준으로 상기와 같은 기능이 활용된다.In the present invention, the auto focusing function, the auto white balance function, and the auto exposure function used in a digital optical device such as a digital camera are utilized based on the face area.

다양한 기능적 활용성을 가지고 있는 본 발명에 의한 라벨링 기법 및 이를 이용한 오브젝트(OBJECT)검출기법을 기초로 더욱 효과적이면서 작은 리소스를 차지하는 광학 장치를 구현할 수 있다.It is possible to implement a more effective and small resource optical device based on the labeling technique and the object detection technique using the same according to the present invention having various functional applications.

상기와 같이 본 발명의 라벨링 및 오브젝트 검출장치는 각 기능의 효율성을 높임과 동시에 하드웨어적으로 간단히 구현할 수 있어, 향후 이동단말기 등에 탑재되는 경우 높은 경제성을 기초로 활용도 높은 장비를 구현할 수 있는 효과를 창출한다.As described above, the labeling and object detecting apparatus of the present invention can be easily implemented in hardware at the same time to increase the efficiency of each function, and when mounted on a mobile terminal in the future, it creates an effect that can implement a high utilization equipment based on high economic efficiency do.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

본 발명의 상세한 설명에 앞서 본 발명의 설명에 필요한 용어 및 정의 등에 관하여 서술하도록 한다.Prior to the detailed description of the present invention will be described for terms and definitions necessary for the description of the present invention.

통상적으로 영상처리의 기본이 되는 영상의 색상공간은 색상혼합의 관점, 인간의 시각 체계와의 유사성 등 색공간을 바라보는 관점에 따라 RGB, CMYK, HS계열, CIE, Y계열 등 다양한 공간으로 표현될 수 있으며, 이종의 형태로 표현된 색공간의 다른 색공간으로의 변환은 간단한 수학적 변환식에 의하여 변환될 수 있음은 당업자간에 자명하다고 할 수 있다.In general, the color space of an image that is the basis of image processing is expressed in various spaces such as RGB, CMYK, HS, CIE, and Y depending on the viewpoint of color mixing, such as the viewpoint of color mixing and similarity with human visual system. It is apparent to those skilled in the art that the conversion of a color space expressed in a heterogeneous form into another color space can be converted by a simple mathematical conversion equation.

또한, 입력영상은 복수 개의 픽셀들의 합으로 표현되며, 상기 픽셀들은 해당 픽셀에 해당하는 영상정보(명도, 색상, 채도 등)를 가지게 된다. 통상적으로 상기 영상정보는 0에서 255단계로 단계적으로 구분되어 8bit의 정보로 나타내는 것이 일반적이나, 적용되는 환경에 따라 상기 영상정보는 10, 12bit 등 다양한 변형례가 가능함은 물론이다.In addition, the input image is expressed as a sum of a plurality of pixels, and the pixels have image information (brightness, color, saturation, etc.) corresponding to the pixel. In general, the image information is divided step by step from 0 to 255 and is represented by 8-bit information, but the video information may be modified in various ways, such as 10 and 12 bits, depending on the applied environment.

그러므로, 본 발명을 설명함에 있어 일 실시예로서 표현된 하나의 색공간 좌 표계는 상기와 같은 관점에서 다른 색공간좌표에도 동일, 유사한 적용이 가능하며, 입력영상에서 하나의 픽셀이 가지는 영상정보의 bit 크기는 하나의 일실시예에 불과하다고 이해되어야 한다.Therefore, in describing the present invention, one color space coordinate system represented as an embodiment may be applied to the same and similar color coordinates in the above viewpoints, and the image information of one pixel in the input image may be It should be understood that the bit size is only one embodiment.

본 발명에 따른 라벨링 장치 및 방법을 본 발명의 바람직한 실시예에 따른 영상 라벨링 장치의 구성을 도시한 블록도인 도 1과 본 발명의 바람직한 실시예에 따른 영상 라벨링 방법의 과정을 도시한 흐름도인 도 3을 통하여 설명한다.1 is a block diagram showing the configuration of an image labeling apparatus according to a preferred embodiment of the present invention, and a flowchart showing the process of the image labeling method according to the preferred embodiment of the present invention. Explain through 3.

본 발명에 의한 라벨링 장치(100)는 블록변환부(130), 검출부(110), 라벨링부(120) 및 라벨정보 산출부(140)를 포함한다.The labeling apparatus 100 according to the present invention includes a block converting unit 130, a detecting unit 110, a labeling unit 120, and a label information calculating unit 140.

검출부(110)는 픽셀값이 임계값보다 작은 값에 해당하는 제1값과 임계값보다 큰 값에 해당하는 제2값으로 이루어지는 이진화 영상의 픽셀 중 라벨링 변환의 대상이 되는 대상 픽셀을 기준으로 라벨링 변환을 위한 변환 매트릭스 영역에 속하는 주위 픽셀에 대한 값을 검출한다(S320).The detection unit 110 performs labeling based on a target pixel, which is a target of labeling conversion, among pixels of a binarized image having a first value corresponding to a value smaller than a threshold value and a second value corresponding to a value larger than a threshold value. A value of surrounding pixels belonging to a transform matrix region for transform is detected (S320).

상기 이진화 영상은 이진화의 기준이 되는 소정 임계값을 기준으로 해당 픽셀의 값을 이분화하여 표현한 영상을 의미하는 것으로서, 예를 들어, 임계값이 50인 경우 50보다 작은 값을 갖는 픽셀은 0으로 50보다 큰 값을 갖는 픽셀은 1로 표현된 영상을 의미한다.The binarized image refers to an image obtained by dividing a value of a corresponding pixel based on a predetermined threshold value that is a standard of binarization. For example, when the threshold value is 50, a pixel having a value smaller than 50 is 0. A pixel with a value greater than 50 means an image represented by one.

이진화영상은 0과 1의 비트를 이용하여 표현되는 것이 일반적이나, 본 발명에서는 상기 0과 1로 이진화 영상을 표현하는 것은 물론, 기준되는 임계값을 기준으로 이분화되어 표현될 수 있는 다양한 기호적 표현 또한 가능함은 물론이며, 본 발명을 설명함에 있어 제1값은 0으로 제2값은 1로 설명되는 부분은 하나의 예시일 뿐 상기 0과 1로 제한되어 해석될 수 없음은 자명하다고 할 수 있다.The binarized image is generally expressed by using bits of 0 and 1, but in the present invention, the binarized image is represented by 0 and 1 as well as various symbolic expressions that can be divided and expressed based on a reference threshold. Of course, it is also possible to express, and in describing the present invention, the first value is 0 and the second value is 1, which is only one example. have.

영상 처리에 있어 상기 변환 매트릭스는 일정한 사각 형상을 가지는 매트릭스를 의미하는 것으로서, 본 발명의 바람직한 일 실시예의 변환 매트릭스에 대한 라벨링 필터를 나타낸 도면인 도 6에 도시된 바와 같이 사각형상의 매트릭스를 의미한다.In the image processing, the transformation matrix refers to a matrix having a constant rectangular shape, and as illustrated in FIG. 6, which is a diagram illustrating a labeling filter for the transformation matrix of the preferred embodiment of the present invention, the transformation matrix refers to a matrix.

상기 도 6에 도시된 변환 매트릭스는 3×3 매트릭스를 예시하고 있으나, 변환매트릭스는 활용되는 형태나 사용자가 원하는 라벨링 정도에 따라 다양한 실시형태가 가능함은 물론이며, 상기와 같이 3×3 매트릭스 크기를 가지는 경우, 픽셀 간 간격이 하나씩 이격되어 있더라도 구분될 수 있으므로 정밀성에서 가장 바람직한 형태를 가질 수 있다.Although the transformation matrix shown in FIG. 6 illustrates a 3 × 3 matrix, various embodiments are possible depending on the form used and the degree of labeling desired by the user. In the case of having a distance between the pixels, the pixels may be distinguished even though they are spaced one by one.

상기 도 6에 도시된 9개의 픽셀 중 b로 표시된 픽셀이 본 발명의 주위 픽셀에 해당하며, a로 표시된 픽셀이 라벨링 변환의 대상이 되는 대상 픽셀이 되며, 대상 픽셀 주위에 존재하는 상기 주위 픽셀이 가지는 값을 상기 검출부(110)가 검출하게 된다.Among the nine pixels illustrated in FIG. 6, a pixel denoted by b corresponds to a peripheral pixel of the present invention, and a pixel denoted by a becomes a target pixel to be subjected to labeling conversion, and the peripheral pixel existing around the target pixel is The detection unit 110 detects a value that has a value.

상기 검출부(110)에 의하여 주위 픽셀(b)에 대한 값이 검출되면, 검출된 주위 픽셀의 픽셀값을 상기 라벨링부(120)에 전송(S330)하게 되고, 상기 라벨링부(120)는 상기 대상 픽셀의 값이 제2값이고, 상기 검출된 주위 픽셀의 값이 상기 제1값 또는 제2값만으로 이루어진 경우 상기 대상 픽셀의 값을 기존 라벨값과 구분되는 라벨값으로 변환하고, 상기 검출된 주위 픽셀의 값 중 제1값 및 제2값 이외의 라벨값이 존재하는 경우 상기 대상 픽셀의 값을 상기 제1값 및 제2값 이외의 라벨 값으로 변환하게 된다(S340).When the value of the surrounding pixel b is detected by the detector 110, the pixel value of the detected surrounding pixel is transmitted to the labeling unit 120 (S330), and the labeling unit 120 performs the object. If the value of the pixel is a second value and the value of the detected surrounding pixel includes only the first value or the second value, the value of the target pixel is converted into a label value distinguished from an existing label value, and the detected ambient If there is a label value other than the first value and the second value among the pixel values, the target pixel value is converted into a label value other than the first value and the second value (S340).

상기 S340단계는 상기 주위 픽셀 값에 상기 이진화 영상을 나타내는 값 이외의 값이 존재하는지 여부에 따라 상기 대상 픽셀의 라벨링 값을 새로운 라벨값으로 변환하거나 상기 주위 픽셀의 라벨값으로 변환하도록 이원적으로 운영하여 더욱 효과적이고 간편한 라벨값 부여 방법을 실현할 수 있다.In step S340, the labeling value of the target pixel is converted into a new label value or a label value of the surrounding pixel according to whether or not a value other than the value representing the binary image is present in the surrounding pixel value. In this way, a more effective and simple labeling method can be realized.

즉, 대상픽셀의 값이 제2값(1)인 경우에는 소정의 임계값보다 큰 픽셀값에 해당하므로 영상에 존재하는 객체에 해당한다고 판단할 수 있다. 그러므로 상기 대상픽셀의 값이 제2값인 경우에 라벨링 연산을 수행하게 된다.That is, when the value of the target pixel is the second value 1, it corresponds to a pixel value larger than the predetermined threshold value, so it may be determined that the object pixel corresponds to an object existing in the image. Therefore, a labeling operation is performed when the value of the target pixel is the second value.

만약 상기 주위 픽셀이 가지는 픽셀값이 이진화 영상을 나타내기 위한 제1값, 제2값만으로 구성되어 있다면, 즉, 0과 1의 값 이외 다른 값이 없다면, 상기 대상픽셀에 새로운 라벨값을 부여하게 되며, 부여되는 라벨값은 이전에 부여되었던 라벨값과 구분되는 라벨값이어야 함은 당연하다.If the pixel value of the surrounding pixel is composed of only the first value and the second value for representing the binarized image, that is, if there is no value other than 0 and 1, the new pixel value is assigned to the target pixel. Naturally, the label value to be given should be a label value distinguished from a label value previously given.

또한, 만약 주위픽셀에 0과 1값 이외의 다른 라벨링값이 부여되어 있다면, 즉, 대상픽셀과 최인접된 픽셀에 라벨링값이 부여된 적이 있다면, 이것은 이전연산에서 라벨링값이 부여된 픽셀과 인접되어 있는 객체에 해당하므로 상기 제1값 및 제2값 이외의 라벨값을 상기 대상픽셀에 부여하게 된다.Also, if the surrounding pixel is given a labeling value other than 0 and 1, that is, if the labeling value has been assigned to the pixel closest to the target pixel, it is adjacent to the pixel to which the labeling value was assigned in the previous operation. Since it corresponds to an object, a label value other than the first value and the second value is assigned to the target pixel.

이러한 과정은 입력되는 영상의 정보를 입력되는 순서에 따라 순차적으로 읽어들임으로써 연산할 수 있으므로 일반적인 라벨링 기법에서 이용하는 재귀적 용법이나 반복기법과 같이 프레임을 저장하거나, 라인을 저장할 필요가 없으므로 정확성을 유지하면서 더욱 용이하게 라벨링을 부여할 수 있게 된다.This process can be calculated by reading the information of the input image sequentially according to the input order, so it is not necessary to store the frame or the line like the recursive method or the repetitive method used in the general labeling technique. Labeling can be given more easily.

이하에서는 라벨링 연산효율을 유지하면서 연산속도의 향상 및 메모리 차지를 더욱 낮출 수 있도록 라벨링 부여를 위한 대상 영상을 블록화하는 블록화부에 대하여 설명하도록 한다.Hereinafter, a blocker for blocking a target image for labeling will be described so as to improve the operation speed and lower the memory charge while maintaining the labeling operation efficiency.

본 발명에 의한 블록변환부(130)는 라벨링 대상영상을 블록화비율에 따른 소정개수의 블록으로 분할하고 분할된 상기 각 블록영역에 해당하는 픽셀 중 임계범위에 해당하는 픽셀의 개수가 기준개수보다 많은 경우 상기 블록에 제2값을 부여하고 작은 경우 제1값을 부여하여, 상기 블록에 부여된 값을 해당 픽셀값으로 갖는 블록영상으로 상기 대상영상을 변환한다(S300).The block converting unit 130 according to the present invention divides the labeling target image into a predetermined number of blocks according to the block rate, and the number of pixels corresponding to the threshold range among the pixels corresponding to each of the divided block areas is larger than the reference number. In this case, the second image is assigned to the block, and the first value is assigned to the block, and the target image is converted into a block image having the value assigned to the block as the pixel value (S300).

상기와 같이 블록영상으로 변환되는 경우, 앞서 설명한 검출부(110)는 상기 블록변환부(130)에서 변환된 블록영상을 상기 이진화 영상으로 입력받게 된다(S310). When the block image is converted into the block image as described above, the detection unit 110 described above receives the block image converted by the block converter 130 as the binarized image (S310).

구체적인 예를 통한 상기 블록변환, 블록화된 영상의 검출 및 라벨링 과정에 대한 구성을 이하에서 설명하도록 한다. A configuration of the block transformation, detection of a blocked image, and labeling through a specific example will be described below.

설명의 편의를 위하여 라벨링 영상의 크기가 100×100이라고 가정하고, 상기 100×100 사이즈를 가지는 대상 영상을 10×10영상으로 블록변환하게 되는 경우, 상기 블록화 비율은 10%가 되며, 소정개수의 블록은 100개의 블록이 된다. 상기 블록화 비율 및 이를 기초로 한 소정개수는 하드웨어 리소스 등을 기반으로 한 응용례 및 다양한 사용자 환경에 의하여 결정되는 것으로 해석됨은 자명하다.For convenience of explanation, assuming that the size of the labeling image is 100 × 100, and the target image having the 100 × 100 size is converted into a 10 × 10 image, the block rate is 10%, and the predetermined number The block is 100 blocks. It is apparent that the block rate and the predetermined number based on the block rate are determined by various application environments and various user environments based on hardware resources.

즉, 도 5에 도시된 바와 같이 블록영상의 열의 크기인 a는 10이 되고, 행의 크기인 b가 10이 되도록 설정되며, 이진화 영상을 나타내는 값은 앞선 예와 다른 방법에 의하여 제2값은 15, 제1값은 0으로 설정하였다.That is, as shown in FIG. 5, the size a of the column of the block image is 10, and the size b of the row is 10, and the value representing the binarized image is different from the previous example. 15, the first value was set to zero.

상기와 같은 블록화 비율에 의하여 블록화 되는 경우, 하나의 블록은 100개의 원 영상의 픽셀을 대표하게 되므로 100개 각 블록은 각각 100개의 픽셀을 대표하게 되어 원 대상영상의 100,000개의 픽셀을 나타낸다.In the case of blocking by the blocking ratio as described above, one block represents 100 pixels of the original image, and each 100 blocks represents 100 pixels, respectively, representing 100,000 pixels of the original target image.

블록화 변환 과정에서 변환의 기준이 되는 임계값은 각 픽셀의 영상정보 중 하나를 이용하는 것이 바람직하다. 즉, 픽셀에는 앞서 설명한 바와 같이 색채에 대한 정보, 휘도에 대한 정보 등 다양한 색공간으로 표현되는 정보 등을 가지게 되는데, 인체의 얼굴에 대한 검출을 전제로 한다면, 상기 다양한 영상정보 중 특히 Cb, Cr정보를 기준으로 하는 것이 바람직하다.In the blocking conversion process, it is preferable to use one of the image information of each pixel as a threshold value of the conversion. That is, as described above, the pixel may have information expressed in various color spaces such as color information and luminance information. On the premise of detecting a human face, among the various image information, in particular, Cb, Cr It is desirable to base the information on.

즉, 픽셀의 영상정보 중 정하여진 임계값을 기준으로 상기 Cb, Cr값이 인체의 색감을 나타내는 범위인 임계범위에 해당하는 픽셀의 개수를 카운팅한다. 상기 Cb, Cr의 값은 백인, 흑인, 황인족에 따라 크게 다르지 않기 때문에 여러 인종에 대하여 범용적으로 사용할 수 있는 이점이 있으므로, Cb, Cr값에 대한 소정의 임계범위를 설정하고, 해당 픽셀이 상기 임계범위에 해당하는지 여부를 판단하는 과정을 통하여 하나의 블록이 담당하는 픽셀 중 임계범위에 해당하는 픽셀의 수가 소정의 기준에 의하여 설정된 기준개수와의 비교를 통하여 큰 경우에는 제2값(15)을 작은 경우에는 제1값(0)을 부여하는 방식으로 운용할 수 있다.That is, the number of pixels corresponding to the threshold range that is the range where the Cb and Cr values represent the color of the human body is counted based on the threshold value determined among the image information of the pixel. Since the values of Cb and Cr do not vary greatly among whites, blacks, and yellow races, there is an advantage that they can be used universally for various races. Therefore, a predetermined threshold range for Cb and Cr values is set, and the corresponding pixel is If the number of pixels corresponding to the threshold range among the pixels in charge of one block through the process of determining whether it corresponds to the threshold range is large through comparison with the reference number set by a predetermined reference, the second value 15 In the case of a small value), it can be operated in a manner of giving a first value (0).

상기 기준개수 또한, 다양한 영상 환경, 영상의 대상체 특성 등 다양한 응용례에 의하여 변용가능한 기준값으로 이해됨은 물론이다.The reference number is also understood as a reference value that can be changed by various application examples such as various image environments and object characteristics of the image.

상기와 같이 운용되는 방식에 의하여 상기 라벨링 대상영상은 제2값(15)과 제1값(0)이 부여된 블록을 해당 픽셀값으로 갖도록 하여 10×10으로 블록화된 블록영상으로 변환하게 된다. In the manner as described above, the labeling target image is converted into a block image blocked by 10 × 10 by having a block having a second value 15 and a first value 0 as the corresponding pixel value.

상기의 과정에 의하여 변환된 블록영상을 아래 표 1로 나타내면 다음과 같다. The block image converted by the above process is shown in Table 1 below.

Figure 112007076145970-PAT00001
Figure 112007076145970-PAT00001

상기 표 1에서는 제2값을 15로 예시하고 있으며, 제1값은 0으로 예시하고 있다. 이는 앞서 설명한 바와 같이 이진영상의 제1값 및 제2값을 표현할 수 있는 다양한 응용례의 하나로서 해석되어야 함을 의미한다.In Table 1, the second value is illustrated as 15, and the first value is illustrated as 0. This means that it should be interpreted as one of various application examples that can express the first value and the second value of the binary image as described above.

대상 영상의 시각적 인지성 및 라벨링에 의한 구분을 위하여 블록영상의 크기는 32×24로 상기 블록화비율을 설정하는 것이 가장 바람직하다. 상기 크기로 설정된 블록영상의 경우, 통상적인 영상의 특성을 기초하여 판단하여 볼 때, 10여 정도의 객체가 구분될 수 있으며, 이는 각 객체마다 부여되는 라벨의 개수가 그만큼 필요하다는 것을 의미한다.It is most preferable to set the block rate to 32 × 24 for the size of the block image in order to distinguish visual recognition and labeling of the target image. In the case of the block image set to the size, about 10 objects can be distinguished when judged based on the characteristics of the normal image, which means that the number of labels assigned to each object is required.

그러므로 상기 라벨링부(120)는 앞서 설명한 바와 같이 4비트 크기의 비트열을 이용하여 상기 라벨값이 부여되도록 구성하는 것이 바람직하다. 이진수로 표현된 4비트의 경우, 15개의 값을 가질 수 있으므로, 대상체를 구별하여 부여되는 라벨값의 개수로 가장 바람직하다고 할 수 있다.Therefore, the labeling unit 120 is preferably configured to be assigned the label value using a 4-bit bit string as described above. In the case of 4 bits represented by a binary number, since 15 bits may have 15 values, it may be said that the number of label values assigned to distinguish the object is most preferable.

라벨링 및 이를 기초로 한 대상검출의 성능이 저하되지 않도록 유지하면서 연산처리 모듈과 메모리의 효율성을 위하여 대상 영상의 3% 내지 10% 정도로 블록화 비율이 설정되는 것이 바람직하다.The blocking rate is preferably set to about 3% to 10% of the target image for the efficiency of the arithmetic processing module and memory while maintaining the performance of labeling and object detection based on the same.

도 5에 도시된 바와 같이 제1값을 0으로, 제2값을 15로 이진화 값을 부여한 이유는, 새로운 라벨링을 부여할 때, 0과 15 사이의 값을 부여하도록 알고리즘을 적용하여, 중복되는 비트가 발생되지 않도록 하고, 부여된 라벨링 값의 중복여부를 판단하는 연산을 생략할 수 있도록 하기 위함이다.As shown in FIG. 5, the reason for assigning the binarization value to the first value to 0 and the second value to 15 is that when the new labeling is applied, an algorithm is applied to give a value between 0 and 15. This is to prevent a bit from being generated and to skip an operation of determining whether a given labeling value is duplicated.

상기 표 1의 (2,2)에 위치하는 픽셀이 대상픽셀인 경우, 상기 대상픽셀이 제2값에 해당하고, 3×3 변환 매트릭스 영역에 속하는 주위 픽셀들의 픽셀값 중 제1값, 제2값 이외의 값이 존재하지 않으므로, 상기 대상픽셀에는 라벨링값이 부여된다. 상기 (2,2)의 픽셀이 라벨링 연산의 시작이라고 가정하고, 새로운 라벨링인 1을 예시적으로 부여하여 설명한다.When the pixel located at (2, 2) in Table 1 is the target pixel, the target pixel corresponds to the second value, and the first value and the second value among the pixel values of the surrounding pixels belonging to the 3x3 transformation matrix region. Since there is no value other than the value, a labeling value is assigned to the target pixel. Assuming that the pixel of (2,2) is the beginning of a labeling operation, a new labeling 1 is exemplarily described.

Figure 112007076145970-PAT00002
Figure 112007076145970-PAT00002

상기 표 2에서와 같이 그 다음 단계로 변환 매트릭스는 우측으로 1 이동되어 (2,3)에 위치한 픽셀이 대상 픽셀이 되고, 상기 라벨링 과정에서 (2,2)의 픽셀값은 "1"의 값으로 라벨링 되어 있으므로, 주위 픽셀은 좌상단에서 우하단의 순으로 열거하면, 0,0,0,1,15,15,15,15로서 8개의 픽셀이 된다.In the next step, as shown in Table 2, the transformation matrix is shifted 1 to the right so that the pixel located at (2,3) becomes the target pixel, and the pixel value of (2,2) is a value of "1" in the labeling process. Since the surrounding pixels are enumerated in order from the top left to the bottom right, there are eight pixels as 0,0,0,1,15,15,15,15.

상기 변환매트릭스 영역에 속한 8개의 픽셀 중 제1값, 제2값(0,15)이외 "1"이라는 라벨값이 존재하므로, 상기 (2,3) 대상픽셀은 "1" 라벨값으로 변환되게 된다. 즉, 최근접한 픽셀에 부여되었던 라벨값이 인접 픽셀의 라벨값으로 확장되는 형식을 취하게 된다. 상기와 같은 단계를 계속 적용하여 2번째 행에 대한 라벨링연산의 결과는 아래 표 3과 같다.Since there is a label value of "1" other than the first value and the second value (0,15) among the eight pixels in the conversion matrix area, the (2,3) target pixel is converted into a "1" label value. do. That is, the label value given to the nearest pixel is extended to the label value of the adjacent pixel. Applying the same steps as above, the result of the labeling operation for the second row is shown in Table 3 below.

Figure 112007076145970-PAT00003
Figure 112007076145970-PAT00003

상기 표 3에서 도시된 바와 같이 (2,8)픽셀은 대상픽셀이 15(제2값)이므로 변환대상이 되며, (2,6) 및 (2,7)픽셀의 경우 대상픽셀의 값이 0이므로 라벨링변환이 되지 않는다. (2,8) 픽셀의 경우, 주위 8개 픽셀에 0, 15 이외 다른 값이 존재하지 않고 또한, 이미 라벨“1”의 값은 부여되었으므로 새로운 라벨값인 “2”값이 부여된다.As shown in Table 3, the (2,8) pixel is a conversion target because the target pixel is 15 (second value), and in the case of the (2,6) and (2,7) pixels, the value of the target pixel is 0. Because labeling is not converted. In the case of the (2,8) pixel, there is no value other than 0 and 15 in the surrounding eight pixels, and since the value of the label "1" has already been given, a new label value "2" is given.

상기의 방법으로 상기 10×10블록영상이 라벨링된 라벨링 영상의 결과는 다음과 같다.The result of the labeling image labeled with the 10 × 10 block image by the above method is as follows.

Figure 112007076145970-PAT00004
Figure 112007076145970-PAT00004

상기와 같이 대상 영상의 모든 픽셀을 연산하게 되며, 가장자리에 존재하는 픽셀이 대상픽셀인 경우에는 제한된 변환 매트릭스 영역을 활용할 수 있으며, 또한, 디폴트(default)값으로 변환하여 운용하는 등 사용자 적용방식에 따라 다양한 변형례가 가능하다.As described above, all pixels of the target image are calculated, and when the pixel on the edge is the target pixel, a limited conversion matrix area can be utilized, and the user is converted to a default value and operated. Various modifications are possible accordingly.

상기에서 상세히 설명한 바와 같이 대상 영상에서 각 객체를 구분할 수 있는 라벨링이 부여작업이 완료된 후, 상기 동일 라벨링이 부여된 영역에 대한 특성을 파악하게 된다.As described in detail above, after the labeling operation for identifying each object in the target image is completed, the characteristics of the region labeled with the same labeling are identified.

이러한 라벨링 영역에 대한 특성은 본 발명의 라벨정보산출부(140)에서 담당하며, 상기 라벨링부(120)로부터 상기 라벨값이 부여된 라벨영상을 입력받아(S350) 상기 라벨영역의 시작점정보, 종료점정보 및 면적정보 중 하나 이상을 포함하는 라벨정보를 각 라벨영역마다 산출한다(S360).The characteristics of the labeling area are in charge of the label information calculating unit 140 of the present invention, and receives the label image given the label value from the labeling unit 120 (S350). Label information including at least one of the information and the area information is calculated for each label area (S360).

상기 표 4에 나타나 있는 바와 같이 라벨영상을 상기 라벨정보산출부(140)가 입력받게 되면, 동일 라벨값이 부여된 영역의 개수는 5개가 되고, 상기 5개 라벨영역에 대한 영상특성 정보인 라벨정보를 산출하게 된다.As shown in Table 4, when the label information calculating unit 140 receives the label image, the number of regions to which the same label value is assigned is five, and the label is image characteristic information for the five label regions. Will yield information.

라벨값 "1"이 부여된 라벨 영역(ROI영역 Range Of Interest)의 경우, 시작점은 (2,2)가 되고, 종료점은 (4,5)가 된다. 상기 종료점 등에 대한 정보는 실제로 라벨값이 부여된 영역만을 기준으로 정할 수도 있으며, 동일 라벨값이 부여된 최대 아웃라인을 이용한 영역을 활용할 수도 있다. 상기 종료점이 (4,5)가 되는 것은 최대 아웃라인 영역을 활용한 경우의 예가 된다.In the case of the label area (ROI area Range Of Interest) to which the label value "1" has been assigned, the start point is (2,2) and the end point is (4,5). The information about the end point may be determined based only on the area to which the label value is actually assigned, or the area using the maximum outline to which the same label value is assigned may be used. The end point becoming (4, 5) is an example in which the maximum outline area is utilized.

면적 정보는 실제 라벨값이 부여된 영역을 기준으로 정하는 경우, 10이 되고, 최외각 아웃라인을 기준으로 하는 경우에는 12가 된다. 상기와 같은 방법에 의하여 각 ROI마다의 특성에 대한 정보를 산출하게 되며, 이러한 정보는 향후 다양한 응용례에서 이용되는 기준 데이터로 활용되게 된다.If the area information is determined based on the area to which the actual label value is assigned, the area information is 10, and the area information is 12 when it is based on the outermost outline. By the above method, information on characteristics of each ROI is calculated, and this information is used as reference data used in various applications in the future.

또한, 본 발명의 라벨링산출부(140)는 통합부(142)를 포함할 수 있는데, 상기 통합부(142)는 상기 라벨정보에 해당하는 상기 라벨영역이 상호 중첩되는 경우 중첩된 라벨영역을 통합하고 상기 통합된 라벨영역의 라벨정보를 산출하도록 구성된다.In addition, the labeling calculation unit 140 of the present invention may include an integrating unit 142. The integrating unit 142 integrates the overlapping label areas when the label areas corresponding to the label information overlap each other. And calculate label information of the integrated label area.

Figure 112007076145970-PAT00005
Figure 112007076145970-PAT00005

만약 상기 표 5에 도시된 것과 같은 라벨영상이 생성되는 경우, 동일하지 않은 라벨값("1", "2")이 부여된 ROI-1과 ROI-2 두 영역이 상호 중첩되게 된다. 이러한 경우, 부여된 라벨값은 동일하지 않더라도 영상에서 표현된 객체는 동일 구분 영역내에 포섭할 수 있도록 구성하는 것이 바람직하다.If a label image as shown in Table 5 is generated, two regions, ROI-1 and ROI-2, to which different label values "1" and "2" are assigned, overlap each other. In this case, even if the label value is not the same, the object represented in the image is preferably configured to be included in the same division area.

즉, 상기 "1"로 부여된 라벨영역인 ROI-1과 "2"로 부여된 라벨영역인 ROI-2을 통합하고, 상기 통합된 라벨영역의 라벨정보를 새로인 산출하는 것이 바람직하다. 통합된 ROI를 ROI-M이라고 칭하는 경우, ROI-M의 라벨정보 중 시작점은 (2,2), 종료점은 (6,8)이 된다. 0으로 표현된 픽셀을 제외하고 실제 라벨값이 부여된 영역만을 기준으로 하는 응용예에서 면적 정보를 산출하는 경우 면적 정보는 22가 된다.That is, it is preferable to integrate ROI-1, which is the label region designated as "1", and ROI-2, which is the label region designated as "2", and newly calculate label information of the integrated label region. When the integrated ROI is called ROI-M, the start point of the label information of the ROI-M is (2,2) and the end point is (6,8). The area information is 22 when the area information is calculated in the application example based only on the area to which the actual label value is given except for the pixel represented by 0.

새롭게 병합된 라벨영역(ROI-M)은 "1" 또는 "2"라벨값으로 라벨링될 수 있고, 또 다른 새로운 라벨값이 부여될 수도 있다. 1과 2 라벨값은 다른 라벨영역에서 사용되지 않았으므로, 통합된 라벨영역에 부여될 수 있기 때문이다. 통합된 영역임을 약속된 기호에 의하여 표현되도록 다른 라벨값으로 사용되지 않은 값으로서 새로운 라벨값(예를 들어 10 이상의 값)을 부여할 수 있음은 물론이다.The newly merged label area ROI-M may be labeled with a "1" or "2" label value, and another new label value may be assigned. This is because the 1 and 2 label values are not used in other label areas, so they can be assigned to the integrated label area. It is of course possible to assign a new label value (e.g., a value of 10 or more) as a value that is not used as another label value so that it is represented by a symbol that promises to be an integrated area.

본 발명의 일 실시예에 의한 통합(merge)과정을 도시한 도면인 도 7을 참조할 때, 상기 도 7의 a 영상은 통합 처리 전의 영상정보를 의미하며, b는 통합 처리된 후의 영상정보를 의미한다. Referring to FIG. 7, which illustrates a merge process according to an embodiment of the present invention, the image a of FIG. 7 denotes image information before the merge process, and b denotes image information after the merge process. it means.

이하에서는 본 발명의 다른 목적에 의한 영상 오브젝트 검출장치 및 방법에 대한 설명을 도 2 및 도 4를 통하여 상세히 설명하도록 한다.Hereinafter, an apparatus and method for detecting an image object according to another object of the present invention will be described in detail with reference to FIGS. 2 and 4.

상기 오브젝트 검출장치 및 방법은 앞서 설명한 라벨링 기법을 채용하는 응용례로서 앞서 설명한 바와 같이 인체의 얼굴영역, 신체 특정 부위 영역, 불량품 등의 영상 내 특정 대상체를 검출하는 기법에 관한 것이다.The object detecting apparatus and method are application examples employing the above-described labeling technique and, as described above, relate to a technique for detecting a specific object in an image such as a face region, a specific region of a body, a defective article, etc. of a human body.

이러한 오브젝트 검출장치 및 방법을 설명함에 있어, 앞서 설명된 라벨링 장치 및 방법 등과 중복되는 설명은 생략하며, 또한, 지칭되는 구성요소를 나타내기 위한 참조부호는 설명의 편의를 위하여 달리 부여되었을 뿐이므로 참조부호가 동일하지 않더라도 담당하는 기능이 동일, 유사한 구성요소는 동일 및 유사한 구성을 의미한다.In the description of the object detecting apparatus and method, a description overlapping with the above-described labeling apparatus and method is omitted, and reference numerals for indicating the components to be referred to are only given for convenience of explanation, so reference is made. Even if the signs are not the same, the functions they are responsible for are the same and similar components mean the same and similar configurations.

본 발명의 바람직할 실시예에 따른 영상 오브젝트 검출장치의 구성을 도시한 블록도인 도 2 및 본 발명의 바람직한 실시예에 따른 영상 오브젝트 검출방법의 과정을 도시한 흐름도인 도 4를 참조할 때, 본 발명에 의한 영상 오브젝트 검출장치(200)는 블록변환부(230), 검출부(210), 라벨링부(220), 라벨정보산출부(240), 필터링부(250) 및 검출대상 판단부(260)를 포함한다.Referring to FIG. 2, which is a block diagram showing the configuration of an image object detecting apparatus according to an exemplary embodiment of the present invention, and FIG. 4, which is a flowchart illustrating a process of the method of detecting an image object according to an exemplary embodiment of the present invention, The image object detecting apparatus 200 according to the present invention includes a block converting unit 230, a detecting unit 210, a labeling unit 220, a label information calculating unit 240, a filtering unit 250, and a detection target determining unit 260. ).

상기 블록변환부(230), 검출부(210), 라벨링부(220), 라벨정보산출부(240) 등에 대한 설명은 앞서 기술한 영상 라벨링 장치 및 방법에서 설명되었으므로 중복되는 범위에서 구체적인 설명은 생략한다.The block converter 230, the detector 210, the labeling unit 220, and the label information calculating unit 240 have been described in the above-described image labeling apparatus and method, and thus detailed descriptions thereof will be omitted. .

본 발명의 영상 오브젝트 검출장치(200)의 검출대상판단부(260)는 상기 라벨링부(220)로부터 상기 라벨값이 부여된 라벨값에 대한 정보를 입력받게 되고, 상기 라벨값이 부여된 각 픽셀의 통계적 산출값을 이용하여 검출대상을 판단하게 된다.The detection object determination unit 260 of the image object detecting apparatus 200 of the present invention receives information on the label value to which the label value is assigned from the labeling unit 220, and each pixel to which the label value is assigned. The detection target is determined using the statistical calculated value of.

상기 라벨값이 부여된 각 픽셀의 통계적 산출값은 평균, 분산, 분포도, 표준편차 또는 상기 라벨값이 부여된 픽셀의 개수정보 등 다양한 정보를 활용하여 검출하고자 하는 검출대상과 부합되는 라벨값이 부여된 픽셀을 검출하게 된다.The statistical calculation value of each pixel to which the label value is assigned is given a label value corresponding to the object to be detected by using various information such as average, variance, distribution, standard deviation, or information on the number of pixels to which the label value is assigned. Detected pixels are detected.

상기 검출의 정밀성 또는 효율성을 높이기 위하여, 상기 영상 오브젝트 검출장치(200)는 상기 라벨값이 부여된 라벨영상에서 동일한 라벨값이 부여된 라벨영역의 시작점정보, 종료점정보 및 면적정보 중 하나 이상을 포함하는 라벨정보를 각 라벨영역마다 산출하는 라벨정보산출부(240)를 더 포함하도록 구성하는 것이 바람직하다. In order to increase the precision or efficiency of the detection, the image object detecting apparatus 200 includes one or more of start point information, end point information, and area information of a label area to which the same label value is assigned in the label image to which the label value is assigned. Preferably, the label information calculating unit 240 calculates label information for each label area.

상기와 같이 라벨정보산출부(240)가 추가적으로 구성되는 경우, 상기 검출대상 판단부(260)는 상기 라벨정보산출부(240)으로부터 라벨정보를 전송받고 검출대상을 판단하는 기준정보에 부합되는 정도에 따라 상기 각 라벨영역에 대한 라벨정보를 분류하고 상기 분류된 라벨정보를 이용하여 검출대상 영역을 판단하는 판단부(262)를 포함하여 검출대상을 판단한다.When the label information calculation unit 240 is additionally configured as described above, the detection object determination unit 260 receives label information from the label information calculation unit 240 and corresponds to reference information for determining the detection object. According to the classification of the label information for each label area and using the classified label information includes a determination unit 262 for determining the detection target region to determine the detection target.

즉, 동일한 라벨값이 부여된 각 라벨영역의 다양한 정보를 입력받아 원하는 검출대상의 검출을 위한 기준정보를 이용하여 상기 기준정보와 부합되는 정도에 따라 검출대상 영역을 검출하게 된다.That is, the detection target region is detected according to the degree of matching with the reference information by receiving various information of each label region to which the same label value is given and using the reference information for detecting the desired detection target.

상기 기준정보에 대한 구체적인 요소는 후술하도록 하며, 상기 기준정보에 부합되는 정도에 따라 각 라벨영역을 분류하고 분류된 최상위 라벨영역을 검출의 대상으로 판단하거나 상위 소정 순번의 라벨영역을 검출대상영역으로 선별할 수도 있다.Specific elements of the reference information will be described later. Each of the label areas is classified according to the degree of conformity with the reference information, and the classified top label areas are determined as the detection targets or the label areas of the upper predetermined order are detected as the detection target areas. It can also be screened.

앞서 설명한 바와 같이 영상 오브젝트 검출장치(200)에 블록변환부(230)가 추가적으로 구성되는 경우, 상기 블록변환부(230)는 대상영상을 블록영상으로 변환하게(S400) 되며, 상기 검출부(210)는 상기 블록변환부(230)에서 변환된 블록영상을 상기 이진화 영상으로 입력받아(S410) 전송된 이진화 영상의 대상픽셀을 기준으로 주위 픽셀값을 검출한다(S420).As described above, when the block converting unit 230 is additionally configured in the image object detecting apparatus 200, the block converting unit 230 converts the target image into the block image (S400), and the detecting unit 210. In operation S420, the block image converted by the block converter 230 is input as the binarized image, and the surrounding pixel value is detected based on the target pixel of the transmitted binarized image.

또한, 상기 영상 오브젝트 검출장치(200)의 라벨정보산출부(240)는 상기 라벨정보에 해당하는 상기 라벨영역이 상호 중첩되는 경우 중첩된 라벨영역을 통합하고 상기 통합된 라벨영역의 라벨정보를 산출하는 통합부(242)를 포함할 수 있다.In addition, the label information calculating unit 240 of the image object detecting apparatus 200 integrates the overlapped label regions and calculates the label information of the integrated label regions when the label regions corresponding to the label information overlap each other. An integration unit 242 may be included.

즉, 라벨링부(220)는 상기 검출부(210)로부터 검출된 픽셀값을 전송(S430)받고, 검출된 주위 픽셀값과 대상 픽셀값을 이용하여 라벨링과정을 수행하게 된다(S440).That is, the labeling unit 220 receives the pixel value detected from the detection unit 210 in operation S430, and performs a labeling process using the detected surrounding pixel value and the target pixel value in operation S440.

라벨링 과정이 완료되면, 상기 라벨빙부(220)는 라벨 영상을 상기 라벨링 산출부(240)로 전송하고(S450), 라벨링 산출부(240) 및 라벨링 산출부(240)에 포함되는 통합부(242)는 상기 라벨 영상의 라벨 영역 또는 통합된 라벨 영역의 라벨정보를 산출한다(S460).When the labeling process is completed, the labeling unit 220 transmits a label image to the labeling calculator 240 (S450), and includes an integrated unit 242 included in the labeling calculator 240 and the labeling calculator 240. ) Calculates label information of the label region of the label image or the integrated label region (S460).

또한, 상기 필터링부(250)는 NR(Noise Reduction)에 해당하는 블록으로서, 상기 라벨링 산출부(240)으로부터 라벨정보를 전송받아(S470), 전송된 라벨정보 중 필터링 기준범위를 벗어나는 라벨영역에 해당하는 라벨정보를 제거한다(S480).In addition, the filtering unit 250 is a block corresponding to NR (Noise Reduction), and receives the label information from the labeling calculation unit 240 (S470), in the label area that is outside the filtering reference range of the transmitted label information The corresponding label information is removed (S480).

상기 필터링부(250)는 도 8에 도시된 바와 같이 원하고자 하는 대상검출에서 후보 영역에서 배제될 수 있는 영역을 기준범위, 예를 들어 픽셀 개수 등을 이용하여 배제하는 기능을 담당한다.As illustrated in FIG. 8, the filtering unit 250 performs a function of excluding a region that can be excluded from a candidate region in a desired target detection using a reference range, for example, the number of pixels.

도 8에서는 픽셀의 개수가 기준되는 범위보다 작은 경우를 제거하는 기법에 의하여 (a)에서 나타난 5개 라벨영역이 (b)에서와 같이 하나의 라벨영역으로 필터링되는 과정을 나타내고 있다.FIG. 8 illustrates a process in which five label regions shown in (a) are filtered into one label region as shown in (b) by a technique of removing a case where the number of pixels is smaller than a reference range.

얼굴 영역의 검출을 하나의 예로 들어 보충적으로 설명하면, 앞서 설명한 바와 같이 얼굴 영역의 임계범위에 해당하는 영상정보를 가지는 픽셀에 실제 얼굴 영역에 해당하는 픽셀뿐만 아니라 영상에 표현되어 있는 다양한 배경, 피사체 중 일부도 상기 임계범위에 해당하는 픽셀이 포함될 가능성을 배제할 수는 없다.As an example, the detection of the face area is supplementary. As described above, the pixels having the image information corresponding to the critical range of the face area, as well as the pixels corresponding to the actual face area, various backgrounds and subjects represented in the image Some of them may not exclude the possibility of including the pixel corresponding to the threshold range.

이와 같이 실제 얼굴영역이 아님에도 불구하고 유사한 영상정보를 가지는 대상체를 미리 배제하기 위하여, 라벨영역이 기준범위에 벗어나는 경우 이에 해당하는 라벨영역에 해당하는 라벨정보를 제거하게 된다.As such, in order to exclude an object having similar image information in advance even though it is not an actual face area, when the label area is out of the reference range, the label information corresponding to the label area is removed.

필터링을 위한 기준범위는 라벨영역의 개수로 범위를 정하는 것은 물론, 다양한 라벨영역의 정보를 이용하여 정해질 수 있으며, 검출하고자 하는 대상의 특성에 부합되도록 다양한 실험 또는 영상에서 표현되는 대상체의 특성 등에 의하여 객관적으로 산출되도록 구성하는 것이 바람직하다.The reference range for filtering may be determined by using the number of label regions as well as the information of various label regions, and the characteristics of objects represented in various experiments or images to match the characteristics of the object to be detected. It is preferable to configure so that it is objectively calculated.

일 예를 들어, 통상적으로 얼굴을 검출하는 경우, 광학기계에 근접하여 영상을 획득하게 되므로, 획득된 영상에서 차지하는 크기에 대한 범위로 상기 기준범위를 설정할 수도 있으며, 획득된 영상은 중심되는 영역에 위치하게 되는 경우가 일반적일 수 있으므로, 소정 크기 이상 라벨영역이 중심부와 소정거리 범위를 벗어나는 것을 기준으로 정할 수도 있으며, 라벨영역의 크기만을 절대적으로 비교하여 특정크기 이하의 라벨영역을 배제하는 방법으로 정해질 수도 있음은 물론이다. For example, when a face is typically detected, an image is acquired close to an optical machine, and thus, the reference range may be set to a range of a size occupied by the acquired image, and the acquired image is located at a centered area. Since the location may be generally located, the label area more than a predetermined size may be determined based on the distance from the center of the label, and the label area below the specific size may be excluded by absolutely comparing the size of the label area. Of course, it may be decided.

상기와 같이 필터링부(250)에서 기준범위를 벗어나는 라벨정보가 제거(S480)되고 나면, 제거되지 않은 라벨정보만을 검출대상판단부(260)로 전송하여, 상기 검출대상판단부(260), 특히 판단부(262)는 상기 제거된 라벨정보 이외의 라벨정보를 이용하여 검출대상영역을 판단(S495)하게 된다.After the label information outside the reference range is removed by the filtering unit 250 as described above (S480), only the undeleted label information is transmitted to the detection target determination unit 260, and the detection target determination unit 260, in particular, The determination unit 262 determines (S495) a detection subject region by using label information other than the removed label information.

상기 판단부(262)를 포함하는 검출대상판단부(260)가 상기 검출대상 영역을 검출함에 있어 이용하는 상기 기준정보는 전체 영상 크기에 대비된 라벨영역의 크기에 대한 정보, 라벨영역이 전체영상에서 해당하는 위치에 대한 정보, 라벨영역의 가로세로 비율정보, 라벨영역 내에 존재하는 제2값의 개수정보 중 선택된 하나 이상의 정보를 이용하여 정해지도록 설정할 수 있다.The reference information used by the detection subject determination unit 260 including the determination unit 262 to detect the detection target region includes information on the size of the label region compared to the overall image size, The at least one selected from information on a corresponding position, aspect ratio information of the label area, and information on the number of second values existing in the label area may be set.

앞서 설명한 바와 같이 필터링단계가 완료된 경우라도 대상 검출 영역과 영상정보(색상 등)가 유사범위에 있는 큰 영역들이 잔존할 가능성을 완전히 배제하지 못할 수 있다.As described above, even when the filtering step is completed, it may not be possible to completely exclude the possibility that large areas in which the target detection area and the image information (color, etc.) are in a similar range remain.

그러므로, 상기 판단부(262)는 검출 대상의 후보군에 해당하는 라벨영역(ROI)들 중 가장 근접한 검출 대상을 선택하는 과정을 수행하게 된다. Therefore, the determination unit 262 performs a process of selecting the closest detection target among the label areas ROI corresponding to the candidate group of the detection target.

상기 기준정보 중의 하나인 전체 영상 크기에 대비된 라벨영역의 크기에 대한 정보는 대상 영상에서 아주 작거나 큰 영역을 차지할 가능성보다는 전체 영상에 대비하여 적절한 크기를 가질 확률이 더 높게 된다. 즉, 작은 영역이라면 피사체 외부에 존재하는 또 다른 대상체일 확률이 높고, 극단적으로 큰 영역인 경우에는 배경 등에 해당하는 대상체일 확률이 크기 때문이다.The information on the size of the label region compared to the entire image size, which is one of the reference information, is more likely to have a proper size than the entire image, rather than to occupy a very small or large area of the target image. That is, a small area is likely to be another object outside the subject, and in an extremely large area, it is likely to be an object corresponding to a background.

위치정보는 광학장치 등으로 얼굴 등을 촬영하게 되는 경우 얼굴이 이미지의 중심에 놓이게 되는 경우가 가장자리에 놓이게 되는 경우보다 확률적으로 높기 때문에 중심되는 기준점에서 소정 범위 이격된 거리를 이용하여 상기와 같이 검출대상을 판단하는 일 기준으로 설정할 수 있다.Since the location information is more likely than the case where the face is placed at the center of the image when the face is photographed with an optical device, etc., the distance is separated from the central reference point by a predetermined range. It can be set as a standard for determining the detection target.

또한, 라벨영역의 가로세로 비율정보는 검출하고자 하는 대상체의 물리적인 특성을 반영한 것으로 정보로서, 검출하고자 하는 대상체의 실제 형상적 특성을 반영하여 정해지는 기준정보에 해당한다. 예를 들어 인체의 얼굴이 검출 대상인 경우에는 가로세로에 대한 비율이 0.1 이나 8 내외의 특이한 비율보다는 0.7 내지 0.8의 비율이 더욱 인체의 얼굴에 부합되는 영역에 해당하므로 상기와 같은 기준 정보를 이용하여 얼굴 영역을 검출하게 된다.In addition, the aspect ratio information of the label area reflects the physical characteristics of the object to be detected and corresponds to the reference information determined by reflecting the actual shape characteristics of the object to be detected. For example, when the face of the human body is a detection target, the ratio of the aspect ratio is 0.7 or 0.8, which corresponds to the area of the human face more than the unique ratio of about 0.1 or 8, so that the reference information is used as the above-mentioned reference information. The face area is detected.

더욱이, 라벨영역 내에 존재하는 제2값의 개수정보는 라벨영역의 크기에 대비된 제2값의 개수정보 등을 이용할 수 있게 되는데, 얼굴의 경우, 정사각형상이기 보다는 타원형상이므로 라벨영역(ROI)의 사각형상에 대비하여 타원형상이 차지하는 영역에 대한 비율을 이용한다면 즉, 제2값의 개수 정보를 이용한다면 더욱 얼굴 영역 검출의 정밀성을 높일 수 있다.In addition, the number information of the second value existing in the label area can use the number information of the second value compared to the size of the label area. If the ratio of the area occupied by the elliptical shape to the rectangular shape of the square is used, that is, the number information of the second value is used, the precision of face area detection can be further improved.

상기와 같은 기준정보는 검출대상의 물리적 특성 및 이를 반영한 영상적 특성에 따라 다양한 정보로 설정될 수 있으며, 상기 기준정보의 선택된 조합에 의한 하나 이상의 기준정보가 이용되도록 구성될 수 있다.The reference information as described above may be set to various information according to the physical characteristics of the detection target and the image characteristics reflecting the same, and may be configured to use one or more pieces of reference information by the selected combination of the reference information.

상기와 같은 기준정보에 의하여 라벨영역마다 스코어(점수)를 부여하고 최상위 스코어를 가진 라벨영역 또는 최상위 소정 번째 순번을 가진 라벨영역 등을 원하는 검출대상영역으로 검출할 수 있게 된다.A score (score) is assigned to each label region based on the reference information as described above, and a label region having the highest score or a label region having the highest predetermined order can be detected as a desired detection subject region.

상기 본 발명에 의한 영상 라벨링 장치 및 영상 오브젝트 검출장치의 각 구성요소는 물리적으로 구분되는 구성요소라기보다는 논리적인 구성요소로 이해되어야 한다. 즉, 각각의 구성은 본 발명의 기술사상을 실현하기 위하여 논리적으로 구분된 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 수행되더라도 본 발명의 논리 구성이 수행하는 기능을 실현할 수 있다면 본 발명의 범위 내에 있다고 해석되어야 한다.Each component of the image labeling apparatus and the image object detecting apparatus according to the present invention should be understood as a logical component rather than a physically divided component. That is, since each configuration corresponds to logically divided components to realize the technical idea of the present invention, even if each component is integrated or separated, the present invention can realize the function performed by the logical configuration of the present invention. Should be interpreted to be within the scope of.

상술한 본 발명에 따른 영상 라벨링 방법 또는 영상 오브젝트 검출방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The image labeling method or the image object detecting method according to the present invention described above may be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 영상 라벨링 방법 또는 영상 오브젝트 검출방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the image labeling method or the image object detection method may be easily inferred by programmers in the art to which the present invention belongs.

이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.Although the present invention has been described above by means of limited embodiments and drawings, the present invention is not limited thereto and will be described below by the person skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of the claims.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 전술된 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.The following drawings, which are attached to this specification, illustrate exemplary embodiments of the present invention, and together with the detailed description of the present invention serve to further understand the technical spirit of the present invention, the present invention includes matters described in such drawings. It should not be construed as limited to.

도 1은 본 발명의 바람직한 실시예에 따른 영상 라벨링 장치의 구성을 도시한 블록도, 1 is a block diagram showing the configuration of an image labeling apparatus according to a preferred embodiment of the present invention;

도 2는 본 발명의 바람직할 실시예에 따른 영상 오브젝트 검출장치의 구성을 도시한 블록도,2 is a block diagram showing the configuration of an image object detecting apparatus according to an embodiment of the present invention;

도 3은 본 발명의 바람직한 실시예에 따른 영상 라벨링 방법의 과정을 도시한 흐름도,3 is a flowchart illustrating a process of an image labeling method according to an embodiment of the present invention;

도 4는 본 발명의 바람직한 실시예에 따른 영상 오브젝트 검출방법의 과정을 도시한 흐름도,4 is a flowchart illustrating a process of a method for detecting an image object according to an exemplary embodiment of the present invention;

도 5는 본 발명의 일 실시예에 의한 블록화된 블록 영상에 대한 도면,5 is a diagram for a blocked block image according to one embodiment of the present invention;

도 6은 본 발명의 바람직한 일 실시예의 변환 매트릭스에 대한 라벨링 필터를 나타낸 도면,6 illustrates a labeling filter for a transformation matrix of a preferred embodiment of the present invention;

도 7은 본 발명의 일 실시예에 의한 통합(merge)과정을 도시한 도면,7 illustrates a merge process according to an embodiment of the present invention;

도 8은 본 발명의 일 실시예에 의한 필터링 과정을 도시한 도면이다.8 is a diagram illustrating a filtering process according to an embodiment of the present invention.

Claims (15)

이진화 영상의 픽셀 중 라벨링 변환의 대상이 되는 대상 픽셀을 기준으로 라벨링 변환을 위한 변환 매트릭스 영역에 속하는 주위 픽셀에 대한 값을 검출하는 검출부;A detector configured to detect values of surrounding pixels belonging to a transformation matrix region for labeling transformation based on a target pixel, which is a target of labeling transformation, among pixels of the binarization image; 상기 주위 픽셀 값에 상기 이진화 영상을 나타내는 값 이외의 값이 존재하는지 여부에 따라 상기 대상 픽셀의 라벨링 값을 새로운 라벨값으로 변환하거나 상기 주위 픽셀의 라벨값으로 변환하는 라벨링부; 및A labeling unit converting a labeling value of the target pixel into a new labeling value or a labeling value of the surrounding pixel according to whether a value other than a value representing the binarized image exists in the surrounding pixel value; And 상기 라벨값이 부여된 각 픽셀의 통계적 산출값을 이용하여 검출대상을 판단하는 검출대상판단부를 포함하는 것을 특징으로 하는 영상 오브젝트 검출장치.And a detection object determination unit which determines a detection object by using a statistical calculation value of each pixel to which the label value is assigned. 제 1항에 있어서, 상기 이진화 영상은,The method of claim 1, wherein the binarization image, 픽셀값이 임계값보다 작은 값에 해당하는 제1값과 임계값보다 큰 값에 해당하는 제2값으로 이루어지는 것을 특징으로 하는 영상 오브젝트 검출장치.And a second value corresponding to a value larger than the threshold value and a first value corresponding to a value smaller than the threshold value. 제 2항에 있어서, 상기 라벨링부는,The method of claim 2, wherein the labeling unit, 상기 대상 픽셀의 값이 제2값이고, 상기 검출된 주위 픽셀의 값이 상기 제1값 또는 제2값만으로 이루어진 경우 상기 대상 픽셀의 값을 기존 라벨값과 구분되는 라벨값으로 변환하고, 상기 검출된 주위 픽셀의 값 중 제1값 및 제2값 이외의 라벨값이 존재하는 경우 상기 대상 픽셀의 값을 상기 제1값 및 제2값 이외의 라벨 값으로 변환하는 것을 특징으로 하는 영상 오브젝트 검출장치.When the value of the target pixel is a second value and the value of the detected surrounding pixel includes only the first value or the second value, the value of the target pixel is converted into a label value distinguished from an existing label value, and the detection is performed. And a label value other than the first value and the second value among the neighboring pixel values, wherein the target pixel value is converted into a label value other than the first value and the second value. . 제 1항에 있어서,The method of claim 1, 상기 라벨값이 부여된 라벨영상에서 동일한 라벨값이 부여된 라벨영역의 시작점정보, 종료점정보 및 면적정보 중 하나 이상을 포함하는 라벨정보를 각 라벨영역마다 산출하는 라벨정보산출부를 더 포함하고,And a label information calculating unit configured to calculate label information for each label region, the label information including at least one of start point information, end point information, and area information of the label region to which the same label value is assigned in the label image. 상기 검출대상판단부는,The detection subject determination unit, 검출대상을 판단하는 기준정보에 부합되는 정도에 따라 상기 각 라벨영역에 대한 라벨정보를 분류하고 상기 분류된 라벨정보를 이용하여 검출대상 영역을 판단하는 판단부를 포함하는 것을 특징으로 하는 영상 오브젝트 검출장치.And a labeling unit for classifying label information for each label region according to a degree corresponding to the reference information for determining a detection target, and determining a detection target region by using the classified label information. . 제 4항에 있어서, The method of claim 4, wherein 필터링 기준범위를 벗어나는 라벨영역에 해당하는 라벨정보를 제거하는 필터링부를 더 포함하고,Further comprising a filtering unit for removing the label information corresponding to the label area outside the filtering criteria range, 상기 판단부는,The determination unit, 상기 제거된 라벨정보 이외의 라벨정보를 이용하는 것을 특징으로 하는 영상 오브젝트 검출장치.And label information other than the removed label information. 제 4항에 있어서, 상기 검출대상을 판단하는 기준정보는,The method of claim 4, wherein the reference information for determining the detection target, 전체 영상 크기에 대비된 라벨영역의 크기에 대한 정보, 라벨영역이 전체영 상에서 해당하는 위치에 대한 정보, 라벨영역의 가로세로 비율정보, 라벨영역 내에 존재하는 제2값의 개수정보 중 선택된 하나 이상의 정보를 이용하여 정해지는 것을 특징으로 하는 영상 오브젝트 검출장치.At least one selected from information on the size of the label area compared to the entire image size, information on the position of the label area corresponding to the entire image, information on the aspect ratio of the label area, and information on the number of second values present in the label area. An image object detection apparatus, characterized in that determined using information. 제 1항에 있어서, 상기 검출대상은,The method of claim 1, wherein the detection target, 인체의 얼굴영역인 것을 특징으로 하는 영상 오브젝트 검출장치.Image object detection apparatus, characterized in that the face area of the human body. 이진화 영상의 픽셀 중 라벨링 변환의 대상이 되는 대상 픽셀을 기준으로 라벨링 변환을 위한 변환 매트릭스 영역에 속하는 주위 픽셀에 대한 값을 검출하는 검출단계;A detection step of detecting a value of a surrounding pixel belonging to a transformation matrix region for labeling transformation based on a target pixel, which is a target of labeling transformation, among pixels of the binarization image; 상기 주위 픽셀 값에 상기 이진화 영상을 나타내는 값 이외의 값이 존재하는지 여부에 따라 상기 대상 픽셀의 라벨링 값을 새로운 라벨값으로 변환하거나 상기 주위 픽셀의 라벨값으로 변환하는 라벨링단계; 및A labeling step of converting a labeling value of the target pixel into a new labeling value or a labeling value of the surrounding pixel according to whether a value other than a value representing the binarized image exists in the surrounding pixel value; And 상기 라벨값이 부여된 각 픽셀의 통계적 산출값을 이용하여 검출대상을 판단하는 검출대상판단단계를 포함하는 것을 특징으로 하는 영상 오브젝트 검출방법.And a detection object determination step of determining a detection object using a statistically calculated value of each pixel to which the label value is assigned. 제 8항에 있어서, 상기 이진화 영상은,The method of claim 8, wherein the binarization image, 픽셀값이 임계값보다 작은 값에 해당하는 제1값과 임계값보다 큰 값에 해당하는 제2값으로 이루어지는 것을 특징으로 하는 영상 오브젝트 검출방법.And a second value corresponding to a value larger than the threshold and a first value corresponding to a value smaller than the threshold. 제 9항에 있어서, 상기 라벨링단계는,The method of claim 9, wherein the labeling step, 상기 대상 픽셀의 값이 제2값이고, 상기 검출된 주위 픽셀의 값이 상기 제1값 또는 제2값만으로 이루어진 경우 상기 대상 픽셀의 값을 기존 라벨값과 구분되는 라벨값으로 변환하고, 상기 검출된 주위 픽셀의 값 중 제1값 및 제2값 이외의 라벨값이 존재하는 경우 상기 대상 픽셀의 값을 상기 제1값 및 제2값 이외의 라벨값으로 변환하는 것을 특징으로 하는 영상 오브젝트 검출방법.When the value of the target pixel is a second value and the value of the detected surrounding pixel includes only the first value or the second value, the value of the target pixel is converted into a label value distinguished from an existing label value, and the detection is performed. And a label value other than a first value and a second value among the neighboring pixel values, wherein the value of the target pixel is converted into a label value other than the first value and the second value. . 제 8항에 있어서,The method of claim 8, 상기 라벨값이 부여된 라벨영상에서 동일한 라벨값이 부여된 라벨영역의 시작점정보, 종료점정보 및 면적정보 중 하나 이상을 포함하는 라벨정보를 각 라벨영역마다 산출하는 라벨정보산출단계를 더 포함하고,Comprising a label information calculation step of calculating for each label region the label information including at least one of the start point information, the end point information and the area information of the label region is given the same label value in the label image is given, 상기 검출대상판단단계는,The detecting target determination step, 검출대상을 판단하는 기준정보에 부합되는 정도에 따라 상기 각 라벨영역에 대한 라벨정보를 분류하고 상기 분류된 라벨정보를 이용하여 검출대상 영역을 판단하는 판단단계를 포함하는 것을 특징으로 하는 영상 오브젝트 검출방법.And classifying label information for each label region according to a degree of conformity with reference information for determining a detection target, and determining a detection target region by using the classified label information. Way. 제 11항에 있어서,The method of claim 11, 필터링 기준범위를 벗어나는 라벨영역에 해당하는 라벨정보를 제거하는 필터링단계를 더 포함하고,The method may further include a filtering step of removing label information corresponding to a label area outside the filtering criteria range. 상기 판단단계는,The determining step, 상기 제거된 라벨정보 이외의 라벨정보를 이용하는 것을 특징으로 하는 영상 오브젝트 검출방법.And label information other than the removed label information. 제 11항에 있어서, 상기 검출대상을 판단하는 기준정보는,The method of claim 11, wherein the reference information for determining the detection target, 전체 영상 크기에 대비된 라벨영역의 크기에 대한 정보, 라벨영역이 전체영상에서 해당하는 위치에 대한 정보, 라벨영역의 가로세로 비율정보, 라벨영역 내에 존재하는 제2값의 개수정보 중 선택된 하나 이상의 정보를 이용하여 정해지는 것을 특징으로 하는 영상 오브젝트 검출방법.At least one selected from information on the size of the label area compared to the size of the entire image, information on the position of the label area in the entire image, aspect ratio information of the label area, and information on the number of second values present in the label area. Image object detection method characterized in that determined using the information. 제 8항에 있어서, 상기 검출대상은,The method of claim 8, wherein the detection target, 인체의 얼굴영역인 것을 특징으로 하는 영상 오브젝트 검출방법.Image object detection method characterized in that the face area of the human body. 제 8항 내지 제 14항 중 어느 한 항에 따른 방법을 프로그램화하여 수록한 컴퓨터로 읽을 수 있는 기록매체.A non-transitory computer-readable recording medium having programmed thereon a method according to any one of claims 8 to 14.
KR1020070107166A 2007-10-24 2007-10-24 System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure KR20090027550A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070107166A KR20090027550A (en) 2007-10-24 2007-10-24 System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070107166A KR20090027550A (en) 2007-10-24 2007-10-24 System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020070092540A Division KR101030430B1 (en) 2007-09-12 2007-09-12 Apparatus and method for processing image and computer readable medium stored thereon computer executable instruction for performing the method

Publications (1)

Publication Number Publication Date
KR20090027550A true KR20090027550A (en) 2009-03-17

Family

ID=40695140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070107166A KR20090027550A (en) 2007-10-24 2007-10-24 System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure

Country Status (1)

Country Link
KR (1) KR20090027550A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101249374B1 (en) * 2011-05-31 2013-04-01 주식회사 리미트정보통신 Apparatus and method for detecting target shape from image
US8692831B2 (en) 2010-02-01 2014-04-08 Samsung Electronics Co., Ltd. Parallel operation processing apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8692831B2 (en) 2010-02-01 2014-04-08 Samsung Electronics Co., Ltd. Parallel operation processing apparatus and method
KR101249374B1 (en) * 2011-05-31 2013-04-01 주식회사 리미트정보통신 Apparatus and method for detecting target shape from image

Similar Documents

Publication Publication Date Title
KR101030430B1 (en) Apparatus and method for processing image and computer readable medium stored thereon computer executable instruction for performing the method
JP4991923B2 (en) Image processing method and apparatus
US9171224B2 (en) Method of improving contrast for text extraction and recognition applications
US9235779B2 (en) Method and apparatus for recognizing a character based on a photographed image
EP3203417B1 (en) Method for detecting texts included in an image and apparatus using the same
CN1875378A (en) Object detection in images
JP2014531097A (en) Text detection using multi-layer connected components with histograms
US10438376B2 (en) Image processing apparatus replacing color of portion in image into single color, image processing method, and storage medium
WO2010131435A1 (en) Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object
US10424068B2 (en) Image processing apparatus and image processing method for person identification
US20100172587A1 (en) Method and apparatus for setting a lip region for lip reading
US20190370984A1 (en) Object tracking system and method thereof
US20110229026A1 (en) Image processing apparatus, image processing method, and storage medium of image processing method
US8798391B2 (en) Method for pre-processing an image in facial recognition system
KR100968244B1 (en) System for recognizing a specific subject in image and Method thereof
US9710703B1 (en) Method and apparatus for detecting texts included in a specific image
KR20090027550A (en) System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure
JP5979008B2 (en) Image processing apparatus, image processing method, and program
US20070145139A1 (en) Information processing device and method, and program
US20220327862A1 (en) Method for detecting whether a face is masked, masked-face recognition device, and computer storage medium
WO2020100436A1 (en) Reading system, reading method, program, storage medium, and moving body
KR101706347B1 (en) Method for shot boundary detection, and image processing apparatus and method implementing the same method
KR101465940B1 (en) Detecting method for color object in image, detecting apparatus for color object in image and detecting method for a plurality of color object in image
KR101465933B1 (en) Detecting method for color object in image, detecting apparatus for color object in image and detecting method for a plurality of color object in image
WO2024047847A1 (en) Detection device, detection method, and detection program

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application