KR101018299B1 - Apparatus and method for detecting a plurality of objects in an image - Google Patents

Apparatus and method for detecting a plurality of objects in an image Download PDF

Info

Publication number
KR101018299B1
KR101018299B1 KR1020090036842A KR20090036842A KR101018299B1 KR 101018299 B1 KR101018299 B1 KR 101018299B1 KR 1020090036842 A KR1020090036842 A KR 1020090036842A KR 20090036842 A KR20090036842 A KR 20090036842A KR 101018299 B1 KR101018299 B1 KR 101018299B1
Authority
KR
South Korea
Prior art keywords
image
input image
objects
map
detecting
Prior art date
Application number
KR1020090036842A
Other languages
Korean (ko)
Other versions
KR20100118162A (en
Inventor
유회준
김민수
김주영
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020090036842A priority Critical patent/KR101018299B1/en
Publication of KR20100118162A publication Critical patent/KR20100118162A/en
Application granted granted Critical
Publication of KR101018299B1 publication Critical patent/KR101018299B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 처리 기술에 관한 것으로, 보다 구체적으로는 영상에서 복수개의 물체를 감지하는 기술에 관한 것이다.The present invention relates to an image processing technology, and more particularly to a technology for detecting a plurality of objects in the image.

본 발명에 따른 영상처리장치에 입력된 영상에서 복수의 물체를 감지하는 방법은, 상기 입력 영상의 정적 특성과 동적 특성을 이용하여 현출 맵(saliency map)을 생성하는 단계, 상기 현출 맵에서 설정된 기준값 이상의 현출도를 갖는 점을 시드점으로 정하여 하나 이상 선택하는 단계, 상기 시드점 각각에 대해, 상기 입력 영상에서 상기 시드점과 그 주변 점들의 유사도를 평가하여 상기 시드점과 유사한 것으로 판단된 점으로 이루어진 유사영역을 판정하는 단계 및 상기 유사영역을 물체 영역으로 판단하는 단계를 포함한다.In the method for detecting a plurality of objects in the image input to the image processing apparatus according to the present invention, generating a saliency map using the static and dynamic characteristics of the input image, the reference value set in the saliency map Selecting one or more points having the appearance degree as seed points, and for each of the seed points, evaluating the similarity between the seed points and neighboring points in the input image and determining that the seed points are similar to the seed points. Determining the similar area, and determining the similar area as an object area.

물체 감지, 영상처리, 현출 맵 Object detection, image processing, appearance map

Description

영상에서 복수의 물체를 감지하는 방법 및 장치{APPARATUS AND METHOD FOR DETECTING A PLURALITY OF OBJECTS IN AN IMAGE} A method and apparatus for detecting a plurality of objects in an image {APPARATUS AND METHOD FOR DETECTING A PLURALITY OF OBJECTS IN AN IMAGE}

본 발명은 영상 처리 기술에 관한 것으로, 보다 구체적으로는 영상에서 복수개의 물체를 감지하는 기술에 관한 것이다.The present invention relates to an image processing technology, and more particularly to a technology for detecting a plurality of objects in the image.

물체 감지는 물체에 기반한 인식 시스템, 영상 검색, 컨텐츠 전달, 영상 압축 등에 효율적으로 이용될 수 있다. 물체 감지는 이러한 영상 시스템의 전처리 단에서 적용된다. Object detection can be effectively used for object-based recognition systems, image retrieval, content delivery, and image compression. Object detection is applied in the preprocessing stage of these imaging systems.

종래의 물체 감지 방식 중에는 템플릿 매칭(Templet Matching)을 기반으로 한 방식이 있다. 이러한 방식은 영상에서 미리 정의된 템플릿과의 비교를 통해 일치하는지를 판단해 물체가 존재하는 영역을 찾아낸다. 주로 보행자 감지, 안면 감지, 차량 감지 등에 사용된다. 그러나 이러한 방식은 미리 정의된 한 가지 물체에 대해서만 감지가 가능하다. 따라서 그 쓰임이 한정적일 수밖에 없다.Among conventional object detection methods, there is a method based on template matching. This method finds an area where an object exists by determining whether there is a match through comparison with a predefined template in an image. It is mainly used for pedestrian detection, face detection and vehicle detection. However, this method can detect only one predefined object. Therefore, its use is limited.

본 발명에서는 영상처리장치에 입력된 영상에서 물체 영역을 검출하고, 검출된 한정된 영역에 대해서만 영상처리를 수행함으로써 영상처리의 효율을 높이는 것을 목적으로 한다.An object of the present invention is to increase the efficiency of image processing by detecting an object region in an image input to an image processing apparatus and performing image processing only on the detected limited region.

또한 입력된 영상에서 복수의 물체를 감지하여 영상처리 전체의 속도를 증가시키고, 영상처리장치의 전력 소모를 감소시키는 것을 목적으로 한다.In addition, the object of the present invention is to detect a plurality of objects in the input image to increase the speed of the entire image processing, and to reduce the power consumption of the image processing apparatus.

전술한 목적을 달성하기 위한 본 발명에 따른 영상처리장치에 입력된 영상에서 복수의 물체를 감지하는 방법은, 상기 입력 영상의 정적 특성과 동적 특성을 이용하여 현출 맵(saliency map)을 생성하는 단계, 상기 현출 맵에서 설정된 기준값 이상의 현출도를 갖는 점을 시드점으로 하여 하나 이상 선택하는 단계, 상기 시드점 각각에 대해, 상기 입력 영상에서 상기 시드점과 그 주변 점들의 유사도를 평가하여 상기 시드점과 유사한 것으로 판단된 점으로 이루어진 유사영역을 판정하는 단계 및 상기 유사영역을 물체 영역으로 판단하는 단계를 포함한다.In order to achieve the above object, a method of detecting a plurality of objects in an image input to an image processing apparatus according to the present invention comprises: generating a saliency map using static and dynamic characteristics of the input image. Selecting one or more points having a degree of appearance greater than or equal to a reference value set in the appearance map as a seed point, and for each of the seed points, evaluating the similarity between the seed point and neighboring points in the input image. Determining a similar area composed of points determined to be similar to and determining the similar area as an object area.

여기서, 상기 입력 영상의 정적 특성은 상기 입력 영상의 각 픽셀들의 명암, 색상, 선 방향성을 이용하여 얻어지는 정적 특징맵이고, 상기 입력 영상의 동적 특성은 상기 입력영상의 시간상 인접하는 두 프레임의 영상을 비교하여 얻어지는 동적 특징맵인 것이 바람직하다.Here, the static characteristic of the input image is a static feature map obtained by using the contrast, color, and linearity of each pixel of the input image, and the dynamic characteristic of the input image is an image of two adjacent frames in time of the input image. It is preferable that it is a dynamic feature map obtained by comparison.

여기서, 상기 유사도는 두 점 사이의 명암 차이, 현출도 차이, 거리를 이용 하여 판단하는 것이 바람직하다.Here, the similarity is preferably determined by using the difference between the contrast, the difference in appearance and the distance between the two points.

여기서, 상기 명암 차이, 현출도 차이 및 거리 각각에 미리 정해진 가중치를 곱한 뒤 합산하여 상기 유사도를 연산하는 것이 바람직하다.Here, it is preferable to calculate the similarity by multiplying each of the contrast difference, the appearance difference, and the distance by a predetermined weight.

본 발명의 다른 일 실시예에 따른 영상처리장치에 입력된 영상에서 복수의 물체를 감지하고 상기 물체의 종류를 인식하는 물체 인식 방법은, 전술한 복수의 물체를 감지하는 방법에 의하여 상기 입력 영상에서 상기 복수의 물체의 영역을 판정하는 단계, 상기 복수의 물체의 영역 각각에 대해 특징을 추출하는 단계 및 상기 추출된 특징을 미리 구축된 물체 특징 정보 데이터베이스와 비교하여 물체의 종류를 판별하는 단계를 포함한다.According to another embodiment of the present invention, an object recognition method for detecting a plurality of objects from an image input to an image processing apparatus and recognizing the type of the object may include detecting the plurality of objects from the input image. Determining regions of the plurality of objects, extracting a feature for each of the regions of the plurality of objects, and comparing the extracted features with a pre-built object feature information database to determine the type of object; do.

본 발명에 따른 방법들은 프로그램 형태로 기록매체에 저장될 수 있고, 그 프로그램이 컴퓨터에서 실행될 수 있다.The methods according to the invention can be stored on a record carrier in the form of a program and the program can be executed on a computer.

본 발명의 다른 일 실시예에 따른 영상을 입력받아 상기 영상에서 복수의 물체를 감지하는 영상처리장치는, 상기 입력 영상의 동적인 특징을 계산하는 움직임 판단기 (Motion Estimator), 상기 입력 영상의 정적인 특징을 계산하고 상기 동적인 특징 및 상기 정적인 특징을 이용하여 현출 맵을 생성하는 시각 집중기(Visual Attention Engine), 상기 현출 맵으로부터 물체 영역을 구분하는 물체 감지기(Object Detection Engine), 상기 입력 영상이 저장되고 상기 움직임 판단기, 상기 시각집중기 및 상기 물체 감지기의 출력이 저장되는 메모리 및 상기 움직임 판단기, 상기 시각집중기 및 상기 물체감지기의 동작을 제어하는 RISC 프로세서를 포함한다. According to another aspect of the present invention, an image processing apparatus for receiving an image and detecting a plurality of objects in the image includes: a motion estimator for calculating a dynamic feature of the input image, and a static image of the input image. A Visual Attention Engine that calculates a feature and generates an outgoing map using the dynamic and static features, an Object Detection Engine that distinguishes an object area from the outgoing map, and the input And a memory in which an image is stored and outputs of the motion determiner, the visual focusing unit, and the object detector are stored, and a RISC processor for controlling operations of the motion determiner, the visual focusing unit, and the object detector.

본 발명에 의하면 영상처리장치에 입력된 영상에서 복수의 물체 영역을 검출하고, 검출된 한정된 영역에 대해서만 영상처리를 수행할 수 있어 영상처리의 효율을 높일 수 있다. 또한 본 발명에 의하면 입력된 영상에서 복수의 물체를 감지하여 영상처리 전체의 속도를 증가시키고, 영상처리장치의 전력 소모를 감소시킬 수 있다.According to the present invention, a plurality of object regions may be detected from an image input to the image processing apparatus, and image processing may be performed only on the detected limited region, thereby improving image processing efficiency. According to the present invention, a plurality of objects may be detected in an input image to increase the speed of the entire image processing and to reduce power consumption of the image processing apparatus.

본 발명은 물체 감지 알고리즘에서 현출 맵 (saliency map)으로부터 여러 개의 물체 각각의 영역을 정확하기 구분해내기 위한 방법과 물체 감지 알고리즘을 빠르게 수행하기 위한 하드웨어를 제공한다. The present invention provides a method for accurately distinguishing an area of each of a plurality of objects from a saliency map in an object detection algorithm, and hardware for quickly performing the object detection algorithm.

본 발명에서는 인간의 시각 집중 현상을 모방한 알고리즘을 통해 현출(顯出, saliency, 두드러지게 드러나거나 드러냄) 맵(map)을 얻어내고 여기서 가장 두드러진 영역 즉 현출도가 일정 값 이상인 영역을 중심으로 영역 확장(region growing)을 통해 물체 영역을 구분해낸다. 나아가 본 발명에서는 현출 맵을 효율적으로 얻어내고 현출 맵으로부터 복수의 물체 영역을 구분해내는 방법을 제공한다. 또한 복수의 물체 영역을 감지해주는 것을 통해 영상의 전 영역이 아닌 한정된 영역에 대해서만 이후의 영상 처리를 수행함으로써 후처리단의 영상 처리 전체의 속도를 증가시켜주고, 영상처리장치의 전력 소모를 감소시킬 수 있다.In the present invention, a map is obtained through an algorithm that mimics the human's visual concentration phenomenon, and the area is centered around the most prominent area, that is, the area where the degree of manifestation is above a certain value. Region growing separates object regions. Furthermore, the present invention provides a method of efficiently obtaining a manifest map and distinguishing a plurality of object regions from the manifest map. In addition, by sensing a plurality of object areas, subsequent image processing is performed on only a limited area, not an entire area of the image, thereby increasing the speed of the entire image processing of the post-processing stage and reducing power consumption of the image processing apparatus. Can be.

이하 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다. 이하의 설명은 본 발명의 이해를 돕기 위해 구체적인 실시예를 들어 진행하지만 본 발명이 이러한 실시예로 한정되는 것이 아님에 유의해야 한다. 도면 전체적으로 동일한 구성요소는 동일한 인용부호를 이용하여 나타내었다. 또한 본 발명의 요지를 흐리지 않기 위하여 종래 공지된 구성요소의 경우 당업자가 본 발명을 용이하게 이해하고 재현할 수 있는 한 그 구체적인 설명을 생략하도록 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail with reference to the accompanying drawings. The following description is given by way of specific examples to aid in understanding the invention, but it should be noted that the invention is not limited to these embodiments. Like elements throughout the drawings are represented by like reference numerals. In addition, in order not to obscure the gist of the present invention, in the case of conventionally known components, a detailed description thereof will be omitted as long as those skilled in the art can easily understand and reproduce the present invention.

도 1은 본 발명의 일 실시예에 따른, 입력된 영상으로부터 격자 형식으로 물체 영역을 나타내주는 과정을 나타낸 도면이다. 물체 감지 알고리즘은 네 단계로 이루어진다. 1 is a diagram illustrating a process of representing an object region in a grid form from an input image according to an embodiment of the present invention. The object detection algorithm has four steps.

첫 번째 단계에서, 입력된 영상(10)에서부터 정적인 특성과 동적인 특성을 이용하여 현출 맵(saliency map, 20)을 생성한다 (S100). 정적인 특성과 동적인 특성의 정의에 관해서는 도 2를 참조하여 후술하도록 한다. 현출 맵(20)은 입력된 영상을 복수의 영역으로 나누어 각 영역에 사람의 시각에 의해 집중되는 정도를 표현한 맵을 의미한다. 일례로서 현출 맵은 각 영역이 사람의 시각에 의해 집중되는 정도를 그레이 스케일로 나타낸 것일 수 있다. 현출 맵을 생성하는 방법에 대해서는 도 2를 참조하여 후술하도록 한다.In a first step, a saliency map 20 is generated using the static and dynamic characteristics from the input image 10 (S100). The definition of the static and dynamic characteristics will be described later with reference to FIG. 2. The appearance map 20 refers to a map in which the input image is divided into a plurality of areas and expresses the degree of concentration in each area by human vision. As an example, the manifest map may represent the degree of concentration of each region by the human eye in gray scale. A method of generating an appearance map will be described later with reference to FIG. 2.

두 번째 단계에서는, 현출 맵 상에서 설정된 기준값 이상의 현출도를 갖는 점들을 시드점(seed points)으로 결정한다 (S200). 예를 들어 현출 맵이 영상의 각 영역의 그레이 스케일로 표현된 경우 백색에 가까울수록 현출도가 높은 것으로 설정할 수 있으며, 일정 값 이상의 현출도를 갖는 점을 시드점으로 선택한다. 또한 선택할 시드점의 개수를 미리 설정해 두고 입력 영상에서 현출도가 높은 순으로 시드점을 선택할 수도 있다. 도 1의 현출 맵(20)에서는 3개의 시드점이 선택된 것으로 나타나 있다. 현출 맵(20)에서의 시드점을 입력 영상의 해당 위치에 대응시켜 보면(30) 시드점이 물체의 일 부분에 위치하고 있는 것을 알 수 있다.In the second step, the points having the degree of appearance more than the reference value set on the appearance map (seed point) is determined (S200). For example, when the appearance map is represented by the gray scale of each region of the image, the closer to white, the higher the degree of appearance can be set, and a point having a degree of appearance above a predetermined value is selected as the seed point. In addition, the number of seed points to select may be set in advance, and the seed points may be selected in the order of high appearance in the input image. Three seed points are shown in the manifest map 20 of FIG. 1. When the seed point in the appearance map 20 corresponds to the corresponding position of the input image (30), the seed point is located at a part of the object.

세 번째 단계에서는, 입력 영상에서, 시드점과 그 주변 점의 유사도를 평가하여 시드점과 유사한 것으로 판단된 점으로 이루어진 유사영역을 확장해나간다 (S300). 즉 시드점 각각에 대해, 그 시드점과 바로 인접한 점부터 시작하여 연속적으로 점점 멀어지는 점을 대상으로 시드점 주변 점들의 유사도를 평가하여 시드점과 설정된 기준값 이상의 유사도를 갖는 점을 해당 시드점의 유사영역에 포함된 것으로 평가한다. 시드점과 주변 점의 유사도를 평가하는 방법에 관해서는 도 3 및 도 4를 참조하여 후술하도록 한다. 도 1에 유사영역이 표시된 영상(40)을 나타내었다.In the third step, in the input image, the similarity between the seed point and the neighboring point is evaluated to expand a similar area composed of points determined to be similar to the seed point (S300). That is, for each seed point, the similarity of the seed point is similar to that of the seed point by evaluating the similarity of the points around the seed point, starting from the point immediately adjacent to the seed point, and gradually moving away from each other. Evaluate as included in the area. A method of evaluating the similarity between the seed point and the surrounding point will be described later with reference to FIGS. 3 and 4. 1 shows an image 40 in which a similar region is displayed.

네 번째 단계에서, 최종적으로 물체 영역을 격자 영역으로 표현하고, 그 격자 영역을 물체 영역으로 판단한다 (S400). 도 1에 물체 영역이 격자 영역으로 표현된 영상(50)을 나타내었다.In the fourth step, the object region is finally represented by the grid region, and the grid region is determined as the object region (S400). 1 shows an image 50 in which an object region is represented by a grid region.

도 2는 현출 맵을 생성하는 단계(S100)를 보다 구체적으로 나타낸 도면이다. 본 발명에서는 현출 맵을 생성하기 위하여 입력 영상의 정적 특성과 동적 특성을 이용하는데, 정적 특성은 입력 영상의 각 픽셀의 명암, 색상, 선 방향성을 이용하여 얻어지는 정적 특징맵을 의미하고, 동적 특성은 입력영상의 시간상 인접하는 두 프레임의 영상을 비교하여 얻어지는 동적 특징맵을 의미한다. 2 is a view showing in more detail the step (S100) of generating the appearance map. In the present invention, the static and dynamic characteristics of the input image are used to generate the appearance map. The static characteristic means a static feature map obtained by using the contrast, color, and linearity of each pixel of the input image. A dynamic feature map obtained by comparing images of two adjacent frames in time of an input image.

우선 정적 특징맵을 얻는 과정을 살펴보면, 먼저 입력 영상에 대해 픽셀 연산(pixel operations)을 수행하여 각 픽셀이 8 비트 비부호(unsigned) 값으로 표현된 명암값 맵과, 8 비트 비부호 값으로 표현된 R-G 대비값 맵과, 8비트 비부호 값으로 표현된 B-Y 대비값 맵을 생성한다 (S101).First of all, the process of obtaining a static feature map is performed by first performing pixel operations on the input image. Each pixel is represented by an 8-bit unsigned value and an 8-bit unsigned value. A generated RG contrast value map and a BY contrast map represented by an 8-bit unsigned value are generated (S101).

그 후 명암값 맵, R-G 대비값 맵, B-Y 대비값 맵을 멀티 스케일(multi-scale)로 생성한다 (S102). Thereafter, the intensity map, the R-G contrast map, and the B-Y contrast map are generated in multi-scale (S102).

그 후, 멀티 스케일의 명암값 맵에 가버(Gabor) 필터를 적용하여 선 방향성을 추출한다 (S103). Thereafter, a Gabor filter is applied to the multi-scale intensity map to extract the linearity (S103).

그 후, 멀티 스케일의 선 방향성 정보, 멀티 스케일의 명암값 맵, 멀티 스케일의 R-G 대비값 맵, 멀티 스케일의 B-Y 대비값 맵 각각에 대해 중심-주변 절대값 차이(Center-surround Absolute difference) 정보를 생성한다 (S104).Then, the center-surround absolute difference information is obtained for each of the multi-directional linear information, the multi-scale contrast map, the multi-scale RG contrast map, and the multi-scale BY contrast map. It generates (S104).

그 후, 전단계에서 얻어진 중심-주변 절대값 차이 정보를 조합(combination) 및 정규화(normalization)해서 입력 영상의 방향, 명암, 색상 정보를 획득하고 (S105), 그 정보들을 합하여 정적 특징맵을 생성한다 (S106).Thereafter, the center-peripheral absolute value difference information obtained in the previous step is combined and normalized to obtain direction, contrast, and color information of the input image (S105), and the information is added to generate a static feature map. (S106).

한편 입력 영상의 시간적으로 연속한 두 프레임에 대해 8 비트 비부호 값으로 표현된 명암값 맵을 생성하고 (S107), 이를 다시 멀티스케일로 변환한다 (S108). 그 후 각 스케일의 명암값 맵의 변위(gradient) 기반 시각적 흐름(optical flow) 정보를 추출한다 (S109). 그 후 모든 레벨의 시각적 흐름 정보를 합산하여 동적 특징맵을 생성한다 (S110).Meanwhile, a contrast map represented by an 8-bit unsigned value for two temporally consecutive frames of the input image is generated (S107), and then converted back to multiscale (S108). Thereafter, gradient-based optical flow information of the intensity map of each scale is extracted (S109). Thereafter, visual flow information of all levels is added to generate a dynamic feature map (S110).

그 후, 정적 특징맵과 동적 특징맵 각각에 설정된 가중치를 적용한 뒤 합산하여 현출맵을 생성한다 (S111). Thereafter, after applying the weights set to each of the static feature map and the dynamic feature map, the sum is generated to generate the appearance map (S111).

이상 설명한 현출맵을 얻는 방법은 일예를 든 것으로서 그 밖에 종래 공지된 임의의 현출맵 생성 방법을 이용하여 현출맵을 생성할 수도 있다.The above-described method of obtaining the appearance map is an example, and in addition, the appearance map may be generated using any of the known appearance map generation methods.

도 3은 시드점에서부터 시작하여 주변 점과의 유사도를 평가하면서 시드점과 유사한 유사영역을 확장하는 단계(S300)를 모식적으로 나타낸 도면이다. 전술한 바와 같이 시드점(301)에 대해, 그 시드점과 바로 인접한 점부터 시작하여 연속적으로 점점 멀어지는 점을 대상으로 시드점 주변 점들의 유사도를 평가하여 시드점과 설정된 기준값 이상의 유사도를 갖는 점을 해당 시드점의 유사영역에 포함된 것으로 평가한다. 따라서 시드점에서 시작하여 유사영역은 점점 확장되어 나가다 비유사한 것으로 판단된 점들에 의하여 둘러싸이는 경우 그 둘러싸인 내부 영역이 유사 영역으로 판정된다.3 is a diagram schematically illustrating a step (S300) of expanding a similar region similar to the seed point while evaluating the similarity with the surrounding point starting from the seed point. As described above, with respect to the seed point 301, the similarity of the points around the seed point is evaluated with respect to the points that are gradually moving away from the point immediately adjacent to the seed point, and the point having similarity with the seed point or more than the set reference value is determined. It is evaluated to be included in the similar region of the seed point. Therefore, starting from the seed point, the similar region gradually expands and is surrounded by the points determined to be dissimilar, and the enclosed inner region is determined as the similar region.

도 4는 유사도를 기반으로 유사 영역을 확장하는 알고리즘을 더욱 자세히 나타낸 도면이다. 도 4에 나타낸 바와 같이 유사 영역 확장 알고리즘은 다음과 같은 프로그램으로 나타낼 수 있다. 당업자는 아래 프로그램 코드로부터 본 발명의 일 실시예에 따른 영역 확장 알고리즘을 명확하게 이해할 수 있을 것이다.4 is a diagram illustrating in more detail an algorithm for extending a similar region based on the similarity. As shown in FIG. 4, the similar region extension algorithm may be represented by the following program. Those skilled in the art will be able to clearly understand the region extension algorithm according to the embodiment of the present invention from the following program code.

Pi a seed pointPi a seed point

Create Ri initial region from PiCreate Ri initial region from Pi

Insert the 8 neighbors of R into a list LInsert the 8 neighbors of R into a list L

While L is not empty doWhile L is not empty do

Remove first point x from LRemove first point x from L

If x satisfies the membership criteria in Ri thenIf x satisfies the membership criteria in Ri then

Add x to RiAdd x to ri

Update the membership criteriaUpdate the membership criteria

Insert all neighbors fo x into LInsert all neighbors fo x into L

End ifEnd if

End whileEnd while

위 프로그램 코드로부터 영역 확장 알고리즘을 살펴보면, 우선 Pi가 시드 포인트인 경우 그 시드점으로 이루어진 유사 영역 Ri를 생성한다. 그 후 시드점과 인접한 8개의 점을 리스트 L에 넣은 후, L 이 빌 때까지 L에 속하는 모든 점에 대해 시드점과의 유사도를 평가하고 유사한 경우 그 점을 유사 영역 Ri에 포함시킨다. 유사 영역에 어떤 점이 추가될 때마다 유사도 판정 알고리즘(membership criteria)를 업데이트함으로써 유사도 판정의 정확도를 더욱 향상시킨다. 한편 어떤 점이 유사영역에 포함될 때마다 그 인접 8개의 점을 리스트 L에 추가하여 시드점과의 유사도를 판정한다. 유사도 판정 대상이 없어지면 즉 리스트 L에 비면 유사영역 확장이 중단된다.Looking at the region expansion algorithm from the program code above, first, if Pi is a seed point, a pseudo region Ri consisting of the seed points is generated. Then, eight points adjacent to the seed point are put in the list L, and the similarity with the seed point is evaluated for all the points belonging to L until L is empty, and if they are similar, the point is included in the similar area Ri. Each time a point is added to the similarity region, the similarity determination algorithm is further updated to further improve the accuracy of the similarity determination. On the other hand, whenever a point is included in the similar area, eight adjacent points are added to the list L to determine the similarity with the seed point. When the similarity determination object disappears, that is, when compared to the list L, the expansion of the similar region is stopped.

본 발명에서는 유사도를 판단하기 위하여 시드점과 주변 점의 명암(intensity), 현출성(saliency), 거리(distance)를 비교한다. 이러한 세가지의 변수를 이용하기 위해서 뉴로 퍼지(neuro-fuzzy) 분류기를 사용한다. 뉴로 퍼지 분류기에서는 각 세가지 변수의 유사도를 판별하고 (S401), 판별된 유사도에 각각 설정된 가중치를 적용하여 (S402), 합산하고 (S403), 그 합산된 값 즉 유사도가 설정된 기준값보다 큰 경우 각 점이 시드점과 같은 물체 영역에 포함되는 것으로 판단한다 (S404)In the present invention, the intensity, saliency, and distance of the seed point and the surrounding point are compared to determine the similarity. To use these three variables, we use a neuro-fuzzy classifier. The neuro fuzzy classifier determines the similarity of each of the three variables (S401), and applies the weights set to the determined similarities (S402) and adds them (S403), and if the summed value, that is, the similarity is greater than the set reference value, each point is determined. It is determined that it is included in the same object region as the seed point (S404).

본 발명에서는 뉴로 퍼지 분류기를 이용함으로써 샘플 영상들을 이용하여 올바르게 동작하도록 학습(learning)을 시킬 수 있고, 동작 중에서도 각 변수들의 가중치를 조정함으로써 뉴로 퍼지 네트워크 구조에서 연결강도를 변화시키며 유사도 판단을 최적화할 수 있다. 최종적으로 물체 영역과 인접한 점들이 모두 물체 영역에 포함되지 않는다고 판정될 때까지 영역 확장을 하여 물체의 경계(boundary)를 결정해준다. In the present invention, a neuro fuzzy classifier can be used to learn to operate correctly using sample images, and the weight of each variable can be adjusted to change connection strength and optimize similarity judgment in a neuro fuzzy network structure. Can be. Finally, the boundary of the object is determined by expanding the area until it is determined that all points adjacent to the object area are not included in the object area.

도 5는 본 발명의 일 실시예에 따른 복수의 물체를 감지하는 방법을 실행하기 위한 영상처리장치(500)의 블록도이다. 입력 영상의 동적인 특징을 계산하는 움직임 판단기(Motion Estimator, 510), 입력 영상의 정적인 특징을 계산하고 동적인 특징 및 정적인 특징을 이용하여 현출 맵을 생성하는 시각 집중기(Visual Attention Engine, 520), 현출 맵으로부터 물체 영역을 구분하는 물체 감지기(Object Detection Engine, 530), 입력 영상이 저장되고 다른 구성요소들의 출력이 저장되는 메모리(540) 및 다른 구성요소들의 동작을 제어하는 RISC 프로세서(550)를 포함한다.5 is a block diagram of an image processing apparatus 500 for executing a method of detecting a plurality of objects according to an embodiment of the present invention. Motion Estimator (510) for calculating the dynamic features of the input image, Visual Attention Engine for calculating the static features of the input image and generating the appearance map using the dynamic and static features 520), an Object Detection Engine (530) for distinguishing an object region from the appearance map, a memory (540) in which an input image is stored and an output of other components, and a RISC processor for controlling operations of other components 550.

도 6은 본 발명에 따른 영상처리장치(500)의 각 구성요소에 본 발명에 따른 물체 인식 방법의 어느 단계를 수행하는지를 나타낸 도면이다. 움직임 판단기(510)는 입역 영상에서 동적 특징을 추출하는 역할을 한다. 즉 도 2에서 단계 S107, S108, S109, S110이 움직임 판단기(510)에 의하여 수행된다. 시각 집중기(520)는 입력 영상에서 정적 특징을 추출하고, 움직임 판단기(510)에 의해 추출된 동적 특징과 함께 이용하여 현출 맵을 생성한다. 즉, 시각 집중기(520)는 도 2에서 단계 S101, S102, S103, S104, S105, S106, S111이 수행된다. 물체 감지기(530)는 현출 맵을 이용하여 시드 점을 찾아내고 물체 영역을 판정한다. 즉 물체 감지기(530)는 도 1의 단계 S300, S400을 수행한다. 6 is a diagram illustrating which steps of the object recognition method according to the present invention are performed to each component of the image processing apparatus 500 according to the present invention. The motion determiner 510 extracts a dynamic feature from the entrance image. That is, in FIG. 2, steps S107, S108, S109, and S110 are performed by the motion determiner 510. The visual concentrator 520 extracts the static feature from the input image and generates the appearance map using the dynamic feature extracted by the motion determiner 510. That is, the visual concentrator 520 performs steps S101, S102, S103, S104, S105, S106, and S111 in FIG. 2. The object detector 530 uses the presence map to find the seed point and determine the object area. That is, the object detector 530 performs steps S300 and S400 of FIG. 1.

도 7은 영상처리장치에 입력된 영상에서 복수의 물체를 감지하고 그 물체의 종류를 인식하는 물체 인식 방법을 나타낸 도면이다. 입력 영상(701)이 영상처리장치에 입력되면, 영상처리장치는 입력 영상(701)에서 본 발명에 따른 물체 인식 방법을 이용하여 물체를 인식한다 (S710). 물체를 인식하는 전처리(pre processing) 과정이 종료되면 인식된 각각의 물체에 대해 후처리(post processing)를 수행한다 (S720). 도 7에는 물체 1, 물체 2, 물체 3이 인식되었으며, 각 물체 영역에 대해 특징을 추출한다 (S721). 그 후 그 물체 영역에 포함된 픽셀 각각에 대해 물체 데이터베이스에서 정해진 형식의 디스크립터(descriptor)를 형성한다 (S722). 그 후 추출한 특징을 기존의 데이터베이스와 비교하여 최종적으로 물체의 종류를 판별한 다 (S723). FIG. 7 is a diagram illustrating an object recognition method of detecting a plurality of objects from an image input to an image processing apparatus and recognizing the types of the objects. When the input image 701 is input to the image processing apparatus, the image processing apparatus recognizes the object in the input image 701 using the object recognition method according to the present invention (S710). When the pre-processing process of recognizing the object is completed, post processing is performed on each recognized object (S720). In FIG. 7, objects 1, 2, and 3 are recognized, and features are extracted for each object region (S721). Thereafter, a descriptor of a predetermined format is formed in the object database for each pixel included in the object region (S722). Thereafter, the extracted feature is compared with an existing database to finally determine the type of the object (S723).

발명의 효과Effects of the Invention

본 발명에 따른 복수 물체 감지 방법 및 물체 인식 방법을 이용하여 COIL-100의 샘플 물체들을 이용하여 임의의 물체에 대해 감지 능력과 정확도를 종합한 F-measure를 통해 성능을 평가하였다. 본 발명과 같이 영역 확장 시에 명암, 현출도, 거리의 변수를 사용한 경우가 현출도, 거리 두 개의 변수만을 사용한 결과보다 27%, 명암과 현출 맵만 사용한 결과보다 112% 성능이 향상되었다.  Using the multi-object detection method and the object recognition method according to the present invention, the performance was evaluated by F-measure combining the detection capability and the accuracy of arbitrary objects using the sample objects of the COIL-100. As shown in the present invention, when the variables of contrast, saturation, and distance are used when the area is expanded, the performance is improved by 27% compared to the results using only two variables, the saturation and distance, and 112% compared to the results using only the contrast and the map.

본 발명에서의 물체 감지를 복수의 물체 감지기가 물체 인식 시스템의 전처리 단으로써 구현한 결과이다. 물체 영역을 구분하여 줌으로써 물체 인식을 위해 처리되는 영상 영역이 물체가 있는 영역으로만 한정되고, 물체 감지기가 전처리 단에서부터 여러 개의 물체 영역을 구분하여 줌으로써 후처리단의 추가적인 연산을 없애준다.  The object detection in the present invention is the result of the plurality of object detectors implemented as a preprocessing stage of the object recognition system. By classifying the object areas, the image area processed for object recognition is limited to the area where the object is located, and the object detector separates several object areas from the preprocessing step, thereby eliminating additional operations of the post processing step.

물체 감지기 적용 전Before applying object detector 물체 감지기 적용 후After applying the object detector 프레임 속도Frame rate 10.4 프레임/초10.4 frames / sec 21.7 프레임/초21.7 frames / sec 전력 소모Power consumption 800 mW800 mW 496mW496mW

물체 감지기를 물체 인식 시스템에 적용한 결과 프레임 속도는 2.09배 향상되었으며, 전체 시스템의 전력 소모는 38% 감소한 것을 확인하였다. 물체의 인식율은 물체 감지기를 적용 전 후가 거의 차이가 없는 것을 확인하였다.  Applying the object detector to the object recognition system, the frame rate is 2.09 times higher and the power consumption of the entire system is reduced by 38%. The recognition rate of the object was confirmed that there is little difference before and after applying the object detector.

이상 본 발명을 예시적인 실시예를 들어 설명하였다. 그러나 본 발명은 이러한 실시예로 한정되는 것이 아니다. 본 발명의 권리범위는 특허청구범위에 의해 특정되어야 하며 전술한 실시예를 변형한 다양한 변형예들 또한 본 발명의 권리범위에 속하는 것으로 이해되어야 한다. The present invention has been described above by way of example. However, the present invention is not limited to these examples. The scope of the present invention should be specified by the claims, and it should be understood that various modifications to the above-described embodiments also belong to the scope of the present invention.

도 1은 본 발명의 일 실시예에 따른, 입력된 영상으로부터 격자 형식으로 물체 영역을 나타내주는 과정을 나타낸 도면이다. 1 is a diagram illustrating a process of representing an object region in a grid form from an input image according to an embodiment of the present invention.

도 2는 현출 맵을 생성하는 단계(S100)를 보다 구체적으로 나타낸 도면이다.2 is a view showing in more detail the step (S100) of generating the appearance map.

도 3은 시드점에서부터 시작하여 주변 점과의 유사도를 평가하면서 시드점과 유사한 유사영역을 확장하는 단계(S300)를 모식적으로 나타낸 도면이다. 3 is a diagram schematically illustrating a step (S300) of expanding a similar region similar to the seed point while evaluating the similarity with the surrounding point starting from the seed point.

도 4는 유사도를 기반으로 유사 영역을 확장하는 알고리즘을 더욱 자세히 나타낸 도면이다.4 is a diagram illustrating in more detail an algorithm for extending a similar region based on the similarity.

도 5는 본 발명의 일 실시예에 따른 복수의 물체를 감지하는 방법을 실행하기 위한 영상처리장치(500)의 블록도이다.5 is a block diagram of an image processing apparatus 500 for executing a method of detecting a plurality of objects according to an embodiment of the present invention.

도 6은 본 발명에 따른 영상처리장치(500)의 각 구성요소에 본 발명에 따른 물체 인식 방법의 어느 단계를 수행하는지를 나타낸 도면이다.6 is a diagram illustrating which steps of the object recognition method according to the present invention are performed to each component of the image processing apparatus 500 according to the present invention.

도 7은 영상처리장치에 입력된 영상에서 복수의 물체를 감지하고 그 물체의 종류를 인식하는 물체 인식 방법을 나타낸 도면이다. FIG. 7 is a diagram illustrating an object recognition method of detecting a plurality of objects from an image input to an image processing apparatus and recognizing the types of the objects.

Claims (7)

영상처리장치에 입력된 영상에서 복수의 물체를 감지하는 방법으로서,A method of detecting a plurality of objects in an image input to the image processing apparatus, 상기 입력 영상의 정적 특성과 동적 특성을 이용하여 현출 맵(saliency map)을 생성하는 단계;Generating a saliency map using static and dynamic characteristics of the input image; 상기 현출 맵에서 설정값 이상의 현출도를 갖는 점을 시드점으로 정하여 하나 이상 선택하는 단계;Selecting at least one point having a degree of appearance or more in the appearance map as a seed point; 상기 시드점 각각에 대해, 상기 입력 영상에서 상기 시드점과 그 주변 점들의 유사도를 평가하여 상기 시드점과 유사한 것으로 판단된 점으로 이루어진 유사영역을 판정하는 단계; 및Determining, for each of the seed points, a similar region composed of points determined to be similar to the seed points by evaluating similarities between the seed points and neighboring points in the input image; And 상기 유사영역을 물체 영역으로 판단하는 단계;Determining the similar area as an object area; 를 포함하는, 입력 영상에서 복수의 물체를 감지하는 방법.Method for detecting a plurality of objects in the input image, comprising. 제1항에 있어서The method of claim 1 상기 입력 영상의 정적 특성은 상기 입력 영상의 각 픽셀들의 명암, 색상, 선 방향성을 이용하여 얻어지는 정적 특징맵이고,The static characteristic of the input image is a static feature map obtained by using the contrast, color, and linearity of each pixel of the input image. 상기 입력 영상의 동적 특성은 상기 입력영상의 시간상 인접하는 두 프레임의 영상을 비교하여 얻어지는 동적 특징맵인, 입력 영상에서 복수의 물체를 감지하는 방법.The dynamic characteristic of the input image is a dynamic feature map obtained by comparing images of two adjacent frames in time of the input image, detecting a plurality of objects in the input image. 제1항에 있어서,The method of claim 1, 상기 유사도는 두 점 사이의 명암 차이, 현출도 차이, 거리를 이용하여 판단하는, 입력 영상에서 복수의 물체를 감지하는 방법.The similarity is determined by using the difference between the contrast, the difference in appearance, the distance between the two points, the method of detecting a plurality of objects in the input image. 제3항에 있어서,The method of claim 3, 상기 명암 차이, 현출도 차이 및 거리 각각에 미리 정해진 가중치를 곱한 뒤 합산하여 상기 유사도를 연산하는, 입력 영상에서 복수의 물체를 감지하는 방법.And calculating the similarity by multiplying each of the contrast difference, the appearance difference, and the distance by a predetermined weight, and adding the calculated weights to each other. 영상처리장치에 입력된 영상에서 복수의 물체를 감지하고 상기 물체의 종류를 인식하는 물체 인식 방법으로서,An object recognition method for detecting a plurality of objects in the image input to the image processing apparatus and the type of the object, 제1항 내지 제4항 중 어느 한 항에 따른 방법에 의하여 상기 입력 영상에서 상기 복수의 물체의 영역을 판정하는 단계;Determining an area of the plurality of objects in the input image by a method according to any one of claims 1 to 4; 상기 복수의 물체의 영역 각각에 대해 특징을 추출하는 단계; 및Extracting features for each of the regions of the plurality of objects; And 상기 추출된 특징을 미리 구축된 물체 특징 정보 데이터베이스와 비교하여 물체의 종류를 판별하는 단계를 포함하는, 물체 인식 방법.And comparing the extracted features with a pre-built object feature information database to determine a type of an object. 제1항 내지 제4항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 저장된 기록 매체.A recording medium storing a computer program for executing a method according to any one of claims 1 to 4 on a computer. 영상을 입력받아 상기 영상에서 복수의 물체를 감지하는 영상처리장치로서,An image processing apparatus for receiving an image and detecting a plurality of objects in the image, 상기 입력 영상의 동적인 특징을 계산하는 움직임 판단기 (Motion Estimator);A motion estimator for calculating a dynamic feature of the input image; 상기 입력 영상의 정적인 특징을 계산하고 상기 동적인 특징 및 상기 정적인 특징을 이용하여 현출 맵을 생성하는 시각 집중기(Visual Attention Engine);A Visual Attention Engine for calculating a static feature of the input image and generating a manifest map using the dynamic feature and the static feature; 상기 현출 맵으로부터 물체 영역을 구분하는 물체 감지기(Object Detection Engine);An object detector to classify an object region from the present map; 상기 입력 영상이 저장되고 상기 움직임 판단기, 상기 시각집중기 및 상기 물체 감지기의 출력이 저장되는 메모리; 및A memory in which the input image is stored and outputs of the motion determiner, the visual concentrator, and the object detector; And 상기 움직임 판단기, 상기 시각집중기 및 상기 물체감지기의 동작을 제어하는 RISC 프로세서;A RISC processor configured to control operations of the motion determiner, the visual concentrator, and the object detector; 를 포함하는, 입력 영상에서 물체를 감지하는 영상처리장치. Image processing apparatus for detecting an object in the input image, including.
KR1020090036842A 2009-04-28 2009-04-28 Apparatus and method for detecting a plurality of objects in an image KR101018299B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090036842A KR101018299B1 (en) 2009-04-28 2009-04-28 Apparatus and method for detecting a plurality of objects in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090036842A KR101018299B1 (en) 2009-04-28 2009-04-28 Apparatus and method for detecting a plurality of objects in an image

Publications (2)

Publication Number Publication Date
KR20100118162A KR20100118162A (en) 2010-11-05
KR101018299B1 true KR101018299B1 (en) 2011-03-04

Family

ID=43404510

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090036842A KR101018299B1 (en) 2009-04-28 2009-04-28 Apparatus and method for detecting a plurality of objects in an image

Country Status (1)

Country Link
KR (1) KR101018299B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311563B2 (en) 2013-11-01 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for generating hierarchical saliency images detection with selective refinement
CN109446944A (en) * 2018-10-15 2019-03-08 西安文理学院 Vision semanteme-structuring analytic method of sign language
US11216953B2 (en) 2019-03-26 2022-01-04 Samsung Electronics Co., Ltd. Apparatus and method for image region detection of object based on seed regions and region growing

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6232982B2 (en) * 2013-12-02 2017-11-22 オムロン株式会社 Image processing apparatus, image processing method, and program
KR102246954B1 (en) * 2019-03-26 2021-04-30 삼성전자주식회사 Image processing apparatus and image processing method thereof
KR20230149262A (en) 2022-04-19 2023-10-26 주식회사 시너인 Method, server and computer program for detecting moving object in image based on wavelength information
KR20230149263A (en) 2022-04-19 2023-10-26 주식회사 시너인 Method, server and computer program for tracking moving object in image data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060569A (en) * 1999-03-17 2000-10-16 윤종용 Face detecting apparatus and method from color images
KR20040018586A (en) * 2002-08-23 2004-03-04 삼성전자주식회사 Motion detecting device using face characteristics and monitoring system adapting it
KR20040102672A (en) * 2003-05-29 2004-12-08 최동혁 Method for detecting image
KR20050114817A (en) * 2004-06-02 2005-12-07 김상훈 Automatic detection method of human facial objects for the digital video surveillance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060569A (en) * 1999-03-17 2000-10-16 윤종용 Face detecting apparatus and method from color images
KR20040018586A (en) * 2002-08-23 2004-03-04 삼성전자주식회사 Motion detecting device using face characteristics and monitoring system adapting it
KR20040102672A (en) * 2003-05-29 2004-12-08 최동혁 Method for detecting image
KR20050114817A (en) * 2004-06-02 2005-12-07 김상훈 Automatic detection method of human facial objects for the digital video surveillance

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311563B2 (en) 2013-11-01 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for generating hierarchical saliency images detection with selective refinement
CN109446944A (en) * 2018-10-15 2019-03-08 西安文理学院 Vision semanteme-structuring analytic method of sign language
CN109446944B (en) * 2018-10-15 2021-09-24 西安文理学院 Visual semantic-structured analytic method of sign language
US11216953B2 (en) 2019-03-26 2022-01-04 Samsung Electronics Co., Ltd. Apparatus and method for image region detection of object based on seed regions and region growing
US11481907B2 (en) 2019-03-26 2022-10-25 Samsung Electronics Co.. Ltd. Apparatus and method for image region detection of object based on seed regions and region growing
US11893748B2 (en) 2019-03-26 2024-02-06 Samsung Electronics Co., Ltd. Apparatus and method for image region detection of object based on seed regions and region growing

Also Published As

Publication number Publication date
KR20100118162A (en) 2010-11-05

Similar Documents

Publication Publication Date Title
KR101018299B1 (en) Apparatus and method for detecting a plurality of objects in an image
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
JP4479478B2 (en) Pattern recognition method and apparatus
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
CN111507334B (en) Instance segmentation method based on key points
CN107273832B (en) License plate recognition method and system based on integral channel characteristics and convolutional neural network
WO2009109127A1 (en) Real-time body segmentation system
KR20130058286A (en) Pedestrian detection method of pedestrian detection device
Zhang et al. Fast moving pedestrian detection based on motion segmentation and new motion features
CN111461101A (en) Method, device and equipment for identifying work clothes mark and storage medium
CN112396036A (en) Method for re-identifying blocked pedestrians by combining space transformation network and multi-scale feature extraction
CN109697727A (en) Method for tracking target, system and storage medium based on correlation filtering and metric learning
Devadethan et al. Face detection and facial feature extraction based on a fusion of knowledge based method and morphological image processing
CN111274964A (en) Detection method for analyzing water surface pollutants based on visual saliency of unmanned aerial vehicle
Yun et al. Part-level convolutional neural networks for pedestrian detection using saliency and boundary box alignment
CN108985216B (en) Pedestrian head detection method based on multivariate logistic regression feature fusion
CN106650629A (en) Kernel sparse representation-based fast remote sensing target detection and recognition method
CN117011346A (en) Blower image registration algorithm
CN113129332A (en) Method and apparatus for performing target object tracking
CN113642520B (en) Double-task pedestrian detection method with head information
JP2017084006A (en) Image processor and method thereof
KR100893086B1 (en) Method for detecting face robust to illumination change
KR102224218B1 (en) Method and Apparatus for Deep Learning based Object Detection utilizing Video Time Information
JP6276504B2 (en) Image detection apparatus, control program, and image detection method
Kalboussi et al. A spatiotemporal model for video saliency detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140127

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee