WO2014175483A1 - 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치 - Google Patents

영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치 Download PDF

Info

Publication number
WO2014175483A1
WO2014175483A1 PCT/KR2013/003540 KR2013003540W WO2014175483A1 WO 2014175483 A1 WO2014175483 A1 WO 2014175483A1 KR 2013003540 W KR2013003540 W KR 2013003540W WO 2014175483 A1 WO2014175483 A1 WO 2014175483A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
divided
extended
areas
area
Prior art date
Application number
PCT/KR2013/003540
Other languages
English (en)
French (fr)
Inventor
김정호
최병호
황영배
배주한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2014175483A1 publication Critical patent/WO2014175483A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Definitions

  • the present invention relates to an object detecting method, and more particularly, to an object detecting method for detecting an object of interest such as a vehicle or a person from an image and an image processing apparatus using the same.
  • SVM Small Vector Machine
  • Hog histograms of oriented gradients
  • edges edges
  • the presence of an object of interest is determined through a classifier such as).
  • the problem that occurs is that the objects present in the image have a large deformation of the appearance from various conditions.
  • the size and shape of an object in the image may vary due to a change in posture of the object of interest, a change in camera viewpoint, or partial occlusion.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide an object detection method and an image processing apparatus using the same, which enables high-speed object detection using an image characteristic-based segmentation technique. .
  • an object detecting method includes: dividing an image into a plurality of divided regions based on characteristics of an image; And detecting an object based on the divided regions divided in the dividing step.
  • the divided regions may be a set of pixels in which image values fall within a similar range and are adjacent to each other.
  • the image value may be at least one of color and luminance.
  • the object detecting step based on the divided areas may include: selecting a divided area having a possibility that the object exists more than a reference value; Generating at least one extended area while joining at least one of the divided areas adjacent to the divided area selected in the selecting step; And detecting the object based on the extended areas.
  • the object detecting step based on the extended areas may detect the object only for the extended areas.
  • the object detecting step based on the extended areas may include selecting an extended area having a possibility that the object exists more than a reference value; Generating at least one additional extension area by combining at least one of the divided areas adjacent to the extension area selected in the selecting step; And detecting the object based on the additional extension areas.
  • the object detecting based on the additional extension areas may include estimating that the object exists in the extension area when there is no additional extension area in which the possibility of the object is greater than a reference value.
  • the object detecting step based on the extended areas may generate at least one additional extended area by combining at least one of the divided areas adjacent to the additional extended area when there is an additional extended area in which the object exists more than a reference value. Doing; And detecting the object based on the additional extension areas generated in the generating step.
  • the image processing apparatus for obtaining an image; And a processor configured to divide the image into a plurality of divided regions based on the characteristics of the image acquired by the acquirer, and detect an object based on the divided divided regions.
  • the divided regions may be a set of pixels in which image values fall within a similar range and are adjacent to each other.
  • FIG. 1 is a block diagram of an image processing apparatus to which the present invention is applicable;
  • FIG. 3 is a view provided for further explanation of the object detection method shown in FIG. 2, and
  • FIG. 4 to 6 are diagrams provided for further explanation of the object detection method shown in FIG. 2.
  • the image processing apparatus 100 to which the present invention is applicable includes an image acquisition unit 110, an image processor 120, and an image output unit 130 as shown in FIG. 1.
  • the image acquirer 110 acquires an image and provides the obtained image to the image processor 120.
  • the image acquisition method by the image acquisition unit 110 may be of any kind. That is, the image acquisition unit 110 may acquire an image from image capturing, a storage medium, network communication, or the like.
  • the image processor 120 detects an object of interest in an image provided from the image acquirer 110. In order to detect an object of interest, the image processor 120 divides the image based on the color of the image, and substitutes the feature amount extracted from the divided area into the classifier to perform object detection.
  • the image output unit 130 displays and displays the object detection result of the image processor 120 on the image acquired by the image acquisition unit 110.
  • FIG. 2 is a flowchart provided to explain an object detection method according to a preferred embodiment of the present invention.
  • the image processor 120 clusters pixels belonging to the same / similar color range and adjacent to each other, thereby splitting the image into a plurality of divided regions. Split into two (S220).
  • the image shown in the center of FIG. 3 illustrates a result of dividing the image shown below into a plurality of divided regions according to operation S220 of FIG. 2.
  • the image processor 120 selects a segmentation area having a possibility that an object of interest exists or more than a reference value (S230).
  • the selection in step S230 may be performed by referring to a possibility calculated by extracting the feature amount from the divided region and substituting the extracted feature amount into the classifier.
  • FIG. 4 illustrates a result of dividing an image into 17 divided regions through operation S220
  • FIG. 5 illustrates a result of selecting division region-6 through operation S230.
  • step S230 it will be described after step S230.
  • the image processor 120 generates at least one extended area while combining at least one of the divided areas adjacent to the selected partition area at step S230 (S240). If partition area-6 is selected as shown in Fig. 5, the partition areas adjacent to partition area-6 are partition areas-1,2,3,5,7,8,9.
  • step S240
  • the image processor 120 selects an extended area having a possibility that an object of interest exists or higher among the extended areas generated in step S240 (S250).
  • the selection in operation S250 may be performed by referring to a possibility calculated by extracting a feature amount from the extended area and substituting the extracted feature amount into the classifier.
  • FIG. 6 shows a result of selecting an extended region in which the divided regions 5, 6, 8, and 9 are combined through step S250.
  • FIG. 6 it is assumed that only one extension region is selected, but for convenience of description, a plurality of extension regions may be selected, and in fact, a plurality of extension regions are generally selected.
  • step S250 the process will be described after step S250.
  • the image processor 120 generates at least one additional extended area while combining at least one of the divided areas adjacent to the selected extended area in step S250 (S260). As shown in FIG. 6, when the extended area combined with the divided areas-5, 6, 8, and 9 is selected, the divided areas adjacent to the extended area are divided into areas 1, 2, 3, 4, 7, 10, 11, 12,13.
  • step S260
  • An additional extended area is created by combining all of the divided areas-1, 2, 3, 4, 7, 10, 11, 12, and 13 into the extended area.
  • the image processor 120 selects an additional extension region having a possibility that an object of interest exists or higher among the additional extension regions generated in operation S260 (S270).
  • the selection in step S270 may be performed by referring to a possibility calculated by extracting the feature amount from the additional extended area and substituting the extracted feature amount into the classifier.
  • step S270 If, in step S270 there is no additional extended area that the possibility of the object of interest is greater than the reference value (S270- not present). It is estimated that the object of interest exists in the extended area selected in step S250 (S280).
  • the image output unit 130 displays and displays the object detection result in step S280 on the image acquired in step S210 (S290).
  • the image output result in step S290 is shown as the image shown in FIG.
  • step S270 if there is an additional extended area in which the likelihood of the object of interest is greater than or equal to the reference value in step S270 (S270-existent), the process is repeated from step S250.
  • the image segmentation is based on the colors of the pixels constituting the image, but this is a preferable example.
  • brightness or other image values can be replaced, as well as a combination of two or more image values.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치가 제공된다. 본 발명의 실시예에 따른 물체 검출 방법은, 영상의 특성을 기초로 영상을 다수의 분할 영역들로 분할하여, 분할 영역들을 기반으로 물체를 검출한다. 이에 의해, 물체 검출 성공률을 높일 수 있고, 윈도우로 영상 전체를 스캔하는 방식이 아니기 때문에 물체 검출이 매우 빠른 속도로 이루어지게 된다.

Description

영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치
본 발명은 물체 검출 방법에 관한 것으로, 더욱 상세하게는 영상으로부터 차량이나 사람과 같은 관심 물체를 검출하기 위한 물체 검출 방법 및 이를 적용한 영상 처리 장치에 관한 것이다.
물체 검출을 위해서는, 정방형의 윈도우(Window)를 영상 전체에서 스캔(Scan) 하면서, HoG(Histogram of Oriented Gradients)와 에지 등과 같은 특징량(Feature)를 추출하고, 이를 미리 학습한 SVM(Support Vector Machine) 등의 분류기(Classifier)를 통하여 관심 물체의 유무를 판단하게 된다.
이때 발생하는 문제점은 영상에 존재하는 물체들은 다양한 조건으로부터 외형의 변형이 크다는 것이다. 예를 들면, 관심 물체의 자세 변화, 카메라 시점 변화, 부분적인 가려짐(Occlusion) 등으로 인하여 영상에서 물체의 크기와 모양은 다양하게 변화하는 것이다.
이에 대처하기 위해, 다양한 크기 및 모양의 윈도우를 영상 전체에 스캔하고 있는데, 이는 많은 처리 시간을 필요로 한다는 문제가 있다.
뿐만 아니라, 사람 또는 차량과 같이 물체의 종류가 다를 경우 다른 창의 크기와 모양이 요구되기 때문에 검출하고자 하는 물체의 종류에 따라서 동일한 작업을 다시 수행해야 하는 문제점도 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 영상 특성 기반 분할 기법을 이용하여 고속의 물체 검출을 가능하게 하는 물체 검출 방법 및 이를 적용한 영상 처리 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 물체 검출 방법은, 영상의 특성을 기초로, 영상을 다수의 분할 영역들로 분할하는 단계; 및 상기 분할단계에서 분할된 분할 영역들을 기반으로, 물체를 검출하는 단계;를 포함한다.
그리고, 상기 분할 영역들은, 영상값이 유사 범위 내에 속하며, 서로 인접하는 픽셀들의 집합일 수 있다.
또한, 상기 영상값은, 색상 및 휘도 중 적어도 하나일 수 있다.
그리고, 상기 분할 영역들에 기반한 물체 검출단계는, 상기 물체가 존재할 가능성이 기준치 이상인 분할 영역을 선정하는 단계; 상기 선정단계에서 선정된 분할 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 확장 영역들을 생성하는 단계; 및 상기 확장 영역들을 기반으로, 상기 물체를 검출하는 단계;를 포함할 수 있다.
또한, 상기 확장 영역들에 기반한 물체 검출단계는, 상기 확장 영역들에 대해서만, 상기 물체를 검출할 수 있다.
그리고, 상기 확장 영역들에 기반한 물체 검출단계는, 상기 물체가 존재할 가능성이 기준치 이상인 확장 영역을 선정하는 단계; 상기 선정단계에서 선정된 확장 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 추가 확장 영역들을 생성하는 단계; 및 상기 추가 확장 영역들을 기반으로, 상기 물체를 검출하는 단계;를 포함할 수 있다.
또한, 상기 추가 확장 영역들에 기반한 물체 검출단계는, 상기 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역이 없으면, 상기 확장 영역에 상기 물체가 존재하는 것으로 추정하는 단계;를 포함할 수 있다.
그리고, 상기 확장 영역들에 기반한 물체 검출단계는, 상기 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역이 있으면, 상기 추가 확장 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 추가 확장 영역들을 생성하는 단계; 및 상기 생성단계에서 생성된 추가 확장 영역들을 기반으로, 상기 물체를 검출하는 단계;를 더 포함할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 영상 처리 장치는, 영상을 획득하는 획득부; 및 상기 획득부에서 획득된 영상의 특성을 기초로 영상을 다수의 분할 영역들로 분할하고, 분할된 분할 영역들을 기반으로 물체를 검출하는 프로세서;를 포함한다.
그리고, 상기 분할 영역들은, 영상값이 유사 범위 내에 속하며, 서로 인접하는 픽셀들의 집합일 수 있다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 영상 특성 기반 분할 기법을 기초로 물체 검출 성공률을 높일 수 있게 된다. 뿐만 아니라, 다양한 윈도우로 영상 전체를 스캔하는 방식이 아니기 때문에, 물체 검출이 매우 빠른 속도로 이루어지게 된다.
도 1은 본 발명이 적용가능한 영상 처리 장치의 블럭도,
도 2는 본 발명의 바람직한 실시예에 따른 물체 검출 방법의 설명에 제공되는 흐름도,
도 3은, 도 2에 도시된 물체 검출 방법의 부연 설명에 제공되는 도면, 그리고,
도 4 내지 도 6은, 도 2에 도시된 물체 검출 방법의 부연 설명에 제공되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명이 적용가능한 영상 처리 장치의 블럭도이다. 본 발명이 적용가능한 영상 처리 장치(100)는, 도 1에 도시된 바와 같이, 영상 획득부(110), 영상 프로세서(120) 및 영상 출력부(130)를 포함한다.
영상 획득부(110)는 영상을 획득하고, 획득된 영상을 영상 프로세서(120)에 제공한다. 여기서, 영상 획득부(110)에 의한 영상 획득 방법은 그 종류를 불문한다. 즉, 영상 획득부(110)는 영상 촬영, 저장매체, 네트워크 통신 등으로부터 영상을 획득할 수 있다.
영상 프로세서(120)는 영상 획득부(110)로부터 제공되는 영상에서 관심 물체를 검출한다. 관심 물체를 검출하기 위해, 영상 프로세서(120)는 영상의 색상에 기반하여 영상을 분할하고, 분할된 영역에서 추출한 특징량을 분류기에 대입하여 물체 검출을 수행한다.
영상 출력부(130)는 영상 획득부(110)에서 획득된 영상에 영상 프로세서(120)의 물체 검출 결과를 나타내어 표시한다.
영상 프로세서(120)에 의한 물체 검출 과정에 대해, 도 2를 참조하여 상세히 설명한다. 도 2는 본 발명의 바람직한 실시예에 따른 물체 검출 방법의 설명에 제공되는 흐름도이다.
도 2에 도시된 바와 같이, 영상 획득부(110)로부터 영상이 획득되면(S210), 영상 프로세서(120)는 동일/유사 색상 범위에 속하며 서로 인접하는 픽셀들을 클러스터링하여, 영상을 다수의 분할 영역들로 분할한다(S220). 도 3의 중앙에 나타난 이미지는, 아래에 나타난 이미지를 도 2의 S220단계에 따라 다수의 분할 영역들로 분할한 결과를 예시한 것이다.
이후, 영상 프로세서(120)는 관심 물체가 존재할 가능성이 기준치 이상인 분할 영역을 선정한다(S230). S230단계에서의 선정은, 분할 영역에서 특징량을 추출하고, 추출된 특징량을 분류기에 대입하여 산출되는 가능성을 참고하여 수행될 수 있다.
부연 설명을 위해, 도 4에는 S220단계를 통해 영상을 17개의 분할 영역들로 분할한 결과를 나타내었고, 도 5에는 S230단계를 통해 분할 영역-6이 선정된 결과를 나타내었다.
도 5에서는 분할 영역이 하나만 선정된 것을 상정하였으나, 이는 설명의 편의를 위한 것으로, 분할 영역은 다수가 선정될 수 있으며, 실제로 다수의 분할 영역들이 선정됨이 일반적일 것이다.
다시, 도 2를 참조하여, S230단계 이후부터 설명한다.
영상 프로세서(120)는 S230단계에서 선정된 분할 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 확장 영역들을 생성한다(S240). 도 5에 도시된 바와 같이 분할 영역-6이 선정되었다면, 분할 영역-6에 인접한 분할영역들은 분할 영역-1,2,3,5,7,8,9이다.
따라서, S240단계에서는,
1) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 중 1개를 결합한 확장 영역들,
2) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 중 2개를 결합한 확장 영역들,
3) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 중 3개를 결합한 확장 영역들,
4) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 중 4개를 결합한 확장 영역들,
5) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 중 5개를 결합한 확장 영역들,
6) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 중 6개를 결합한 확장 영역들,
7) 분할 영역-6에 분할 영역-1,2,3,5,7,8,9 모두를 결합한 확장 영역을 생성하게 된다.
다음, 영상 프로세서(120)는 S240단계에서 생성된 확장 영역들 중 관심 물체가 존재할 가능성이 기준치 이상인 확장 영역을 선정한다(S250). S250단계에서의 선정은, 확장 영역에서 특징량을 추출하고, 추출된 특징량을 분류기에 대입하여 산출되는 가능성을 참고하여 수행될 수 있다.
부연 설명을 위해, 도 6에는 S250단계를 통해 분할 영역-5,6,8,9가 결합된 확장 영역이 선정된 결과를 나타내었다. 도 6에서는 확장 영역이 하나만 선정된 것을 상정하였으나, 이는 설명의 편의를 위한 것으로, 확장 영역은 다수가 선정될 수 있으며, 실제로 다수의 확장 영역들이 선정됨이 일반적일 것이다.
다시, 도 2를 참조하여, S250단계 이후부터 설명한다.
영상 프로세서(120)는 S250단계에서 선정된 확장 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 추가 확장 영역들을 생성한다(S260). 도 6에 도시된 바와 같이 분할 영역-5,6,8,9가 결합된 확장 영역이 선정되었다면, 확장 영역에 인접한 분할영역들은 분할 영역-1,2,3,4,7,10,11,12,13이다.
따라서, S260단계에서는,
1) 확장 영역에 분할 영역-1,2,3,4,7,10,11,12,13 중 1개를 결합한 추가 확장 영역들,
2) 확장 영역에 분할 영역-1,2,3,4,7,10,11,12,13 중 2개를 결합한 추가 확장 영역들,
...
9) 확장 영역에 분할 영역-1,2,3,4,7,10,11,12,13 모두를 결합한 추가 확장 영역을 생성하게 된다.
다음, 영상 프로세서(120)는 S260단계에서 생성된 추가 확장 영역들 중 관심 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역을 선정한다(S270). S270단계에서의 선정은, 추가 확장 영역에서 특징량을 추출하고, 추출된 특징량을 분류기에 대입하여 산출되는 가능성을 참고하여 수행될 수 있다.
만약, S270단계에서 관심 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역이 없는 경우(S270-미존재). S250단계에서 선정된 확장 영역에 관심 물체가 존재하는 것으로 추정한다(S280).
그리고, 영상 출력부(130)는 S210단계에서 획득된 영상에 S280단계에서의 물체 검출 결과를 나타내어 표시한다(S290). S290단계에서의 영상 출력 결과는 도 3의 위에 나타난 이미지와 같이 나타난다.
한편, S270단계에서 관심 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역이 존재하는 경우에는(S270-존재), S250단계부터 반복 수행한다.
지금까지, 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치에 대해 바람직한 실시예들을 들어 상세히 설명하였다.
위 실시예에서 영상 분할은 영상을 구성하는 픽셀들의 색상에 기반하는 것을 상정하였으나, 이는 바람직한 일 예에 해당한다. 색상 이외에 휘도나 기타 다른 영상값으로 대체될 수 있음은 물론 2 이상의 영상값을 조합하는 경우도 가능하다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (10)

  1. 영상의 특성을 기초로, 영상을 다수의 분할 영역들로 분할하는 단계; 및
    상기 분할단계에서 분할된 분할 영역들을 기반으로, 물체를 검출하는 단계;를 포함하는 것을 특징으로 하는 물체 검출 방법.
  2. 제 1항에 있어서,
    상기 분할 영역들은,
    영상값이 유사 범위 내에 속하며, 서로 인접하는 픽셀들의 집합인 것을 특징으로 하는 물체 검출 방법.
  3. 제 2항에 있어서,
    상기 영상값은,
    색상 및 휘도 중 적어도 하나인 것을 특징으로 하는 물체 검출 방법.
  4. 제 1항에 있어서,
    상기 분할 영역들에 기반한 물체 검출단계는,
    상기 물체가 존재할 가능성이 기준치 이상인 분할 영역을 선정하는 단계;
    상기 선정단계에서 선정된 분할 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 확장 영역들을 생성하는 단계; 및
    상기 확장 영역들을 기반으로, 상기 물체를 검출하는 단계;를 포함하는 것을 특징으로 하는 물체 검출 방법.
  5. 제 4항에 있어서,
    상기 확장 영역들에 기반한 물체 검출단계는,
    상기 확장 영역들에 대해서만, 상기 물체를 검출하는 것을 특징으로 하는 물체 검출 방법.
  6. 제 4항에 있어서,
    상기 확장 영역들에 기반한 물체 검출단계는,
    상기 물체가 존재할 가능성이 기준치 이상인 확장 영역을 선정하는 단계;
    상기 선정단계에서 선정된 확장 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 추가 확장 영역들을 생성하는 단계; 및
    상기 추가 확장 영역들을 기반으로, 상기 물체를 검출하는 단계;를 포함하는 것을 특징으로 하는 물체 검출 방법.
  7. 제 6항에 있어서,
    상기 추가 확장 영역들에 기반한 물체 검출단계는,
    상기 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역이 없으면, 상기 확장 영역에 상기 물체가 존재하는 것으로 추정하는 단계;를 포함하는 것을 특징으로 하는 물체 검출 방법.
  8. 제 7항에 있어서,
    상기 확장 영역들에 기반한 물체 검출단계는,
    상기 물체가 존재할 가능성이 기준치 이상인 추가 확장 영역이 있으면, 상기 추가 확장 영역에 인접한 분할 영역들 중 적어도 하나를 결합하면서 적어도 하나의 추가 확장 영역들을 생성하는 단계; 및
    상기 생성단계에서 생성된 추가 확장 영역들을 기반으로, 상기 물체를 검출하는 단계;를 더 포함하는 것을 특징으로 하는 물체 검출 방법.
  9. 영상을 획득하는 획득부; 및
    상기 획득부에서 획득된 영상의 특성을 기초로 영상을 다수의 분할 영역들로 분할하고, 분할된 분할 영역들을 기반으로 물체를 검출하는 프로세서;를 포함하는 것을 특징으로 하는 영상 처리 장치.
  10. 제 9항에 있어서,
    상기 분할 영역들은,
    영상값이 유사 범위 내에 속하며, 서로 인접하는 픽셀들의 집합인 것을 특징으로 하는 영상 처리 장치.
PCT/KR2013/003540 2013-04-24 2013-04-24 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치 WO2014175483A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0045556 2013-04-24
KR1020130045556A KR101517805B1 (ko) 2013-04-24 2013-04-24 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치

Publications (1)

Publication Number Publication Date
WO2014175483A1 true WO2014175483A1 (ko) 2014-10-30

Family

ID=51792040

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/003540 WO2014175483A1 (ko) 2013-04-24 2013-04-24 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치

Country Status (2)

Country Link
KR (1) KR101517805B1 (ko)
WO (1) WO2014175483A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101631953B1 (ko) * 2014-12-09 2016-06-20 삼성전자주식회사 블러 영역 검출을 위한 영상 처리 방법 및 이를 수행하기 위한 영상 처리 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167634A (ja) * 1997-12-03 1999-06-22 Omron Corp 画像の領域分割方法、画像の領域分割装置、画像の領域分割プログラムを記録した記録媒体、画像検索方法、画像検索装置および画像検索プログラムを記録した記録媒体
KR20020062557A (ko) * 2001-01-20 2002-07-26 삼성전자 주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
JP3824922B2 (ja) * 2001-12-13 2006-09-20 株式会社東芝 画像処理装置及びその方法
JP4683238B2 (ja) * 2005-12-14 2011-05-18 日本電気株式会社 オブジェクト認識装置、オブジェクト認識方法、およびオブジェクト認識プログラム
KR20120032897A (ko) * 2010-09-29 2012-04-06 한국전자통신연구원 개체 검출 방법 및 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4281311B2 (ja) 2001-09-11 2009-06-17 セイコーエプソン株式会社 被写体情報を用いた画像処理
JP2009037625A (ja) 2001-09-11 2009-02-19 Seiko Epson Corp 被写体情報を用いた画像処理

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167634A (ja) * 1997-12-03 1999-06-22 Omron Corp 画像の領域分割方法、画像の領域分割装置、画像の領域分割プログラムを記録した記録媒体、画像検索方法、画像検索装置および画像検索プログラムを記録した記録媒体
KR20020062557A (ko) * 2001-01-20 2002-07-26 삼성전자 주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
JP3824922B2 (ja) * 2001-12-13 2006-09-20 株式会社東芝 画像処理装置及びその方法
JP4683238B2 (ja) * 2005-12-14 2011-05-18 日本電気株式会社 オブジェクト認識装置、オブジェクト認識方法、およびオブジェクト認識プログラム
KR20120032897A (ko) * 2010-09-29 2012-04-06 한국전자통신연구원 개체 검출 방법 및 시스템

Also Published As

Publication number Publication date
KR20140127044A (ko) 2014-11-03
KR101517805B1 (ko) 2015-05-06

Similar Documents

Publication Publication Date Title
WO2019132589A1 (ko) 다중 객체 검출을 위한 영상 처리 장치 및 방법
WO2016068560A1 (ko) 반투명 마크, 반투명 마크 합성 및 검출 방법, 투명 마크 그리고 투명 마크 합성 및 검출 방법
US20200250840A1 (en) Shadow detection method and system for surveillance video image, and shadow removing method
WO2015115802A1 (ko) 깊이 정보 추출 장치 및 방법
WO2015182904A1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
WO2017099510A1 (ko) 영상 통계정보에 기반한 정지장면 분할장치 및 그 방법
WO2019132592A1 (ko) 영상 처리 장치 및 방법
Xiong et al. Early smoke detection of forest fires based on SVM image segmentation
CN107067007A (zh) 一种基于图像特征提取的多特征融合秸秆焚烧火灾检测方法
US11188756B2 (en) Object localization and classification system and method thereof
CN111709359A (zh) 复杂动态背景下基于群稀疏的运动目标检测方法
WO2010107235A2 (ko) 다시점 영상 처리 방법 및 장치
WO2015069063A1 (en) Method and system for creating a camera refocus effect
WO2020004740A1 (ko) 3차원 평면추출 방법 및 그 장치
WO2014175483A1 (ko) 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치
US10074022B2 (en) Lamp detection device and lamp detection method
WO2011136405A1 (ko) 3d 카메라를 이용한 영상인식장치 및 방법
WO2018131729A1 (ko) 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
WO2022131720A1 (ko) 건축물 이미지를 생성하는 장치 및 방법
CN112465853A (zh) 视频图片的背景变换方法、装置、电子设备及存储介质
WO2015141877A1 (ko) 다면 영상 자동 생성 및 투사 방법 및 장치
WO2012064042A2 (en) Apparatus and method for extracting depth image and texture image
KR101565829B1 (ko) 다수의 중첩하지 않는 카메라 환경에서의 객체 추적 장치 및 방법
WO2014106958A1 (ko) 히스토그램 명세화를 이용한 검출기 성능저하 보상 방법
WO2021107482A1 (ko) 스켈람 분포를 이용한 티오에프 카메라 영상의 노이즈 모델링 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13883053

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13883053

Country of ref document: EP

Kind code of ref document: A1