KR20130015976A - Apparatus and method for detecting a vehicle - Google Patents

Apparatus and method for detecting a vehicle Download PDF

Info

Publication number
KR20130015976A
KR20130015976A KR1020110078351A KR20110078351A KR20130015976A KR 20130015976 A KR20130015976 A KR 20130015976A KR 1020110078351 A KR1020110078351 A KR 1020110078351A KR 20110078351 A KR20110078351 A KR 20110078351A KR 20130015976 A KR20130015976 A KR 20130015976A
Authority
KR
South Korea
Prior art keywords
vehicle
algorithm
learning
final
detecting
Prior art date
Application number
KR1020110078351A
Other languages
Korean (ko)
Inventor
김종헌
박영경
이중재
김현수
박준오
안드레아스 박
디르 산드라 셰이커
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110078351A priority Critical patent/KR20130015976A/en
Publication of KR20130015976A publication Critical patent/KR20130015976A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method and an apparatus for detecting a vehicle first apply simple characteristics which show the general characteristic of the vehicle to learning, and then apply characteristics of high accuracy expressing detailed information of the vehicle from detected candidate vehicles to the learning. CONSTITUTION: By the usage of the first algorithm, vehicle area candidates showing vehicle form are detected from an image in which photographed vehicle detection apparatus(S120). For the detection of the vehicle area candidates, at least one of rectangle formed haar-wavelet characteristic is learned through the first algorithm. By the usage of the second algorithm, the apparatus detects a final vehicle area from the vehicle area candidates(S130). In the detection of the final vehicle area, at least one of simple characteristic from the detected vehicle area candidates is learned through the second algorithm. [Reference numerals] (AA) Start; (BB) End; (S110) Taking a video picture; (S120) Detecting vehicle area candidates through a first algorithm; (S130) Detecting the final vehicle area through a second algorithm; (S140) Outputting the final vehicle area

Description

차량을 검출하기 위한 방법 및 장치{APPARATUS AND METHOD FOR DETECTING A VEHICLE}Method and apparatus for detecting a vehicle {APPARATUS AND METHOD FOR DETECTING A VEHICLE}

본 명세서는 차량 검출 방법 및 장치에 관한 것으로 특히, 차량 내 구비되는 카메라를 이용하여 차량을 검출하기 위한 방법 및 장치에 관한 것이다.The present disclosure relates to a vehicle detection method and apparatus, and more particularly, to a method and apparatus for detecting a vehicle using a camera provided in a vehicle.

종래의 차량 검출 기술은 크게 차량의 특징을 휴리스틱하게 결정하여 적용하거나 기 획득된 훈련 영상을 이용해 분류기를 학습하여 적용하는 두 가지 방식으로 나뉜다. 여기서, 학습 기반의 차량 검출 방법이 우수한 성능을 보이나 검출 시간이 많이 소요되어 실시간에 적용되는 경우 오차가 많이 발생한다. The conventional vehicle detection technology is largely divided into two methods of heuristically determining and applying a feature of a vehicle or learning and applying a classifier using previously acquired training images. Here, the learning-based vehicle detection method shows an excellent performance, but a lot of error occurs when the detection time is applied to apply in real time.

본 명세서는 실시간으로 적용이 가능한 고속의 차량 검출 방법 및 장치를 제공함에 목적이 있다.An object of the present specification is to provide a high speed vehicle detection method and apparatus that can be applied in real time.

본 명세서는 차량을 검출하기 위한 방법에 있어서, 영상을 촬영하는 단계;The present disclosure provides a method for detecting a vehicle, the method comprising: photographing an image;

상기 촬영 영상으로부터 차량 형태를 나타내는 차량 영역 후보들을 검출하는 단계; 및 상기 차량 영역 후보들로부터 최종 차량 영역을 검출하는 단계를 포함하되, 상기 차량 영역 후보들을 검출하는 단계는, 적어도 하나의 직사각형 형태의 하-웨이블릿(haar-wavelet) 특징을 제 1 알고리즘을 통해 학습하며, 상기 최종 차량 영역을 검출하는 단계는, 상기 검출된 차량 영역 후보들로부터 적어도 하나의 소정의 특징을 제 2 알고리즘을 통해 학습하는 것을 특징으로 한다.Detecting vehicle region candidates indicating a vehicle shape from the captured image; And detecting a final vehicle region from the vehicle region candidates, wherein the detecting of the vehicle region candidates comprises: learning a at least one rectangular haar-wavelet feature through a first algorithm; The detecting of the final vehicle region may include learning at least one predetermined feature from the detected vehicle region candidates through a second algorithm.

또한, 상기 차량 영역 후보들 및 최종 차량 영역을 검출하는 단계는 단계적(coarse-to-fine) 방법을 이용하는 것을 특징으로 한다.In addition, the detecting of the vehicle area candidates and the final vehicle area is characterized by using a coarse-to-fine method.

또한, 상기 단계적 방법은 상기 적어도 하나의 하-웨이블릿(haar-wavelet) 특징 또는 상기 적어도 하나의 소정의 특징을 소정의 기준에 따라 그룹화하는 단계; 및 상기 그룹화된 특징들에 순차적으로 상기 제 1 알고리즘 또는 상기 제 2 알고리즘을 적용하는 단계를 포함하여 이루어지는 것을 특징으로 한다.The stepwise method also includes grouping the at least one ha-wavelet feature or the at least one predetermined feature according to a predetermined criterion; And applying the first algorithm or the second algorithm sequentially to the grouped features.

또한, 상기 제 1 알고리즘은 에이다부스트(ADABOOST) 알고리즘인 것을 특징으로 한다.In addition, the first algorithm is characterized in that the ADABOOST algorithm.

또한, 상기 제 2 알고리즘은 에이다부스트(ADABOOST) 알고리즘 또는 에스브이엠(SVM) 알고리즘인 것을 특징으로 한다.In addition, the second algorithm may be an ADABOOST algorithm or an SVM algorithm.

또한, 상기 소정의 특징은 차량의 세부적인 특징을 나타내는 차량의 텍스쳐 또는 윤곽 정보인 것을 특징으로 한다.In addition, the predetermined feature is characterized in that the texture or contour information of the vehicle representing the detailed characteristics of the vehicle.

또한, 상기 소정의 특징은 LBP(Local Binary Pattern), LAB 또는 HOG(Histogram of Oriented Gradients)인 것을 특징으로 한다.In addition, the predetermined feature is characterized in that the Local Binary Pattern (LBP), LAB or Histogram of Oriented Gradients (HOG).

또한, 본 명세서는 상기 검출된 최종 차량 영역을 출력하는 단계를 더 포함하는 것을 특징으로 한다.In addition, the present specification may further include outputting the detected final vehicle area.

또한, 상기 제 1 알고리즘 또는 제 2 알고리즘을 통한 학습은 기 저장된 학습 데이터를 이용하여 수행되는 것을 특징으로 한다.In addition, the learning through the first algorithm or the second algorithm is characterized in that it is performed using previously stored learning data.

또한, 본 명세서는 상기 차량 영역 후보들 또는 상기 최종 차량 영역이 검출되지 않는 경우, 상기 기저장된 학습 데이터를 상기 제 1 알고리즘 또는 제 2 알고리즘에 의해 학습되고 있는 데이터로 업데이트하는 단계; 및 상기 업데이트된 학습 데이터를 저장하는 단계를 더 포함하는 것을 특징으로 한다.The present disclosure may further include updating the stored learning data with data being learned by the first algorithm or the second algorithm when the vehicle region candidates or the final vehicle region are not detected; And storing the updated learning data.

또한, 본 명세서는 차량 검출 장치에 있어서, 영상을 촬영하기 위한 카메라부; 및 상기 카메라부와 기능적으로 연결되는 제어부를 포함하되, 상기 제어부는, 상기 촬영 영상으로부터 적어도 하나의 직사각형 형태의 하-웨이블릿(haar-wavelet) 특징을 제 1 알고리즘을 이용한 학습을 통해 차량 형태를 나타내는 차량 영역 후보들을 검출하도록 제어하며, 상기 검출된 차량 영역 후보들로부터 적어도 하나의 소정의 특징을 제 2 알고리즘을 이용한 학습을 통해 최종 차량 영역을 검출하도록 제어하는 것을 특징으로 한다.In addition, the present specification provides a vehicle detection apparatus, comprising: a camera unit for photographing an image; And a controller operatively connected to the camera unit, wherein the controller is configured to indicate a vehicle shape through learning using at least one rectangular haar-wavelet feature from the photographed image using a first algorithm. And controlling to detect vehicle region candidates, and detecting at least one predetermined feature from the detected vehicle region candidates by detecting a final vehicle region through learning using a second algorithm.

또한, 상기 제어부는 단계적(coarse-to-fine) 방법을 이용하여 상기 차량 영역 후보들 및 최종 차량 영역을 검출하도록 제어하는 것을 특징으로 한다.The control unit may control to detect the vehicle area candidates and the final vehicle area by using a coarse-to-fine method.

또한, 상기 제어부는 상기 적어도 하나의 하-웨이블릿(haar-wavelet) 특징 또는 상기 적어도 하나의 소정의 특징을 소정의 기준에 따라 그룹화하며, 상기 그룹화된 특징들에 순차적으로 상기 제 1 알고리즘 또는 상기 제 2 알고리즘을 적용하여 상기 차량 영역 후보들 및 최종 차량 영역을 검출하도록 제어하는 것을 특징으로 한다.In addition, the control unit groups the at least one ha-wavelet feature or the at least one predetermined feature according to a predetermined criterion, and sequentially the first algorithm or the first to the grouped features. It is characterized by controlling to detect the vehicle region candidates and the final vehicle region by applying a two algorithm.

또한, 본 명세서는 출력부를 더 포함하며, 상기 제어부는 상기 검출된 최종 차량 영역을 출력하도록 상기 출력부를 제어하는 것을 특징으로 한다.In addition, the present specification further comprises an output unit, wherein the control unit is characterized in that for controlling the output unit to output the detected final vehicle area.

또한, 상기 제어부는 기 저장된 학습 데이터를 이용하여 상기 제 1 알고리즘 또는 제 2 알고리즘을 통한 학습을 수행하도록 제어하는 것을 특징으로 한다.The controller may control to perform learning through the first algorithm or the second algorithm using previously stored learning data.

또한, 본 명세서는 메모리를 더 포함하며, 상기 제어부는 상기 차량 영역 후보들 또는 상기 최종 차량 영역이 검출되지 않는 경우, 상기 기저장된 학습 데이터를 상기 제 1 알고리즘 또는 제 2 알고리즘에 의해 학습되고 있는 데이터로 업데이트하며, 상기 업데이트된 학습 데이터를 저장하도록 상기 메모리를 제어하는 것을 특징으로 한다.The present disclosure may further include a memory, and the controller may be configured to convert the previously stored learning data into data being learned by the first algorithm or the second algorithm when the vehicle region candidates or the final vehicle region are not detected. And control the memory to store the updated training data.

본 명세서는 차량의 일반적인 특성을 잘 나타내는 간단한 특징을 먼저 학습에 적용하고, 이후 검출된 차량 후보들로부터 차량의 세부 정보를 표현할 수 있는 정확도 높은 특징들을 학습 적용시킴으로써, 빠르고 정확하게 차량을 검출할 수 있는 효과가 있다.In the present specification, a simple feature representing a general characteristic of a vehicle is first applied to learning, and then, by learning and applying highly accurate features capable of expressing detailed information of the vehicle from the detected vehicle candidates, the vehicle can be detected quickly and accurately. There is.

도 1 (a)는 본 발명의 일 실시 예에 따른 차량 검출 장치의 구성을 나타낸 블록도이며, 도 1 (b)는 상기 차량 검출 장치가 구비된 자동차의 개념도이다.
도 2 (a) 및 (b)는 본 명세서의 일 실시 예에 따른 차량 검출 방법을 나타낸 도로서, 도 2 (a)는 차량 검출 방법을 나타낸 순서도이며, 도 2 (b)는 차량 검출 결과를 나타낸 도이다.
도 3 (a) 내지 (c)는 본 명세서의 일 실시 예가 적용될 수 있는 차량 검출에 이용되는 특징들을 나타낸 도로서, 도 3 (a)는 하-웨이블릿(haar-wavelet) 특징을, 도 3 (b)는 랩(LAB) 특징을, 도 3 (c)는 호그(HOG) 특징을 나타낸 도이다.
도 4는 본 명세서의 일 실시 예에 따른 단계적 방법을 이용한 차량 검출 방법을 나타낸 도로서, 도 4 (a)는 단계적(coarse-to-fine) 방법을 이용하여 차량 영역 후보들 및/또는 최종 차량 영역을 검출하는 방법을 나타내는 순서도이며, 도 4 (b)는 단계적 방법을 통해 차량 검출 결과를 나타낸 도이다.
1 (a) is a block diagram showing the configuration of a vehicle detection apparatus according to an embodiment of the present invention, Figure 1 (b) is a conceptual diagram of a vehicle equipped with the vehicle detection device.
2 (a) and (b) is a view showing a vehicle detection method according to an embodiment of the present specification, Figure 2 (a) is a flow chart showing a vehicle detection method, Figure 2 (b) is a vehicle detection result The figure shown.
3 (a) to 3 (c) are diagrams showing features used for vehicle detection to which an embodiment of the present disclosure can be applied, and FIG. 3 (a) shows haar-wavelet features, and FIG. b) shows the LAB characteristic, and FIG. 3C shows the HOG characteristic.
4 is a diagram illustrating a vehicle detection method using a stepwise method according to an embodiment of the present disclosure, and FIG. 4 (a) illustrates vehicle area candidates and / or final vehicle area using a coarse-to-fine method. 4 (b) is a diagram illustrating a vehicle detection result through a stepwise method.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be denoted by the same reference numerals regardless of the reference numerals and redundant description thereof will be omitted.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈", "유닛" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffixes "module", "unit" and "unit" for components used in the following description are given or mixed in consideration of ease of specification, and do not have distinct meanings or roles by themselves. .

이하에서는, 본 발명의 일 실시 예에 따른 차량 전방에 위치하는 오브젝트를 검출하기 위한 장치(이하 '검출 장치'라 한다)의 구성에 대해 도 1을 참조하여 설명한다.Hereinafter, a configuration of an apparatus for detecting an object located in front of a vehicle (hereinafter referred to as a “detecting device”) according to an exemplary embodiment of the present invention will be described with reference to FIG. 1.

여기서, 도 1의 차량 검출 장치는, 스탠드 얼론(stand alone)으로 구성될 수 있을 뿐만 아니라, 이동 검출 장치(Mobile Terminal), 텔레매틱스 검출 장치(Telematics Terminal), 스마트 폰(Smart Phone), 휴대 검출 장치(Portable Terminal), 개인 정보 검출 장치(Personal Digital Assistant : PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC), 와이브로(Wibro) 검출 장치, IPTV(Internet Protocol Television) 검출 장치, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 검출 장치, 내비게이션(Navigation) 검출 장치, AVN(Audio Video Navigation) 검출 장치 등과 같이 다양한 검출 장치에 적용될 수 있다.
Here, the vehicle detecting apparatus of FIG. 1 may be configured not only as stand alone, but also as a mobile terminal, a telematics terminal, a smart phone, and a portable detection device. (Portable Terminal), Personal Digital Assistant (PDA), Portable Multimedia Player (PMP), Notebook Computer, Tablet PC, Tablet PC, Wibro Detection Device, IPTV (Internet Protocol Television) The present invention can be applied to various detection devices such as a detection device, a television, a 3D television, an imaging device, a telematics detection device, a navigation detection device, and an audio video navigation (AVN) detection device.

도 1 (a)는 본 발명의 일 실시 예에 따른 차량 검출 장치의 구성을 나타낸 블록도이며, 도 1 (b)는 상기 차량 검출 장치가 구비된 자동차의 개념도이다.1 (a) is a block diagram showing the configuration of a vehicle detection apparatus according to an embodiment of the present invention, Figure 1 (b) is a conceptual diagram of a vehicle equipped with the vehicle detection device.

도 1 (a)에 도시한 바와 같이, 차량 검출 장치(100)는, 카메라부(110), 제어부(120), 출력부(130) 및 메모리(140)로 구성된다. 도 1 (a)에 도시한 차량 검출 장치(100)의 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도 1 (a)에 도시한 구성 요소보다 많은 구성 요소에 의해 검출 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 검출 장치(100)가 구현될 수도 있다.As shown in FIG. 1A, the vehicle detection apparatus 100 includes a camera unit 110, a control unit 120, an output unit 130, and a memory 140. Not all components of the vehicle detecting apparatus 100 illustrated in FIG. 1A are essential components, and the detection apparatus 100 may be implemented by more components than those illustrated in FIG. 1A. The detection apparatus 100 may be implemented by fewer components.

먼저, 카메라부(110)는 적어도 하나의 카메라를 포함한다.First, the camera unit 110 includes at least one camera.

카메라는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부에 표시될 수 있다. 여기서, 상기 이미지 센서는 카메라와 동일한 의미로 사용되거나 카메라보다 더 넓은 의미로 사용될 수도 있다.The camera processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit. Here, the image sensor may be used in the same sense as the camera or in a broader sense than the camera.

카메라에서 처리된 화상 프레임은 메모리에 저장되거나 무선 통신부를 통하여 외부로 전송될 수 있다. 카메라는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera may be stored in a memory or transmitted to the outside through a wireless communication unit. Two or more cameras may be provided depending on the usage environment.

상기 카메라부(110)는 상기 차량 검출 장치(100)의 임의의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치되는 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라(stereo camera) 또는, 스테레오코스픽 카메라(stereoscopic camera)) 또는, 단일 카메라를 포함한다. 이때, 상기 고정된 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있으며, 상기 차량 검출 장치(100)를 구성할 때 설정한다. 또한, 상기 카메라부(110)는, 영상 촬상이 가능한 임의의 모든 카메라부일 수도 있다.The camera unit 110 may include at least one pair of cameras (eg, a stereo camera or a stereo course) spaced apart at horizontal intervals on the same central axis of any same plane of the vehicle detecting apparatus 100. A stereoscopic camera or a single camera. In this case, the fixed horizontal interval may be set in consideration of a distance between two eyes of a general person, and is set when configuring the vehicle detection apparatus 100. In addition, the camera unit 110 may be any camera unit capable of image capturing.

또한, 상기 카메라부(110)는, 상기 한 쌍의 카메라에 의해 동시에 촬영된 제1 영상(일 예로, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상)과 제2 영상(일 예로, 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상)을 수신한다.Also, the camera unit 110 may include a first image (eg, a left image captured by a left camera included in the pair of cameras) and a second image captured by the pair of cameras simultaneously. For example, the right image captured by the right camera included in the pair of cameras) is received.

또한, 상기 카메라부(110)는, CCD 소자, CMOS 소자 등과 같은 이미지 센서일 수 있다.In addition, the camera unit 110 may be an image sensor such as a CCD device, a CMOS device, or the like.

또한, 상기 카메라부(110)는, 차량에 설치되는 경우, 상기 차량의 소정 위치에 고정되어, 주행 방향의 전방, 측방, 후방 등을 촬영하고, 상기 촬영된 영상을 수신하도록 구성할 수도 있다.In addition, when installed in the vehicle, the camera unit 110 may be fixed to a predetermined position of the vehicle, and may be configured to photograph the front, side, rear, and the like in the driving direction, and receive the photographed image.

상기 제어부(120)는, 상기 검출 장치(100)의 전반적인 동작을 제어한다.The controller 120 controls the overall operation of the detection device 100.

즉, 상기 제어부(120)는 상기 촬영 영상으로부터 적어도 하나의 직사각형 형태의 하-웨이블릿(haar-wavelet) 특징을 제 1 알고리즘을 이용한 학습을 통해 차량 형태를 나타내는 차량 영역 후보들을 검출하도록 제어하며, 상기 검출된 차량 영역 후보들로부터 적어도 하나의 소정의 특징을 제 2 알고리즘을 이용한 학습을 통해 최종 차량 영역을 검출하도록 제어한다.That is, the controller 120 controls to detect vehicle region candidates indicating a vehicle shape through learning using a first algorithm on at least one rectangular haar-wavelet feature from the captured image. At least one predetermined feature from the detected vehicle region candidates is controlled to detect the final vehicle region through learning using the second algorithm.

또한, 상기 제어부(120)는 단계적(coarse-to-fine) 방법을 이용하여 상기 차량 영역 후보들 및 최종 차량 영역을 검출하도록 제어한다.In addition, the controller 120 controls to detect the vehicle area candidates and the final vehicle area by using a coarse-to-fine method.

또한, 상기 제어부(120)는 상기 적어도 하나의 하-웨이블릿(haar-wavelet) 특징 또는 상기 적어도 하나의 소정의 특징을 소정의 기준에 따라 그룹화하며, 상기 그룹화된 특징들에 순차적으로 상기 제 1 알고리즘 또는 상기 제 2 알고리즘을 적용하여 상기 차량 영역 후보들 및 최종 차량 영역을 검출하도록 제어한다.In addition, the control unit 120 groups the at least one ha-wavelet feature or the at least one predetermined feature according to a predetermined criterion, and sequentially the first algorithm on the grouped features. Or apply the second algorithm to detect the vehicle region candidates and the final vehicle region.

또한, 상기 제어부(120)는 상기 검출된 최종 차량 영역을 출력하도록 상기 출력부를 제어한다.In addition, the controller 120 controls the output unit to output the detected final vehicle area.

또한, 상기 제어부(120)는 기 저장된 학습 데이터를 이용하여 상기 제 1 알고리즘 또는 제 2 알고리즘을 통한 학습을 수행하도록 제어한다.In addition, the controller 120 controls to perform learning through the first algorithm or the second algorithm using previously stored learning data.

또한, 상기 제어부(120)는 상기 차량 영역 후보들 또는 상기 최종 차량 영역이 검출되지 않는 경우, 상기 기저장된 학습 데이터를 상기 제 1 알고리즘 또는 제 2 알고리즘에 의해 학습되고 있는 데이터로 업데이트하며, 상기 업데이트된 학습 데이터를 저장하도록 메모리를 제어한다.In addition, when the vehicle region candidates or the final vehicle region are not detected, the controller 120 updates the pre-stored learning data with data being learned by the first algorithm or the second algorithm. The memory is controlled to store training data.

출력부(130)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부, 음향 출력 모듈, 알람부, 및 햅틱 모듈 등이 포함될 수 있다. 또한, 상기 출력부(130)는 촬영 영상으로부터 최종 검출된 차량 영역을 출력한다.The output unit 130 is for generating an output related to visual, auditory or tactile senses, and may include a display unit, a sound output module, an alarm unit, and a haptic module. In addition, the output unit 130 outputs the vehicle area finally detected from the captured image.

디스플레이부는 차량 검출 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 차량 검출 장치가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 차량 검출 장치(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit displays (outputs) information processed by the vehicle detecting apparatus 100. For example, when the vehicle detection apparatus is in a call mode, the UI (User Interface) or Graphic User Interface (GUI) related to the call is displayed. When the vehicle detecting apparatus 100 is in the video call mode or the photographing mode, the photographed and / or received image, the UI, and the GUI are displayed.

디스플레이부는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, Dimensional display (3D display).

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 검출 장치 바디의 디스플레이부가 차지하는 영역을 통해 검출 장치 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit may also be configured as a light transmissive structure. With this structure, the user can see the object located behind the detection device body through the area occupied by the display of the detection device body.

차량 검출 장치(100)의 구현 형태에 따라 디스플레이부가 2개 이상 존재할 수 있다. 예를 들어, 차량 검출 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or more display units may exist according to the implementation form of the vehicle detection apparatus 100. For example, a plurality of display units may be spaced apart or integrally disposed on one surface of the vehicle detection apparatus 100, or may be disposed on different surfaces.

디스플레이부와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 is an input device other than an output device. May also be used. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부의 특정 부위에 가해진 압력 또는 디스플레이부의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit or capacitance generated at a specific portion of the display unit into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(120)로 전송한다. 이로써, 제어부(120)는 디스플레이부의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the controller 120. As a result, the controller 120 may determine which area of the display unit is touched.

상기 터치스크린에 의해 감싸지는 검출 장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor may be disposed in an inner region of the detection device surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부로부터 수신되거나 메모리에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈은 검출 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module may output audio data received from a wireless communication unit or stored in a memory in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module may output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the detection device 100. Such an audio output module may include a receiver, a speaker, a buzzer, and the like.

알람부는 차량 검출 장치(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 검출 장치에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부나 음성 출력 모듈을 통해서도 출력될 수 있어서, 그들은 알람부의 일부로 분류될 수도 있다.The alarm unit outputs a signal for notifying occurrence of an event of the vehicle detection apparatus 100. Examples of events generated by the detection apparatus include call signal reception, message reception, key signal input, and touch input. The alarm unit may output a signal for notifying occurrence of an event by vibration, in addition to a video signal or an audio signal. The video signal or the audio signal may also be output through the display unit or the audio output module, so that they may be classified as part of the alarm unit.

햅틱 모듈(haptic module)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module generates various tactile effects that a user can feel. Vibration is a representative example of the haptic effect generated by the haptic module. The intensity and pattern of vibration generated by the haptic module can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. 햅틱 모듈은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈은 휴대 차량 검출 장치(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.In addition to vibration, the haptic module can be operated by a pin array that vertically moves with respect to the contact skin surface, the effect of stimulation such as the blowing force or suction force of air through the injection or inlet, grazing to the skin surface, contact of the electrode, and electrostatic force. In addition, various tactile effects can be generated, such as an effect of reproducing a feeling of cold and heat using an endothermic or heat generating element. The haptic module can deliver the haptic effect through direct contact, and can also be implemented to allow the user to feel the haptic effect through muscle sensations such as fingers or arms. Two or more haptic modules may be provided according to a configuration aspect of the portable vehicle detecting apparatus 100.

메모리(140)는 제어부(120)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(140)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 140 may store a program for the operation of the controller 120 and temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.). The memory 140 may store data regarding vibration and sound of various patterns output when a touch input on the touch screen is performed.

메모리(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 검출 장치(100)는 인터넷(internet)상에서 상기 메모리(140)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
The memory 140 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. The detection apparatus 100 may operate in association with a web storage that performs a storage function of the memory 140 on the Internet.

또한, 상기에서 언급한 구성요소들 이외에도 본 명세서에서 개시되는 일 실시 예가 적용되기 위해 상기 차량 검출 장치(100)는 하기와 같은 구성요소들을 더 포함할 수 있다.In addition, in addition to the above-mentioned components, in order to apply an embodiment disclosed herein, the vehicle detecting apparatus 100 may further include the following components.

즉, 상기 차량 검출 장치(100)는 통신부, 마이크, 센싱부, 사용자 입력부, 인터페이스부, 전원 공급부 등을 포함할 수 있다.That is, the vehicle detecting apparatus 100 may include a communication unit, a microphone, a sensing unit, a user input unit, an interface unit, a power supply unit, and the like.

먼저, 상기 차량 검출 장치(100)는, 상기 제어부(120)의 제어에 의해 임의의 검출 장치 또는 서버와의 통신 기능을 수행하는 통신부를 더 포함할 수 있다. 이때, 상기 통신부는, 유/무선 통신 모듈을 포함할 수 있다. 여기서, 상기 무선 인터넷 기술은, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), 고속 하향 패킷 접속(High Speed Downlink Packet Access : HSDPA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등을 포함할 수 있고, 상기 근거리 통신(Short Range Communication) 기술은, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), 초광대역 무선(Ultra Wideband : UWB), 지그비(ZigBee) 등을 포함할 수 있다. 또한, 상기 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다.First, the vehicle detection apparatus 100 may further include a communication unit that performs a communication function with an arbitrary detection apparatus or a server under the control of the controller 120. In this case, the communication unit may include a wired / wireless communication module. Here, the wireless Internet technology, Wireless LAN (WLAN), Wi-Fi (Wi-Fi), Wireless Broadband (Wibro), WiMAX (World Interoperability for Microwave Access (Wimax), High-speed downlink packet access (High) Speed Downlink Packet Access (HSDPA), IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS), and the like, and may include the short range communication. The technology may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like. The wired communication technology may include universal serial bus (USB) communication.

또한, 상기 통신부는, 상기 검출 장치(100)가 구비되는 임의의 차량과의 통신을 위한, CAN 통신, 차량용 이더넷, 플렉스레이(flexray), LIN(Local Interconnect Network) 등을 포함할 수 있다.The communication unit may include CAN communication, vehicle Ethernet, flexray, LIN (Local Interconnect Network), and the like, for communication with any vehicle provided with the detection apparatus 100.

마이크는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes it into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the mobile communication module and output in the call mode. Various noise reduction algorithms may be implemented in the microphone to remove noise generated while receiving an external sound signal.

센싱부는 차량 검출 장치(100)의 개폐 상태, 차량 검출 장치(100)의 위치, 사용자 접촉 유무, 검출 장치의 방위, 검출 장치의 가속/감속 등과 같이 차량 검출 장치(100)의 현 상태를 감지하여 차량 검출 장치(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit detects the current state of the vehicle detecting apparatus 100 such as the opening / closing state of the vehicle detecting apparatus 100, the position of the vehicle detecting apparatus 100, the presence or absence of a user contact, the orientation of the detecting apparatus, the acceleration / deceleration of the detecting apparatus, and the like. A sensing signal for controlling the operation of the vehicle detecting apparatus 100 is generated.

예를 들어, 차량 검출 장치(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부의 전원 공급 여부, 인터페이스부의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부는 근접 센서를 포함할 수 있다. For example, when the vehicle detecting apparatus 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, it may be sensed whether the power supply of the power supply unit, whether the external unit of the interface unit is coupled. The sensing unit may include a proximity sensor.

사용자 입력부는 사용자가 검출 장치의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit generates input data for the user to control the operation of the detection device. The user input unit may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

인터페이스부는 차량 검출 장치(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 차량 검출 장치(100) 내부의 각 구성 요소에 전달하거나, 차량 검출 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부에 포함될 수 있다. The interface unit serves as a passage with all external devices connected to the vehicle detecting apparatus 100. The interface unit receives data from an external device, receives power, transfers the power to each component inside the vehicle detecting apparatus 100, or transmits the data inside the vehicle detecting apparatus 100 to an external device. For example, wired / wireless headset ports, external charger ports, wired / wireless data ports, memory card ports, ports for connecting devices with identification modules, audio input / output (I / O) ports, The video input / output (I / O) port and the earphone port may be included in the interface unit.

식별 모듈은 차량 검출 장치(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈The identification module is a chip that stores various types of information for authenticating the use authority of the vehicle detecting apparatus 100. The identification module includes a user identification module (UIM) and a subscriber identification module.

(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 차량 검출 장치(100)와 연결될 수 있다. (Subscriber Identify Module, SIM), Universal Subscriber Identity Module (USIM) and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Therefore, the identification device may be connected to the vehicle detection apparatus 100 through a port.

상기 인터페이스부는 차량 검출 장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 차량 검출 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동검출 장치로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동검출 장치가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the vehicle detecting apparatus 100 is connected to an external cradle, the interface unit may be a passage through which power from the cradle is supplied to the vehicle detecting apparatus 100, or various command signals input from the cradle may be input by a user. It may be a passage that is delivered to the mobile detection device. Various command signals or power input from the cradle may be operated as signals for recognizing that the mobile detection apparatus is correctly mounted on the cradle.

전원 공급부는 제어부(120)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit receives an external power source and an internal power source under the control of the controller 120 to supply power for operation of each component.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(120) 자체로 구현될 수 있다.In some cases, the embodiments described herein may be implemented by the controller 120 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리에 저장되고, 제어부(120)에 의해 실행될 수 있다.
According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in a memory and executed by the controller 120.

이하, 도 2 내지 도 4를 참조하여 본 명세서에서 제안하는 차량 검출 방법에 대해 살펴보기로 한다.Hereinafter, a vehicle detection method proposed in the present specification will be described with reference to FIGS. 2 to 4.

도 2 (a) 및 (b)는 본 명세서의 일 실시 예에 따른 차량 검출 방법을 나타낸 도로서, 도 2 (a)는 차량 검출 방법을 나타낸 순서도이며, 도 2 (b)는 차량 검출 결과를 나타낸 도이다.2 (a) and (b) is a view showing a vehicle detection method according to an embodiment of the present specification, Figure 2 (a) is a flow chart showing a vehicle detection method, Figure 2 (b) is a vehicle detection result The figure shown.

도 2 (a)를 참조하면, 차량 검출 장치(100)는 카메라부를 통해 영상을 촬영한다. Referring to FIG. 2 (a), the vehicle detecting apparatus 100 captures an image through a camera unit.

여기서, 차량 검출 장치는 상기 카메라부를 통해 상기 차량 검출 장치를 포함하는 차량 전방에 대한 영상을 실시간으로 촬영한다(S110).Here, the vehicle detecting apparatus captures an image of the front of the vehicle including the vehicle detecting apparatus in real time through the camera unit (S110).

이후, 차량 검출 장치는 상기 촬영 영상으로부터 차량 형태를 나타내는 차량 영역 후보들을 검출한다(S120). 여기서, 차량 검출 장치는 차량 영역 후보들을 검출하기 위해, 적어도 하나의 직사각형 형태의 하-웨이블릿(haar-wavelet) 특징을 제 1 알고리즘을 이용하여 학습 적용한다. Thereafter, the vehicle detecting apparatus detects vehicle region candidates indicating a vehicle shape from the captured image (S120). Here, the vehicle detecting apparatus learns and applies at least one rectangular wave-wavelet feature using a first algorithm to detect vehicle region candidates.

여기서, 직사각형 형태의 하-웨이블릿 특징은 차량에 관한 구성 요소를 나타내며, 다양한 크기의 직사각형 형태의 하-웨이블릿 특징들이 있을 수 있다. 또한, 상기 제 1 알고리즘은 에이다부스트(ADABOOST) 알고리즘일 수 있다.Here, the rectangular wave-shaped feature represents a component related to the vehicle, and there may be rectangular wave-shaped features of various sizes. In addition, the first algorithm may be an ADABOOST algorithm.

여기서, 에이다부스트(ADABOOST) 알고리즘을 이용하여 학습 적용하는 것은 에이다부스트 학습 분류기를 통해 상기 촬영 영상에서 차량 영역 후보들을 검출하는 것을 말한다.Here, learning and applying using the ADABOOST algorithm means detecting vehicle region candidates in the captured image through an AdaBoost learning classifier.

상기 에이다부스트 학습 분류기는 계산이 빠른 약한 분류기(weak classifier)를 가중합(weighted sum)으로 조합하여 분류 능력이 좋은 강한 분류기(strong classifier)를 만드는 방법으로, 이 강한 분류기를 순차적으로 배치하여빠른 속도로 목표대상을 검출하는 알고리즘이다.The Adaboost learning classifier combines weak classifiers with fast weighting into a weighted sum to form a strong classifier with good classification ability. This algorithm detects target objects.

즉, 차량 검출 장치는 상기 촬영 영상에서 직사각형 형태의 하-웨이블릿 특징들을 에이다부스트 알고리즘 학습에 적용함으로써, 차량 영역 후보들을 검출한다. 즉, 차량 검출 장치는 상기와 같은 과정을 통해 상기 촬영 영상에서 비 차량 영역을 필터링하게 된다. 여기서, 차량 검출 장치는 상기와 같은 과정을 통해 약 90%의 비 차량 영역을 필터링할 수 있게 된다.That is, the vehicle detection apparatus detects vehicle region candidates by applying rectangular wavelet features to the Adaboost algorithm learning in the captured image. That is, the vehicle detecting apparatus filters the non-vehicle region from the captured image through the above process. Here, the vehicle detection apparatus may filter about 90% of the non-vehicle region through the above process.

이후, 차량 검출 장치는 상기 검출된 차량 영역 후보들로부터 적어도 하나의 소정의 특징을 제 2 알고리즘을 통해 학습 적용하여 최종 차량 영역을 검출한다(S130).Thereafter, the vehicle detecting apparatus detects a final vehicle region by learning and applying at least one predetermined feature from the detected vehicle region candidates through a second algorithm (S130).

여기서, 상기 소정의 특징은 차량의 텍스쳐 또는 윤곽을 나타내는 것으로, LBP(Local Binary Pattern), LAB 또는 HOG(Histogram of Oriented Gradients)일 수 있다.Here, the predetermined feature represents a texture or contour of the vehicle, and may be Local Binary Pattern (LBP), LAB, or Histogram of Oriented Gradients (HOG).

상기 LBP(Local Binary Pattern)는 지역적인 이미지의 텍스처를 표현하는 방법으로서, 즉 각 입력 이미지에 대해 임의의 크기와 위치를 갖는 영역으로 분할한 후 분할된 이미지 영역의 중앙값을 기준으로 나머지 인접 픽셀의 값을 이진화함으로써, 조명의 변화에 강인한 텍스처를 표현하는 방법을 말한다.The local binary pattern (LBP) is a method of expressing a texture of a local image, that is, dividing the image into regions having an arbitrary size and position with respect to each input image, and then, based on the median value of the divided image region, By binarizing a value, it is a method of expressing a texture that is robust to changes in lighting.

또한, 상기 제 2 알고리즘은 에이다부스트(ADABOOST) 알고리즘 또는 에스브이엠(SVM) 알고리즘일 수 있다.Also, the second algorithm may be an ADABOOST algorithm or an SVM algorithm.

여기서, 에스브이엠(SVM) 알고리즘을 이용한 목표대상 학습방법 및 목표대상 분류방법에 대한 상세한 설명은 참조문헌 [Christopher J. C. Burges, "A totorial on Support Vector Machines for Pattern Recognition", Data mining and Knowledge Discovery 2, 121-167, 1998]을 참조한다.Here, a detailed description of the target target learning method and the target target classification method using the SVM algorithm is described in the literature [Christopher JC Burges, "A totorial on Support Vector Machines for Pattern Recognition", Data mining and Knowledge Discovery 2 , 121-167, 1998.

여기서, 차량 검출 장치는 상기 차량 영역 후보들 및/또는 최종 차량 영역을 단계적(coarse-to-fine) 방법을 통해 검출할 수 있다. 이하, 단계적(coarse-to-fine) 방법을 통한 차량 검출 방법에 대해서는 후술하는 도 -를 참조하여 구체적으로 살펴보기로 한다.Here, the vehicle detecting apparatus may detect the vehicle region candidates and / or the final vehicle region through a coarse-to-fine method. Hereinafter, a vehicle detection method using a coarse-to-fine method will be described in detail with reference to FIG.

여기서, 차량 검출 장치는 상기 촬영 영상으로부터 좀 더 정확하게 차량을 검출하기 위해 상기 제 1 알고리즘 및 제 2 알고리즘을 통해 학습 적용하는 단계이외에도 차량 후보들을 검출하는 단계를 추가적으로 수행할 수 있다.Here, the vehicle detection apparatus may additionally perform the step of detecting vehicle candidates in addition to the step of learning and applying through the first algorithm and the second algorithm to detect the vehicle more accurately from the captured image.

즉, 차량 검출 장치는 차량과 관련된 추가 특징들을 이용하여 3 단계 내지 N 단계의 학습 적용을 위한 알고리즘을 통해 좀 더 정확하게 차량을 검출할 수 있다. 여기서, 추가되는 단계들은 차량 영역 후보들을 검출하는 단계에서 추가될 수도 있고, 최종 차량 후보를 검출하는 단계에서 추가될 수도 있다.That is, the vehicle detecting apparatus may detect the vehicle more accurately through an algorithm for learning application of steps 3 to N using additional features related to the vehicle. Here, the additional steps may be added in the step of detecting vehicle area candidates or may be added in the step of detecting the final vehicle candidate.

이후, 차량 검출 장치는 상기 검출된 최종 차량 영역을 출력부를 통해 출력한다(S140).Thereafter, the vehicle detecting apparatus outputs the detected final vehicle region through an output unit (S140).

또한, 차량 검출 장치는 메모리에 기 저장된 학습 데이터를 이용하여 상기 제 1 알고리즘 또는 제 2 알고리즘을 통해 학습 적용을 수행할 수 있다.In addition, the vehicle detection apparatus may perform the learning application through the first algorithm or the second algorithm by using the learning data previously stored in the memory.

또한, 차량 검출 장치는 상기 차량 영역 후보들 또는 상기 최종 차량 영역이 검출되지 않는 경우, 메모리에 기저장된 학습 데이터를 상기 제 1 알고리즘 또는 제 2 알고리즘에 의해 학습되고 있는 데이터로 업데이트를 수행할 수 있다.In addition, when the vehicle region candidates or the final vehicle region are not detected, the vehicle detecting apparatus may update the learning data previously stored in the memory with data being learned by the first algorithm or the second algorithm.

따라서, 차량 검출 장치는 상기 업데이트된 학습 데이터를 통해 차량 검출을 수행하고, 상기 업데이트된 학습 데이터를 메모리로 저장한다.Therefore, the vehicle detecting apparatus performs vehicle detection through the updated learning data and stores the updated learning data in a memory.

도 2 (b)에 도시된 바와 같이, 직사각형 형태의 하-웨이블릿 특징 및 소정의 특징(일 예로, LAB, HOG, LBP)들을 통해 차량이 검출되는 결과를 나타낸다(200).
As shown in FIG. 2 (b), a result of detecting a vehicle through a rectangular wave-shaped feature and predetermined features (eg, LAB, HOG, LBP) is shown (200).

도 3 (a) 내지 (c)는 본 명세서의 일 실시 예가 적용될 수 있는 차량 검출에 이용되는 특징들을 나타낸 도로서, 도 3 (a)는 하-웨이블릿(haar-wavelet) 특징을, 도 3 (b)는 랩(LAB) 특징을, 도 3 (c)는 호그(HOG) 특징을 나타낸 도이다.3 (a) to 3 (c) are diagrams showing features used for vehicle detection to which an embodiment of the present disclosure can be applied, and FIG. 3 (a) shows haar-wavelet features, and FIG. b) shows the LAB characteristic, and FIG. 3C shows the HOG characteristic.

먼저, 차량 영역 후보들을 검출하기 위해 사용되는 하-웨이블릿 특징은 도 3 (a)에 도시된 바와 같이, (직)사각형 형태의 템플릿(310)으로 표현될 수 있다. 또한, 하 웨이블릿 특징은 2개 또는 3개의 검은색과 흰색의 사각형으로 구성되어 있고, 수평, 수직 또는 대각방향으로 기울어져 있을 수 있다. 이러한 각각의 하-웨이블릿 특징들은 차량 영역 후보들의 구성 요소를 나타낸다.First, the low-wavelet feature used to detect vehicle region candidates may be represented by a template 310 in the form of a (rectangular) rectangle, as shown in FIG. In addition, the lower wavelet feature is composed of two or three black and white squares and may be inclined horizontally, vertically or diagonally. Each of these low-wavelet features represents a component of vehicle region candidates.

도 3 (b)를 참조하면, 최종 차량 영역을 검출하기 위해 사용되는 랩(LAB) 특징의 일 예를 나타낸다. 도 3 (b)에 도시된 바와 같이, 차량 뒤면의 특정 부분에 해당되는 특징을 검출하기 위해, 9개의 정사각형으로(320) 해당 특정 부분을 분할하여 특징값을 추출하게 된다.Referring to FIG. 3B, an example of a LAB feature used to detect a final vehicle area is shown. As shown in FIG. 3B, in order to detect a feature corresponding to a specific part of the rear surface of the vehicle, the feature value is extracted by dividing the specific part into nine squares 320.

도 3 (c)를 참조하면, 최종 차량 영역을 검출하기 위해 사용되는 호그(HOG) 특징의 일 예를 나타낸다. 도 3 (c)에 도시된 바와 같이, 차량의 보다 복잡한(또는 구체적인) 특징을 이용하여 최종 차량 영역을 검출하는 것을 볼 수 있다.
Referring to FIG. 3C, an example of a HOG feature used to detect a final vehicle area is shown. As shown in FIG. 3 (c), it can be seen that the final vehicle area is detected using more complex (or specific) features of the vehicle.

도 4는 본 명세서의 일 실시 예에 따른 단계적 방법을 이용한 차량 검출 방법을 나타낸 도로서, 도 4 (a)는 단계적(coarse-to-fine) 방법을 이용하여 차량 영역 후보들 및/또는 최종 차량 영역을 검출하는 방법을 나타내는 순서도이며, 도 4 (b)는 단계적 방법을 통해 차량 검출 결과를 나타낸 도이다.4 is a diagram illustrating a vehicle detection method using a stepwise method according to an embodiment of the present disclosure, and FIG. 4 (a) illustrates vehicle area candidates and / or final vehicle area using a coarse-to-fine method. 4 (b) is a diagram illustrating a vehicle detection result through a stepwise method.

S110, S140단계는 도 2 (a)와 동일하므로, 차이가 나는 부분에 대해서만 구체적으로 설명하기로 한다.Steps S110 and S140 are the same as those of FIG.

도 4 (a)를 참조하면, 차량 검출 장치는 상기 적어도 하나의 하-웨이블릿(haar-wavelet) 특징 또는 상기 적어도 하나의 소정의 특징을 소정의 기준에 따라 그룹화하고(S121,S131), 상기 그룹화된 특징들에 순차적으로 상기 제 1 알고리즘 또는 상기 제 2 알고리즘을 적용함으로써, 차량 영역 후보들 또는 최종 차량 영역을 검출할 수 있다(S122,S132).Referring to FIG. 4 (a), the vehicle detecting apparatus groups the at least one haar-wavelet feature or the at least one predetermined feature according to a predetermined criterion (S121, S131), and the grouping. Vehicle region candidates or final vehicle region may be detected by sequentially applying the first algorithm or the second algorithm to the specified features (S122 and S132).

여기서, 상기 소정의 특징은 차량 영역의 텍스쳐 또는 윤곽 정보를 표현할 수 있는 차량의 구성 요소 중 보다 복잡한 특징들을 말한다.Here, the predetermined feature refers to more complex features of the components of the vehicle capable of expressing texture or contour information of the vehicle area.

또한, 상기 소정의 기준은 차량을 바라보는 위치에 따라 존재하는 요소, 차량에만 존재하는 요소, 특정 차량에만 존재하는 요소 등일 수 있다.In addition, the predetermined criterion may be an element that exists according to the position of looking at the vehicle, an element that exists only in the vehicle, an element that exists only in a specific vehicle, and the like.

도 4 (b)를 참조하며, 하-웨이블릿 특징들을 그룹화하여 순차적으로 제 1 알고리즘을 이용하여 차량 영역 후보들을 검출한 결과를 나타내는 것을 볼 수 있다.
Referring to FIG. 4 (b), it can be seen that the wavelet features are grouped to represent the results of detecting vehicle region candidates sequentially using the first algorithm.

이상에서 설명한 실시예들 및 변형예들은 조합될 수 있다. 따라서, 각 실시예가 단독으로만 구현되는 것이 아니라, 필요에 따라 조합되어 구현될 수 있다. 이러한 조합에 대해서는, 본 명세서를 읽은 당업자라면, 용이하게 구현할 수 있는바, 이하 그 조합에 대해서는 상세하게 설명하지 않기로 한다. 다만, 설명하지 않더라도, 본 발명에서 배제되는 것이 아니며, 본 발명의 범주에 포함되는 것으로 해석되어야 한다.Embodiments and modifications described above may be combined. Accordingly, the embodiments may not be implemented alone, but may be implemented in combination as necessary. Such a combination can be easily implemented by those skilled in the art after reading the present specification, and the combination will not be described in detail below. However, even if not described, it is not to be excluded from the present invention, it should be construed as being included in the scope of the present invention.

이상에서 실시예들 및 변형예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Embodiments and modifications described above may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.For a hardware implementation, the method according to embodiments of the present invention may be implemented in one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) , Field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서(또는 제어부)에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. The software code may be stored in a memory unit and driven by a processor (or a controller). The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.

예를 들어, 본 발명에 따른 방법은 저장 매체(예를 들어, 내부 메모리, 플래쉬 메모리, 하드 디스크, 기타 등등)에 저장될 수 있고, 프로세서(예를 들어, 마이크로 프로세서)에 의해서 실행될 수 있는 소프트웨어 프로그램 내에 코드들 또는 명령어들로 구현될 수 있다. For example, a method in accordance with the present invention may be implemented in software (e.g., flash memory, hard disk, etc.) that can be stored in a storage medium And may be implemented as codes or instructions within the program.

또한, 제어부(130)는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다.In addition, the controller 130 may include an application-specific integrated circuit (ASIC), another chipset, a logic circuit, and / or a data processing device.

실시 예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 제어부에 의해 실행될 수 있다. When the embodiment is implemented in software, the above-described techniques may be implemented with modules (processes, functions, and so on) that perform the functions described above. The module may be stored in a memory and executed by a controller.

또한, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.In addition, it is to be noted that the technical terms used herein are merely used to describe particular embodiments and are not intended to limit the present invention. It is also to be understood that the technical terms used herein are to be interpreted in a sense generally understood by a person skilled in the art to which the present invention belongs, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when the technical terms used herein are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that can be understood correctly by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In the present application, the term "comprising" or "comprising" or the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Furthermore, terms including ordinals such as first, second, etc. used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may be present in between. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are the components and features of the present invention are combined in a predetermined form. Each component or feature shall be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to construct embodiments of the present invention by combining some of the elements and / or features. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments. It is clear that the claims that are not expressly cited in the claims may be combined to form an embodiment or be included in a new claim by an amendment after the application.

100: 차량 검출 장치
110: 카메라부
120: 제어부
130: 출력부
140: 메모리
100: vehicle detection device
110:
120: control unit
130:
140: Memory

Claims (20)

차량을 검출하기 위한 방법에 있어서,
영상을 촬영하는 단계;
상기 촬영 영상으로부터 차량 형태를 나타내는 차량 영역 후보들을 검출하는 단계; 및
상기 차량 영역 후보들로부터 최종 차량 영역을 검출하는 단계를 포함하되,
상기 차량 영역 후보들을 검출하는 단계는,
적어도 하나의 직사각형 형태의 하-웨이블릿(haar-wavelet) 특징을 제 1 알고리즘을 통해 학습하며,
상기 최종 차량 영역을 검출하는 단계는,
상기 검출된 차량 영역 후보들로부터 적어도 하나의 소정의 특징을 제 2 알고리즘을 통해 학습하는 것을 특징으로 하는 차량 검출 방법.
In the method for detecting a vehicle,
Capturing an image;
Detecting vehicle region candidates indicating a vehicle shape from the captured image; And
Detecting a final vehicle region from the vehicle region candidates,
The detecting of the vehicle area candidates may include:
Learning at least one rectangular wave-wavelet feature through a first algorithm,
Detecting the final vehicle area,
Learning at least one predetermined feature from the detected vehicle region candidates through a second algorithm.
제 1항에 있어서, 상기 차량 영역 후보들 및 최종 차량 영역을 검출하는 단계는,
단계적(coarse-to-fine) 방법을 이용하는 것을 특징으로 하는 차량 검출 방법.
The method of claim 1, wherein detecting the vehicle region candidates and the final vehicle region comprises:
A vehicle detection method characterized by using a coarse-to-fine method.
제 2항에 있어서, 상기 단계적 방법은,
상기 적어도 하나의 하-웨이블릿(haar-wavelet) 특징 또는 상기 적어도 하나의 소정의 특징을 소정의 기준에 따라 그룹화하는 단계; 및
상기 그룹화된 특징들에 순차적으로 상기 제 1 알고리즘 또는 상기 제 2 알고리즘을 적용하는 단계를 포함하여 이루어지는 것을 특징으로 하는 차량 검출 방법.
The method of claim 2, wherein the stepwise method is
Grouping the at least one haar-wavelet feature or the at least one predetermined feature according to a predetermined criterion; And
And applying said first algorithm or said second algorithm sequentially to said grouped features.
제 1항에 있어서,
상기 제 1 알고리즘은 에이다부스트(ADABOOST) 알고리즘인 것을 특징으로 하는 차량 검출 방법.
The method of claim 1,
And the first algorithm is an ADABOOST algorithm.
제 1항에 있어서,
상기 제 2 알고리즘은 에이다부스트(ADABOOST) 알고리즘 또는 에스브이엠(SVM) 알고리즘인 것을 특징으로 하는 차량 검출 방법.
The method of claim 1,
And said second algorithm is an ADABOOST algorithm or an SVM algorithm.
제 1항에 있어서,
상기 소정의 특징은 차량의 세부적인 특징을 나타내는 차량의 텍스쳐 또는 윤곽 정보인 것을 특징으로 하는 차량 검출 방법.
The method of claim 1,
The predetermined feature is a vehicle detection method, characterized in that the texture or contour information of the vehicle representing the detailed characteristics of the vehicle.
제 6항에 있어서,
상기 소정의 특징은 LBP(Local Binary Pattern), LAB 또는 HOG(Histogram of Oriented Gradients)인 것을 특징으로 하는 차량 검출 방법.
The method according to claim 6,
The predetermined feature is a vehicle detection method, characterized in that the Local Binary Pattern (LBP), LAB or Histogram of Oriented Gradients (HOG).
제 1항에 있어서,
상기 검출된 최종 차량 영역을 출력하는 단계를 더 포함하는 것을 특징으로 하는 차량 검출 방법.
The method of claim 1,
And outputting the detected final vehicle area.
제 1항에 있어서,
상기 제 1 알고리즘 또는 제 2 알고리즘을 통한 학습은,
기 저장된 학습 데이터를 이용하여 수행되는 것을 특징으로 하는 차량 검출 방법.
The method of claim 1,
Learning through the first algorithm or the second algorithm,
Vehicle detection method characterized in that performed using the stored learning data.
제 9항에 있어서,
상기 차량 영역 후보들 또는 상기 최종 차량 영역이 검출되지 않는 경우, 상기 기저장된 학습 데이터를 상기 제 1 알고리즘 또는 제 2 알고리즘에 의해 학습되고 있는 데이터로 업데이트하는 단계; 및
상기 업데이트된 학습 데이터를 저장하는 단계를 더 포함하는 것을 특징으로 하는 차량 검출 방법.
The method of claim 9,
If the vehicle region candidates or the final vehicle region are not detected, updating the pre-stored learning data with data being learned by the first algorithm or the second algorithm; And
And storing the updated training data.
차량 검출 장치에 있어서,
영상을 촬영하기 위한 카메라부; 및
상기 카메라부와 기능적으로 연결되는 제어부를 포함하되, 상기 제어부는,
상기 촬영 영상으로부터 적어도 하나의 직사각형 형태의 하-웨이블릿(haar-wavelet) 특징을 제 1 알고리즘을 이용한 학습을 통해 차량 형태를 나타내는 차량 영역 후보들을 검출하도록 제어하며, 상기 검출된 차량 영역 후보들로부터 적어도 하나의 소정의 특징을 제 2 알고리즘을 이용한 학습을 통해 최종 차량 영역을 검출하도록 제어하는 것을 특징으로 하는 차량 검출 장치.
In the vehicle detection device,
A camera unit for capturing an image; And
A control unit is functionally connected to the camera unit, wherein the control unit includes:
Controlling at least one rectangular ha-wavelet feature from the photographed image to detect vehicle region candidates indicating a vehicle shape through learning using a first algorithm, and at least one of the detected vehicle region candidates And detect a final vehicle region through learning using a second algorithm.
제 11항에 있어서, 상기 제어부는,
단계적(coarse-to-fine) 방법을 이용하여 상기 차량 영역 후보들 및 최종 차량 영역을 검출하도록 제어하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 11, wherein the control unit,
And detect the vehicle region candidates and the final vehicle region by using a coarse-to-fine method.
제 12항에 있어서, 상기 제어부는,
상기 적어도 하나의 하-웨이블릿(haar-wavelet) 특징 또는 상기 적어도 하나의 소정의 특징을 소정의 기준에 따라 그룹화하며, 상기 그룹화된 특징들에 순차적으로 상기 제 1 알고리즘 또는 상기 제 2 알고리즘을 적용하여 상기 차량 영역 후보들 및 최종 차량 영역을 검출하도록 제어하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 12, wherein the control unit,
Grouping the at least one ha-wavelet feature or the at least one predetermined feature according to a predetermined criterion, and sequentially applying the first algorithm or the second algorithm to the grouped features And detect the vehicle region candidates and the final vehicle region.
제 11항에 있어서,
상기 제 1 알고리즘은 에이다부스트(ADABOOST) 알고리즘인 것을 특징으로 하는 차량 검출 장치.
12. The method of claim 11,
And the first algorithm is an ADABOOST algorithm.
제 11항에 있어서,
상기 제 2 알고리즘은 에이다부스트(ADABOOST) 알고리즘 또는 에스브이엠(SVM) 알고리즘인 것을 특징으로 하는 차량 검출 장치.
12. The method of claim 11,
And said second algorithm is an ADABOOST algorithm or an SVM algorithm.
제 11항에 있어서,
상기 소정의 특징은 차량의 세부적인 특징을 나타내는 차량의 텍스쳐 또는 윤곽 정보인 것을 특징으로 하는 차량 검출 장치.
12. The method of claim 11,
The predetermined feature is a vehicle detection apparatus, characterized in that the texture or contour information of the vehicle representing the detailed characteristics of the vehicle.
제 16항에 있어서,
상기 소정의 특징은 LBP, LAB 또는 HOG(Histogram Of Gradients)인 것을 특징으로 하는 차량 검출 장치.
17. The method of claim 16,
The predetermined feature is a vehicle detection device, characterized in that LBP, LAB or HOG (Histogram Of Gradients).
제 11항에 있어서,
출력부를 더 포함하며, 상기 제어부는,
상기 검출된 최종 차량 영역을 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 차량 검출 장치.
12. The method of claim 11,
Further comprising an output unit, The control unit,
And the output unit controls the output unit to output the detected final vehicle area.
제 11항에 있어서, 상기 제어부는,
기 저장된 학습 데이터를 이용하여 상기 제 1 알고리즘 또는 제 2 알고리즘을 통한 학습을 수행하도록 제어하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 11, wherein the control unit,
And controlling to perform learning through the first algorithm or the second algorithm using previously stored learning data.
제 19항에 있어서,
메모리를 더 포함하며, 상기 제어부는,
상기 차량 영역 후보들 또는 상기 최종 차량 영역이 검출되지 않는 경우, 상기 기저장된 학습 데이터를 상기 제 1 알고리즘 또는 제 2 알고리즘에 의해 학습되고 있는 데이터로 업데이트하며, 상기 업데이트된 학습 데이터를 저장하도록 상기 메모리를 제어하는 것을 특징으로 하는 차량 검출 장치.
20. The method of claim 19,
Further comprising a memory, The control unit,
If the vehicle area candidates or the final vehicle area are not detected, the prestored learning data is updated with data being learned by the first algorithm or the second algorithm, and the memory is stored to store the updated learning data. Vehicle detection apparatus characterized in that for controlling.
KR1020110078351A 2011-08-05 2011-08-05 Apparatus and method for detecting a vehicle KR20130015976A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110078351A KR20130015976A (en) 2011-08-05 2011-08-05 Apparatus and method for detecting a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110078351A KR20130015976A (en) 2011-08-05 2011-08-05 Apparatus and method for detecting a vehicle

Publications (1)

Publication Number Publication Date
KR20130015976A true KR20130015976A (en) 2013-02-14

Family

ID=47895672

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110078351A KR20130015976A (en) 2011-08-05 2011-08-05 Apparatus and method for detecting a vehicle

Country Status (1)

Country Link
KR (1) KR20130015976A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103530640A (en) * 2013-11-07 2014-01-22 沈阳聚德视频技术有限公司 Unlicensed vehicle detection method based on AdaBoost and SVM (support vector machine)
CN103559508A (en) * 2013-11-05 2014-02-05 福建省视通光电网络有限公司 Video vehicle detection method based on continuous Adaboost
CN105138987A (en) * 2015-08-26 2015-12-09 电子科技大学 Vehicle detection method based on aggregation channel characteristic and motion estimation
CN106228106A (en) * 2016-06-27 2016-12-14 开易(北京)科技有限公司 The real-time vehicle detection filter method of a kind of improvement and system
CN107742063A (en) * 2017-10-20 2018-02-27 桂林电子科技大学 A kind of prokaryotes σ54The Forecasting Methodology of promoter
KR20180116588A (en) * 2017-04-17 2018-10-25 광주과학기술원 Method for Object Detection Using High-resolusion Aerial Image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103559508A (en) * 2013-11-05 2014-02-05 福建省视通光电网络有限公司 Video vehicle detection method based on continuous Adaboost
CN103559508B (en) * 2013-11-05 2016-07-27 福建中庚视通信息科技有限公司 A kind of based on continuous Adaboost video vehicle detection method
CN103530640A (en) * 2013-11-07 2014-01-22 沈阳聚德视频技术有限公司 Unlicensed vehicle detection method based on AdaBoost and SVM (support vector machine)
CN105138987A (en) * 2015-08-26 2015-12-09 电子科技大学 Vehicle detection method based on aggregation channel characteristic and motion estimation
CN105138987B (en) * 2015-08-26 2018-05-18 电子科技大学 A kind of vehicle checking method based on converging channels feature and estimation
CN106228106A (en) * 2016-06-27 2016-12-14 开易(北京)科技有限公司 The real-time vehicle detection filter method of a kind of improvement and system
CN106228106B (en) * 2016-06-27 2019-05-10 开易(北京)科技有限公司 A kind of improved real-time vehicle detection filter method and system
KR20180116588A (en) * 2017-04-17 2018-10-25 광주과학기술원 Method for Object Detection Using High-resolusion Aerial Image
CN107742063A (en) * 2017-10-20 2018-02-27 桂林电子科技大学 A kind of prokaryotes σ54The Forecasting Methodology of promoter

Similar Documents

Publication Publication Date Title
US11074466B2 (en) Anti-counterfeiting processing method and related products
CN105512685B (en) Object identification method and device
WO2017181769A1 (en) Facial recognition method, apparatus and system, device, and storage medium
EP2879095A1 (en) Method, apparatus and terminal device for image processing
CN111914812B (en) Image processing model training method, device, equipment and storage medium
CN110059652B (en) Face image processing method, device and storage medium
US20220309836A1 (en) Ai-based face recognition method and apparatus, device, and medium
CN107368810A (en) Method for detecting human face and device
CN105224924A (en) Living body faces recognition methods and device
KR20130015976A (en) Apparatus and method for detecting a vehicle
KR102557561B1 (en) Method and system for determining depth of information of an image
US11151398B2 (en) Anti-counterfeiting processing method, electronic device, and non-transitory computer-readable storage medium
KR101563542B1 (en) Parking information system using mobile terminal
JP7332813B2 (en) Image processing method, device, electronic device and storage medium
CN112241657A (en) Fingerprint anti-counterfeiting method and electronic equipment
US20220130019A1 (en) Electronic device and method for processing image by same
CN107977636A (en) Method for detecting human face and device, terminal, storage medium
CN112818979B (en) Text recognition method, device, equipment and storage medium
KR20160083208A (en) Portable terminal, case for portable terminal and iris recognition method thereof
CN115937738A (en) Training method, device and equipment of video annotation model and storage medium
KR20130015975A (en) Apparatus and method for detecting a vehicle
CN113343709B (en) Method for training intention recognition model, method, device and equipment for intention recognition
EP4145343A1 (en) Fingerprint liveness detection method and device, and storage medium
CN110728275B (en) License plate recognition method, license plate recognition device and storage medium
US20240126857A1 (en) Method and electronic device for performing user authentication function by using udc

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid