KR101257871B1 - Apparatus and method for detecting object based on vanishing point and optical flow - Google Patents

Apparatus and method for detecting object based on vanishing point and optical flow Download PDF

Info

Publication number
KR101257871B1
KR101257871B1 KR1020110078348A KR20110078348A KR101257871B1 KR 101257871 B1 KR101257871 B1 KR 101257871B1 KR 1020110078348 A KR1020110078348 A KR 1020110078348A KR 20110078348 A KR20110078348 A KR 20110078348A KR 101257871 B1 KR101257871 B1 KR 101257871B1
Authority
KR
South Korea
Prior art keywords
camera
pitch motion
information
images
vanishing point
Prior art date
Application number
KR1020110078348A
Other languages
Korean (ko)
Other versions
KR20130015973A (en
Inventor
김종헌
박영경
이중재
김현수
박준오
안드레아스 박
디르 산드라 셰이커
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110078348A priority Critical patent/KR101257871B1/en
Publication of KR20130015973A publication Critical patent/KR20130015973A/en
Application granted granted Critical
Publication of KR101257871B1 publication Critical patent/KR101257871B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 명세서는, 카메라를 통해 시차를 두고 획득한 복수의 이미지 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지 사이에 존재하는 광류 중 적어도 하나를 근거로 카메라의 피치 모션에 기인한 오차를 최소화한 후, 임의의 오브젝트를 검출하는 검출 장치 및 검출 방법을 제공한다.
이를 위하여, 일 실시예에 따른 검출 방법은, 임의의 동적인 또는 정적인 오브젝트를 검출하는 방법으로서, 카메라를 통해 시차를 두고 복수의 이미지를 획득하는 단계; 및 상기 복수의 이미지 중 적어도 하나의 이미지를 통해 상기 임의의 오브젝트를 검출하는 단계를 포함하되, 상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생한 경우, 상기 복수의 이미지들 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 한 상기 카메라의 피치 모션에 의한 오차의 최소화를 통하여 상기 임의의 오브젝트의 검출이 이루어지는 것 일 수 있다.
The present specification minimizes an error due to a pitch motion of a camera based on at least one of a vanishing point detected in at least one image among a plurality of images acquired with parallax through the camera and an optical flow existing between the plurality of images. Then, a detection apparatus and a detection method for detecting any object are provided.
To this end, the detection method according to an embodiment includes a method of detecting any dynamic or static object, the method comprising: obtaining a plurality of images with parallax through a camera; And detecting the arbitrary object through at least one of the plurality of images, wherein when a pitch motion with respect to the camera occurs while acquiring the plurality of images, at least one of the plurality of images. The detection of the arbitrary object may be performed by minimizing an error caused by the pitch motion of the camera based on at least one of a vanishing point detected in an image of the optical signal and a light flow existing between the plurality of images.

Description

소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법{APPARATUS AND METHOD FOR DETECTING OBJECT BASED ON VANISHING POINT AND OPTICAL FLOW}Detecting device and detection method based on vanishing point and optical flow {APPARATUS AND METHOD FOR DETECTING OBJECT BASED ON VANISHING POINT AND OPTICAL FLOW}

본 명세서는 카메라를 통해 오브젝트를 검출하는 장치 및 그 방법에 관한 것이다.The present disclosure relates to an apparatus and a method for detecting an object through a camera.

최근, 차량에 장착된 카메라를 통하여, 차선, 신호, 차량 또는 기타 지표들 같은 오브젝트를 검출하는 검출 장치의 개발이 활발히 진행되고 있다. 이러한 검출 장치를 통해 검출된 오브젝트에 대한 정보는 상기 차량의 주행에 이용될 수 있다.Recently, development of a detection apparatus for detecting an object such as a lane, a signal, a vehicle, or other indices through a camera mounted on a vehicle is actively progressing. Information about the object detected through such a detection device may be used to drive the vehicle.

그러나, 차량의 주행 중에는 도로상 노면의 상태에 따라 피치 모션(Pitch Motion)이 발생할 수 있다. 차량의 피치 모션(Pitch Motion)이란 움직이는 노면 상태에 기인한 상기 차량의 업-다운(up-down) 운동을 말한다.However, while the vehicle is driving, pitch motion may occur according to the state of the road surface. Pitch motion of a vehicle refers to an up-down movement of the vehicle due to a moving road surface condition.

이러한 차량의 피치 모션은 상기 검출 장치가 상기 오브젝트를 검출하는 데 있어 오류를 발생시킬 수 있다. 따라서, 상기 피치 모션에 대한 오류를 최소화하는 기술이 필요하게 되었다.The pitch motion of such a vehicle may cause an error in the detection device detecting the object. Thus, there is a need for a technique that minimizes errors for the pitch motion.

기존의 피치 모션에 대한 보정방법은, 상기 피치 모션의 방향의 역방향으로 차량에 장착된 카메라의 촬영방향 또는 상기 카메라의 위치를 변경하는 방법이 있을 수 있다.An existing correction method for pitch motion may include a method of changing a photographing direction of a camera mounted on a vehicle or a position of the camera in a reverse direction of the pitch motion.

그러나, 상기 방법은 상기 카메라의 촬영방향 또는 위치를 변경함에 있어, 상기 피치 모션에 대한 반응 속도가 느리며, 일반적인 카메라의 움직임보다 차량의 움직임이 더 클 수밖에 없어 상기 카메라의 촬영방향 또는 위치를 변경하는 것으로는 상기 피치 모션에 대한 보정이 부정확하게 되는 문제가 있을 수 있다.
{대한민국 등록특허 10-0746351 "기하학 정보를 이용한 실시간 높이 측정 방법(2007.07.30)",
대한민국 등록특허 10-0666276 "소실점을 이용한 자동차의 차선이탈 경보방법(2007.01.03)" 등} 참조
However, in the method of changing the photographing direction or position of the camera, the response speed to the pitch motion is slow, and the movement of the vehicle is larger than that of the general camera. There may be a problem that the correction for the pitch motion becomes inaccurate.
{Republic of Korea Patent No. 10-0746351 "Method of measuring real-time height using geometric information (2007.07.30)",
Republic of Korea Patent No. 10-0666276, "lane departure warning method of a vehicle using a vanishing point (2007.01.03)", etc.}

본 명세서는, 카메라를 통해 시차를 두고 획득한 복수의 이미지 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지 사이에 존재하는 광류 중 적어도 하나를 근거로 카메라의 피치 모션의 영향을 최소화함으로써 보다 정확하고 안정되게 임의의 오브젝트를 검출할 수 있는 검출 장치 및 검출 방법을 제공하는 데 그 목적이 있다.The present disclosure provides a method of minimizing the influence of the pitch motion of the camera based on at least one of a vanishing point detected in at least one image among a plurality of images acquired with parallax through the camera, and an optical flow existing between the plurality of images. It is an object of the present invention to provide a detection apparatus and a detection method capable of detecting any object accurately and stably.

상기 목적들을 달성하기 위한 본 명세서에 따른 검출 방법은, 임의의 동적인 또는 정적인 오브젝트를 검출하는 방법으로서, 카메라를 통해 시차를 두고 복수의 이미지를 획득하는 단계; 및 상기 복수의 이미지 중 적어도 하나의 이미지를 통해 상기 임의의 오브젝트를 검출하는 단계를 포함하되, 상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생한 경우, 상기 복수의 이미지들 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 한 상기 카메라의 피치 모션에 의한 오차의 최소화를 통하여 상기 임의의 오브젝트의 검출이 이루어지는 것일 수 있다.A detection method according to the present disclosure for achieving the above object, the method of detecting any dynamic or static object, comprising the steps of: obtaining a plurality of images with a parallax through a camera; And detecting the arbitrary object through at least one of the plurality of images, wherein when a pitch motion with respect to the camera occurs while acquiring the plurality of images, at least one of the plurality of images. The detection of the arbitrary object may be performed by minimizing an error caused by the pitch motion of the camera based on at least one of a vanishing point detected in an image of the light and a light flow existing between the plurality of images.

본 명세서와 관련된 일 예로서, 제1항에 있어서, 상기 오차의 최소화는, 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 카메라의 피치 모션에 대한 정보를 추출하고, 상기 추출된 카메라의 피치 모션에 대한 정보를 기초로 하여 이루어지는 것일 수 있다.As an example related to the present specification, the minimization of the error may include extracting information on the pitch motion of the camera based on at least one of the vanishing point and the optical flow, and extracting the pitch motion of the camera. It may be made based on the information about.

본 명세서와 관련된 일 예로서, 상기 카메라의 피치 모션에 대한 정보는, 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나인 것일 수 있다.As an example related to the present specification, the information about the pitch motion of the camera may be at least one of a direction of the pitch motion and an angle of the pitch motion.

본 명세서와 관련된 일 예로서, 상기 카메라의 피치 모션에 대한 정보는, 상기 소실점을 근거로 추출된 제 1 정보 및 상기 광류를 근거로 추출된 제 2 정보 중 적어도 하나를 포함하고, 상기 오차의 최소화는, 상기 제 1 정보 및 상기 제 2 정보 중 적어도 하나를 기초로 하여 이루어지는 것일 수 있다.As an example related to the present specification, the information about the pitch motion of the camera includes at least one of first information extracted based on the vanishing point and second information extracted based on the optical flow, and minimizes the error. May be based on at least one of the first information and the second information.

본 명세서와 관련된 일 예로서, 상기 카메라의 피치 모션에 대한 정보는, 상기 제 1 정보 및 상기 제 2 정보에 각각에 대응되는 가중치를 곱한 값을 근거로 추출되는 것일 수 있다.As an example related to the present specification, the information about the pitch motion of the camera may be extracted based on a value obtained by multiplying a weight corresponding to each of the first information and the second information.

본 명세서와 관련된 일 예로서, 상기 임의의 오브젝트를 검출하는 단계는, 상기 촬영된 영상 내에서 상기 임의의 오브젝트의 후보군이 되는 지지점(support point)을 추출하는 단계; 상기 지지점을 월드 좌표(world coordinate)로 변환하는 단계; 및 상기 변환된 월드 좌표 상에서 상기 임의의 오브젝트를 검출하는 단계를 포함하고, 상기 오차의 최소화는, 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 지지점을 월드 좌표로 변환함에 의해 이루어지는 것일 수 있다.As an example related to the present specification, detecting the arbitrary object may include extracting a support point that is a candidate group of the arbitrary object in the captured image; Converting the support points to world coordinates; And detecting the arbitrary object on the converted world coordinates, and minimizing the error may be performed by converting the support point into world coordinates based on at least one of the vanishing point and the optical flow.

본 명세서와 관련된 일 예로서, 상기 지지점의 월드 좌표(world coordinate)로의 변환은, 변환 행렬을 근거로 이루어지고, 상기 오차의 최소화는, 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 변환 행렬의 계수를 변경함으로써 이루어지는 것일 수 있다.As an example related to the present specification, the conversion of the support point into world coordinates is based on a transformation matrix, and the minimization of the error is based on at least one of the vanishing point and the optical flow coefficient of the transformation matrix. It may be made by changing the.

본 명세서와 관련된 일 예로서, 상기 카메라는 차량에 장착되고, 상기 임의의 오브젝트는 상기 차량의 이동 속도에 비하여, 상대 속도를 갖는 것일 수 있다.As an example related to the present specification, the camera may be mounted on a vehicle, and the arbitrary object may have a relative speed compared to the moving speed of the vehicle.

본 명세서와 관련된 일 예로서, 상기 복수의 이미지를 획득하기 위한 시차는, 상기 차량의 속도에 따라 가변 되는 것일 수 있다.As an example related to the present specification, the parallax for acquiring the plurality of images may be variable according to the speed of the vehicle.

본 명세서와 관련된 일 예로서, 상기 카메라의 피치 모션은 상기 차량의 가감속 또는 상기 차량이 주행하는 노면의 상태에 의하여 발생하는 것일 수 있다.As an example related to the present specification, the pitch motion of the camera may be caused by acceleration or deceleration of the vehicle or a state of a road surface on which the vehicle travels.

본 명세서와 관련된 일 예로서, 상기 오차의 최소화는, 상기 차량의 쇼크업쇼버의 탄성 계수 및 감쇠 계수에 의한 상기 카메라의 피치 모션이 최소화되기 전까지 지속되는 것일 수 있다.As an example related to the present specification, the minimization of the error may be continued until the pitch motion of the camera due to the elastic modulus and the damping coefficient of the shock absorber of the vehicle is minimized.

상기 목적들을 달성하기 위한 본 명세서에 따른 검출 장치는, 임의의 동적인 또는 정적인 오브젝트를 검출하는 장치로서, 카메라를 통해 시차를 두고 복수의 이미지를 획득하는 카메라 모듈; 및 상기 복수의 이미지 중 적어도 하나의 이미지를 통해 상기 임의의 오브젝트를 검출하는 제어부를 포함하되, 상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생한 경우, 상기 복수의 이미지들 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 한 상기 카메라의 피치 모션에 의한 오차의 최소화를 통하여 상기 임의의 오브젝트의 검출이 이루어지는 것일 수 있다.A detection apparatus according to the present specification for achieving the above objects, the device for detecting any dynamic or static object, the camera module for obtaining a plurality of images at a parallax through the camera; And a controller configured to detect the arbitrary object through at least one of the plurality of images, wherein when a pitch motion with respect to the camera occurs while acquiring the plurality of images, at least one of the plurality of images. The detection of the arbitrary object may be performed by minimizing an error caused by the pitch motion of the camera based on at least one of a vanishing point detected in an image of the light and a light flow existing between the plurality of images.

본 명세서와 관련된 일 예로서, 상기 오차의 최소화는, 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 카메라의 피치 모션에 대한 정보를 추출하고, 상기 추출된 카메라의 피치 모션에 대한 정보를 기초로 하여 이루어지는 것일 수 있다.As an example related to the present specification, minimizing the error may be performed by extracting information on the pitch motion of the camera based on at least one of the vanishing point and the optical flow, and based on the information on the pitch motion of the extracted camera. It may be done.

본 명세서와 관련된 일 예로서, 상기 카메라의 피치 모션에 대한 정보는, 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나인 것일 수 있다.As an example related to the present specification, the information about the pitch motion of the camera may be at least one of a direction of the pitch motion and an angle of the pitch motion.

본 명세서에 개시된 일 실시예에 따르면, 카메라를 통해 시차를 두고 획득한 복수의 이미지 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지 사이에 존재하는 광류 중 적어도 하나를 근거로 카메라의 피치 모션에 기인한 오차를 최소화한 후, 임의의 오브젝트를 검출하는 검출 장치 및 검출 방법을 제공한다.According to an embodiment disclosed in the present specification, a pitch motion of a camera is based on at least one of a vanishing point detected in at least one of a plurality of images acquired with parallax through a camera, and light flow existing between the plurality of images. The present invention provides a detection apparatus and a detection method for detecting an arbitrary object after minimizing an error caused by the error.

특히, 본 명세서에 개시된 일 실시예에 따른 검출 장치 및 검출 방법에 따르면, 소실점 및 광류 중 적어도 하나를 근거로 카메라의 피치 모션의 영향을 최소화함으로써 보다 정확하고 안정되게 임의의 오브젝트를 검출할 수 있는 이점이 존재한다.In particular, according to the detection apparatus and the detection method according to an embodiment disclosed herein, it is possible to detect any object more accurately and stably by minimizing the influence of the pitch motion of the camera based on at least one of the vanishing point and the light flow. There is an advantage.

도 1은 본 명세서에 개시된 실시예들에 따른 검출 장치의 구성을 나타낸 블록도이다.
도 2는 본 명세서에 개시된 실시예들에 따른 검출 방법을 나타내는 순서도이다.
도 3은 차량에 장착된 카메라의 피치 모션(Pitch motion)에 따른 가시영역의 변화를 도시한 것이다.
도 4는 카메라의 피치 모션에 따른 영상의 변화를 보여주는 예시도이다.
도 5는 카메라로부터 획득된 이미지로부터 파악되는 소실점을 보여주는 예시도이다.
도 6은 시차를 두고 획득한 복수의 이미지들 간에 존재하는 광류를 나타내는 예시도이다.
도 7은 본 명세서에 개시된 제 1 실시예에 따른 검출방법을 나타내는 순서도이다.
도 8은 본 명세서에 개시된 제 2 실시예에 따른 검출 방법을 나타내는 예시도이다.
도 9는 본 명세서에 개시된 제 3 실시예에 따른 피치 모션에 의한 오차를 최소화하는 과정을 나타낸 예시도이다.
1 is a block diagram showing the configuration of a detection apparatus according to the embodiments disclosed herein.
2 is a flow chart illustrating a detection method according to embodiments disclosed herein.
FIG. 3 illustrates a change in the visible area according to the pitch motion of a camera mounted on a vehicle.
4 is an exemplary view illustrating a change of an image according to a pitch motion of a camera.
5 is an exemplary view showing a vanishing point grasped from an image acquired from a camera.
6 is an exemplary diagram illustrating an optical flow existing between a plurality of images acquired with parallax.
7 is a flowchart showing a detection method according to the first embodiment disclosed in the present specification.
8 is an exemplary view showing a detection method according to a second embodiment disclosed herein.
9 is an exemplary view illustrating a process of minimizing an error due to pitch motion according to a third embodiment disclosed herein.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured. It is to be noted that the attached drawings are only for the purpose of easily understanding the concept of the technology disclosed in the present specification, and should not be construed as limiting the spirit of the technology by the attached drawings.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the scope of the technology disclosed herein. Also, the technical terms used herein should be interpreted as being generally understood by those skilled in the art to which the presently disclosed subject matter belongs, unless the context clearly dictates otherwise in this specification, Should not be construed in a broader sense, or interpreted in an oversimplified sense. In addition, when a technical term used in this specification is an erroneous technical term that does not accurately express the concept of the technology disclosed in this specification, it should be understood that technical terms which can be understood by a person skilled in the art are replaced. Also, the general terms used in the present specification should be interpreted in accordance with the predefined or prior context, and should not be construed as being excessively reduced in meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or some steps It should be construed that it may not be included or may further include additional components or steps.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" , "기" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한 상기 접미사들은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, the suffixes "module", "group", and "unit" for the components used in the present specification are given or used in consideration of the ease of writing the specification, and have a meaning or role that is distinct from each other. no. The suffixes can also be implemented in hardware or software or a combination of hardware and software.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Furthermore, terms including ordinals such as first, second, etc. used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하에서는, 본 명세서에 개시된 실시예들에 따른 검출 장치의 구성을 도 1을 참조하여 설명한다. Hereinafter, the configuration of a detection apparatus according to the embodiments disclosed herein will be described with reference to FIG. 1.

본 명세서에 개시된 The 실시예들에In embodiments 따른 검출 장치의 구성에 대한 설명 Description of the configuration of the detection device according to

여기서, 도 1의 검출 장치는, 스탠드 얼론(stand alone)으로 구성될 수 있을 뿐만 아니라, 이동 단말기(Mobile Terminal), 텔레매틱스 단말기(Telematics Terminal), 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기 등과 같이 다양한 단말기에 적용될 수 있다.Here, the detection device of FIG. 1 may be configured not only as stand alone, but also as a mobile terminal, a telematics terminal, a smart phone, and a portable terminal. , Personal Digital Assistant (PDA), Portable Multimedia Player (PMP), Notebook Computer, Tablet PC (Tablet PC), Wibro Terminal, IPTV (Internet Protocol Television) Terminal, Television ), 3D televisions, video devices, telematics terminals, navigation terminals, AVN terminals, and the like.

도 1은 본 명세서에 개시된 실시예들에 따른 검출 장치의 구성을 나타낸 블록도로서, 이에 도시한 바와 같이, 검출 장치(10)는, 카메라 모듈(110), 제어부(120), 표시부(130) 및, 저장부(140)로 구성된다. 도 1에 도시한 검출 장치(10)의 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도 1에 도시한 구성 요소보다 많은 구성 요소에 의해 검출 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 검출 장치(10)가 구현될 수도 있다.1 is a block diagram showing a configuration of a detection apparatus according to the embodiments disclosed in the present specification. As shown in FIG. 1, the detection apparatus 10 includes a camera module 110, a control unit 120, and a display unit 130. And a storage unit 140. Not all components of the detection device 10 shown in FIG. 1 are essential components, and the detection device 10 may be implemented by more components than those shown in FIG. 1, and fewer components. The detection apparatus 10 may also be implemented.

상기 카메라 모듈(110)은, 상기 검출 장치(10)의 임의의 동일면의 동일 중심축 상에 수평 간격으로 이격되어 설치되는 적어도 한 쌍의 카메라(일 예로, 스테레오 카메라(stereo camera) 또는, 스테레오코스픽 카메라(stereoscopic camera)) 또는, 단일 카메라를 포함한다. 이때, 상기 고정된 수평 간격은, 일반적인 사람의 두 눈 간의 거리를 고려하여 설정할 수 있으며, 상기 검출 장치(10)를 구성할 때 설정한다. 또한, 상기 카메라 모듈(110)은, 영상 촬상이 가능한 임의의 모든 카메라 모듈일 수도 있다.The camera module 110 may include at least one pair of cameras (eg, a stereo camera or a stereo course) that are spaced apart from each other at horizontal intervals on the same central axis of the same plane of the detection apparatus 10. A stereoscopic camera or a single camera. In this case, the fixed horizontal interval may be set in consideration of a distance between two eyes of a general person, and is set when configuring the detection apparatus 10. In addition, the camera module 110 may be any camera module capable of image capturing.

또한, 상기 카메라 모듈(110)은, 상기 한 쌍의 카메라에 의해 동시에 촬영된 제1 영상(일 예로, 상기 한 쌍의 카메라에 포함된 좌측 카메라에 의해 촬영된 좌측 영상)과 제2 영상(일 예로, 상기 한 쌍의 카메라에 포함된 우측 카메라에 의해 촬영된 우측 영상)을 수신한다.In addition, the camera module 110 may include a first image (eg, a left image captured by a left camera included in the pair of cameras) and a second image captured by the pair of cameras simultaneously. For example, the right image captured by the right camera included in the pair of cameras) is received.

또한, 상기 카메라 모듈(110)은, CCD 소자, CMOS 소자 등과 같은 이미지 센서일 수 있다.In addition, the camera module 110 may be an image sensor such as a CCD device and a CMOS device.

또한, 상기 카메라 모듈(110)은, 차량에 설치되는 경우, 상기 차량의 소정 위치에 고정되어, 주행 방향의 전방, 측방, 후방 등을 촬영하고, 상기 촬영된 영상을 수신하도록 구성할 수도 있다.In addition, when installed in a vehicle, the camera module 110 may be fixed to a predetermined position of the vehicle, and may be configured to photograph the front, the side, the rear of the driving direction, and the like to receive the photographed image.

본 명세서에 개시된 실시예들에 따르면, 상기 카메라 모듈(110)는 카메라를 통해 시차를 두고 복수의 이미지를 획득할 수 있다. 상기 복수의 이미지는 카메라의 피치 모션(pitch motion)에 대한 영향을 분석하기 위한 소실점 또는 광류 중 적어도 적어도 하나를 추출하는 데 사용될 수 있다. 상기 복수의 이미지는 동영상의 프레임 이미지일 수 있다.According to the embodiments disclosed herein, the camera module 110 may acquire a plurality of images with a parallax through the camera. The plurality of images may be used to extract at least one of vanishing point or light flow for analyzing the effect on the pitch motion of the camera. The plurality of images may be frame images of a video.

상기 피치 모션은 일반적으로 움직이는 물체로부터 발생한 노이즈(noise)에 기인한 상기 물체의 업-다운(up-down) 이동을 말할 수 있다. 예를 들어, 차량의 운행에 있어서, 상기 피치 모션은 상기 차량이 주행하는 노면의 상태에 기인한 상기 차량의 위-아래 방향의 진동이 될 수 있다.The pitch motion may generally refer to an up-down movement of the object due to noise generated from a moving object. For example, in driving of the vehicle, the pitch motion may be vibration in the up-down direction of the vehicle due to the state of the road surface on which the vehicle travels.

상기 소실점(vanishing point)은 물체에 연장선을 그었을 때 연장선들이 원근 효과에 의해 만나는 점을 의미한다. 예를 들어, 자동차의 경우에는 전/후방 카메라 영상에서 주차선 또는 차선을 직선 성분으로 이용할 수 있고, 풍경 영상에서는 건물의 외곽 선을 직선 성분으로 이용할 수도 있다. 영상 내에서 직선 검출 방법으로는 허프 변환(Hough Transform)을 이용할 수 있다The vanishing point means that the extension lines meet by the perspective effect when an extension line is drawn on the object. For example, in the case of a car, a parking line or a lane may be used as a straight line component in the front / rear camera image, and an outer line of the building may be used as the straight line component in the landscape image. Hough transform may be used as a straight line detection method in an image.

상기 소실점은 상기 피치 모션의 영향을 분석하는 데 사용될 수 있다. 즉, 카메라로부터 획득된 이미지로부터 파악되는 소실점의 추적을 통하여 카메라의 피치 모션을 검출할 수 있다. 예를 들어, 상기 획득된 이미지로부터 소실점을 추출하고, 상기 소실점의 시간적 변화를 추적하는 경우, 상기 카메라의 피치 모션에 따라 상기 소실점은 위 또는 아래로 이동할 수 있다. 따라서, 상기 소실점의 수직 방향으로의 이동을 관찰을 통해 상기 카메라의 피치 모션을 검출할 수 있다.The vanishing point can be used to analyze the effect of the pitch motion. That is, the pitch motion of the camera may be detected by tracking the vanishing point detected from the image acquired from the camera. For example, when the vanishing point is extracted from the acquired image and the temporal change of the vanishing point is tracked, the vanishing point may move up or down according to the pitch motion of the camera. Therefore, the pitch motion of the camera can be detected by observing the movement of the vanishing point in the vertical direction.

또한, 상기 광류(optical flow)란 명도 유형(brightness pattern)을 서서히 변화시킴으로써 발생하는 영상에서의 명백한 움직임의 속도 분포를 나타내는 것이다. 즉, 광류란 카메라에 의해 촬영되어 입력되는 시간적으로 다른 2개의 영상데이터로부터 그 영상에 나타나는 외견상 움직임을 벡터로 나타낸 것을 말한다. In addition, the optical flow refers to the velocity distribution of the apparent movement in the image generated by gradually changing the brightness pattern. In other words, the optical flow refers to a vector representing the apparent motion appearing in the image from two different temporally different image data photographed and input by the camera.

또한 상기 광류를 기반으로 하여 오브젝트등(예를 들어, 차선 또는 차량)을 검출할 수 있는데, 바로 전에 촬영한 프레임의 이전 영상과 각각의 픽셀들을 현재 촬영한 프레임의 현재 영상의 모든 픽셀들과 각각 비교하거나, 또는 이전 영상데이터를 소정의 픽셀을 가지는 복수의 단위 블록으로 구분함과 아울러 현재 영상데이터를 픽셀 단위로 이동시키면서 상기 이전 영상데이터의 단위블록과 동일한 크기를 가지는 단위블록으로 구분한 후 그 이전 영상데이터의 각각의 단위블록들을 현재 영상데이터의 복수의 단위블록들과 비교하여 단위블록 내의 픽셀들의 휘도 및 색도 등의 차이 값을 구하며, 그 구한 차이 값으로 이전 영상데이터의 픽셀이 움직인 위치를 벡터로 표시하고, 특정 영역에서 특정 크기 이상의 벡터가 발생될 경우에 이를 기준으로 하여 오브젝트를 검출하는 것이다.Also, an object (for example, a lane or a vehicle) may be detected based on the light flow. Compare or divide the previous image data into a plurality of unit blocks having a predetermined pixel, and move the current image data in pixel units and divide the previous image data into unit blocks having the same size as the unit block of the previous image data. Each unit block of the previous image data is compared with a plurality of unit blocks of the current image data to obtain a difference value such as luminance and chromaticity of the pixels in the unit block, and the position where the pixel of the previous image data is moved by the obtained difference value. Is expressed as a vector, and when a vector of a certain size or more occurs in a specific region, To detect the object.

상기 제어부(120)는, 상기 검출 장치(10)의 전반적인 동작을 제어한다.The controller 120 controls the overall operation of the detection device 10.

본 명세서에 개시된 실시예들에 따르면, 상기 제어부(120)는 상기 카메라 모듈로부터 획득된 복수의 이미지 중 적어도 하나의 이미지를 통해 임의의 오브젝트가 검출되도록 상기 검출 장치(10)의 전반적인 동작을 제어할 수 있다.According to the embodiments disclosed herein, the control unit 120 may control the overall operation of the detection apparatus 10 such that any object is detected through at least one image of the plurality of images obtained from the camera module. Can be.

예를 들어, 상기 검출 장치(10)가 차선을 검출하는 동작을 하는 경우, 상기 제어부(120)는 상기 차선을 검출하기 위해 상기 검출 장치(10)의 전반적인 동작을 다음과 같이 제어할 수 있다.For example, when the detection apparatus 10 performs an operation of detecting a lane, the controller 120 may control the overall operation of the detection apparatus 10 to detect the lane as follows.

이 경우, 상기 제어부(120)는, 미리 설정된 가이드 라인(guide line)을 근거로 상기 적어도 한 쌍의 카메라에 의해 수신된 제1 영상 및 제2 영상 중 어느 하나의 영상 내에서 복수의 지지점(support point)을 추출하거나 또는, 상기 단일 카메라에 의해 수신된 영상 내에서 복수의 지지점을 추출한다. 여기서, 상기 가이드 라인은, 해당 영상에 대해서 수평축을 기준으로 좌우 방향으로 설정되며, 복수의 가이드 라인의 수직축 간의 간격은 영상의 아래쪽에 있는 가이드 라인 간의 간격이 영상의 위쪽에 있는 가이드 라인 간의 간격보다 더 넓게 설정한다. 즉, 상기 가이드 라인은, 원본 영상(또는, 원본 이미지)의 데이터(지지점 등 포함)를 월드 좌표로 변환할 때 최대한 균일한 포인트 간격을 얻기 위해서, 영상의 아래쪽에서 위쪽으로 갈수록 가이드 라인 간의 간격을 좁게 설정할 수 있다.In this case, the controller 120 supports a plurality of support points in any one of the first image and the second image received by the at least one pair of cameras based on a preset guide line. point) or a plurality of support points in the image received by the single camera. Here, the guide line is set in the left and right directions with respect to the corresponding image with respect to the horizontal axis, and the spacing between the vertical axes of the plurality of guide lines is greater than the spacing between the guide lines at the bottom of the image than the spacing between the guide lines at the top of the image. Set wider. That is, the guide line may be configured such that the guide line is spaced from the bottom of the image to the top in order to obtain the most uniform point spacing when converting data (including support points, etc.) of the original image (or the original image) into world coordinates. Can be set narrow.

또한, 상기 제어부(120)는, 상기 추출된 복수의 지지점을 월드 좌표로 변환한다. 즉, 상기 제어부(120)는, 상기 저장부(140)에 미리 저장된 변환 행렬(예를 들어, 호모그래픽 행렬(homographic matrix) 등 포함)을 이용하여 상기 추출된 복수의 지지점을 월드 좌표로 각각 변환한다. 여기서, 상기 월드 좌표로 각각 변환된 복수의 지지점들은, 수직 방향의 간격이 동일한 간격을 유지하게 되며, 이에 따라 상기 월드 좌표로 각각 변환된 복수의 지지점들 중에서 일부 에러가 있더라도, 이러한 에러를 확인하기 위한 정확도를 높일 수 있게 된다. 여기서, 상기 에러는, 실제 차선과의 오차를 의미할 수 있다.In addition, the controller 120 converts the extracted plurality of support points into world coordinates. That is, the controller 120 converts the extracted plurality of support points into world coordinates, respectively, using a transformation matrix (eg, a homographic matrix, etc.) stored in the storage 140 in advance. do. Here, the plurality of support points respectively converted into the world coordinates maintain the same interval in the vertical direction, and thus, even if there are some errors among the plurality of support points respectively converted into the world coordinates, checking the error Can increase the accuracy. Here, the error may mean an error with an actual lane.

또한, 상기 제어부(120)는, 상기 월드 좌표로 변환된 포인트들에 대해서 상기 저장부(140)에 미리 저장된 커브 방정식을 근거로 상기 월드 좌표로 변환된 포인트들 중에서 커브에 해당하는 복수의 포인트들을 확인(또는, 추출)한다.In addition, the controller 120 may select a plurality of points corresponding to a curve among points converted into the world coordinates based on a curve equation stored in the storage 140 in advance for the points converted into the world coordinates. Check (or extract).

또한, 상기 제어부(120)는, 캘리브레이션 시간을 감소시키고 노이즈를 감소시키기 위해서, 상기 확인된 커브에 해당하는 복수의 포인트들을 근거로 트래킹(tracking)을 수행한다.In addition, the controller 120 performs tracking based on a plurality of points corresponding to the identified curve in order to reduce the calibration time and reduce the noise.

또한, 상기 제어부(120)는, 상기 확인된 커브에 해당하는 복수의 포인트들을 근거로 차선의 중앙점을 추종하는 커브 정보를 계산한다. 이때, 상기 계산되는 커브 정보는, 카메라의 캘리브레이션 상태의 영향을 최소화하여, 월드 좌표 상에서의 차선 유지 성능을 향상시키는데 이용할 수 있다. 즉, 상기 제어부(120)는, 상기 확인된 커브에 해당하는 복수의 포인트들에 대해서 최소 자승법(least square method), 랜삭(Random Sample Consensus : RANSAC), 일반 허프 변환법(general hough transform method), 스플라인(spline) 보간법 등 중 어느 하나의 방식을 적용하여 차선의 중앙점을 추종하는 커브 정보를 계산한다.In addition, the controller 120 calculates curve information following a center point of the lane based on a plurality of points corresponding to the identified curve. In this case, the calculated curve information may be used to improve the lane keeping performance in world coordinates by minimizing the influence of the calibration state of the camera. That is, the controller 120 may include a least square method, a random sample consensus (RANSAC), a general hough transform method, and a spline for a plurality of points corresponding to the identified curve. (spline) Calculates curve information following a center point of a lane by applying one of interpolation methods and the like.

또한, 상기 제어부(120)는, 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 확인된 커브 등의 정보를 상기 수신한 원본 영상에 오버랩(overlap)하여 상기 표시부(130)에 표시한다. 즉, 상기 제어부(120)는, 월드 좌표인 상기 계산된 차선의 중앙점을 추종하는 커브 정보, 상기 확인된 커브 등의 정보를 이미지 도메인 상에서의 좌표로 각각 변환(또는, 매핑(mapping))하고, 상기 변환된 각각의 좌표를 상기 수신한 원본 영상에 오버랩하여 상기 표시부(130)에 표시한다.In addition, the controller 120 overlaps the received original image with curve information following the calculated center point of the lane, the checked curve, and the like and displays the information on the display unit 130. That is, the controller 120 converts (or maps) curve information for tracking the center point of the calculated lane, which is the world coordinate, and information such as the identified curve into coordinates on the image domain, respectively. Each of the converted coordinates is overlapped with the received original image and displayed on the display unit 130.

또한, 상기 제어부(120)는, 임의의 GPS 모듈(미도시)을 통해 확인되는 상기 검출 장치(10)(또는, 상기 검출 장치(10)가 구비된 차량)의 위치 및 상기 확인된 커브(또는, 차선)를 근거로 차선 유지와 관련된 기능(경고 메시지 기능, 자동 차선 유지 기능 등 포함)을 수행한다.In addition, the control unit 120 may determine the position of the detection device 10 (or a vehicle provided with the detection device 10) and the checked curve (or any other GPS module (not shown)). Based on lanes, it performs functions related to lane keeping (including warning message function and auto lane keeping function).

본 명세서에 개시된 실시예들에 따르면, 상기 제어부(120)는 상기 임의의 오브젝트(예를 들어, 차선)의 검출에 있어서, 상기 오브젝트의 피치 모션에 대한 영향을 최소화하면서 상기 임의의 오브젝트를 검출할 수 있다. 예를 들어, 상기 임의의 오브젝트는 차선 또는 차량일 수 있다.According to embodiments disclosed herein, the control unit 120 may detect the arbitrary object while minimizing the influence on the pitch motion of the object in detecting the arbitrary object (eg, the lane). Can be. For example, the arbitrary object may be a lane or a vehicle.

이 경우, 상기 제어부(120)는 상기 임의의 오브젝트의 검출을 위해, 상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생한 경우, 상기 복수의 이미지 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 하여 상기 카메라의 피치 모션에 의한 오차를 최소화할 수 있다.In this case, the controller 120 detects a vanishing point detected in at least one of the plurality of images when pitch motion with respect to the camera occurs while acquiring the plurality of images to detect the arbitrary object. The error due to the pitch motion of the camera may be minimized based on at least one of the optical flows existing between the plurality of images.

또한, 상기 제어부(120)는, 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 카메라의 피치 모션에 대한 정보를 추출할 수 있다. 또한, 상기 제어부(120)는 상기 카메라의 피치 모션에 대한 정보를 기초로 하여 상기 오차를 최소화할 수 있다.In addition, the controller 120 may extract information on the pitch motion of the camera based on at least one of the vanishing point and the optical flow. In addition, the controller 120 may minimize the error based on the information on the pitch motion of the camera.

상기 카메라의 피치 모션에 대한 정보는, 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나일 수 있다.The information about the pitch motion of the camera may be at least one of a direction of the pitch motion and an angle of the pitch motion.

예를 들어, 상기 제어부(120)는 상기 소실점을 근거로 상기 오브젝트(예를 들어, 차선)의 피치 모션의 각도를 위의 방향으로(pitch-up의 경우) 18도로 검출할 수 있고, 상기 검출된 피치 모션의 각도인 18도의 보정을 통하여 상기 오브젝트를 검출할 수 있다.For example, the controller 120 may detect the angle of the pitch motion of the object (for example, the lane) based on the vanishing point in 18 degrees in the above direction (for pitch-up), and detect the The object can be detected through correction of 18 degrees, which is the angle of the pitch motion.

또한 예를 들어, 상기 제어부(120)는 상기 광류를 근거로 상기 오브젝트(예를 들어, 차선)의 피치 모션의 각도를 위의 방향으로(pitch-up의 경우) 20도로 검출할 수 있고, 상기 검출된 피치 모션의 각도인 20도의 보정을 통하여 상기 오브젝트를 검출할 수 있다.Also, for example, the controller 120 may detect the angle of the pitch motion of the object (for example, the lane) based on the optical flow in the above direction (in the case of pitch-up) by 20 degrees. The object may be detected through correction of 20 degrees, which is an angle of the detected pitch motion.

또는, 상기 제어부(120)는 상기 소실점 및 상기 광류를 근거로 하여 검출된 각각의 피치 모션의 각도를 선택 또는 조합하여 피치 모션의 보정에 사용할 수 있고, 이를 통해 상기 오브젝트를 검출할 수 있다. Alternatively, the controller 120 may select or combine the angles of the respective pitch motions detected based on the vanishing point and the optical flow, and may be used to correct the pitch motion, thereby detecting the object.

예를 들어, 상기 각각의 피치 모션의 각도 중 어느 하나의 선택은, 상기 검출 장치(10)의 상기 검출 장치(10)의 검출 상태에 의존하여 이루어질 수 있다. 예를 들어, 상기 검출 장치(10)의 검출 상태가 실외 환경인 경우, 다양한 조명조건과 인공구조물 등을 고려하여 광류를 기반으로 한 피치 모션 보정 방법이 선택될 수 있다. 또한, 예를 들어, 카메라로부터 선택된 복수의 이미지상에 존재하는 오브젝트의 종류, 색깔, 또는 배경 이미지의 색깔 등에 따라 상기 광류를 기반으로 한 피치 모션 보정 방법이 부적당한 경우(예를 들어, 오브젝트 및 배경 이미지의 색깔등이 유사하여 복수의 이미지간의 명암차이가 작은 경우), 소실점을 기반으로 한 피치 모션 보정 방법이 사용될 수 있다.For example, the selection of any one of the angles of the respective pitch motions may be made depending on the detection state of the detection device 10 of the detection device 10. For example, when the detection state of the detection apparatus 10 is an outdoor environment, a pitch motion correction method based on light flow may be selected in consideration of various lighting conditions and artificial structures. Further, for example, when the pitch motion correction method based on the light flow is inappropriate according to the kind, color, or background color of an object present on a plurality of images selected from a camera (for example, the object and If the contrast between the plurality of images is small due to similar colors of the background image), a pitch motion correction method based on the vanishing point may be used.

이 경우, 상기 제어부(120)는 상기 검출 상태를 확인하고, 기결정된 기준에 따라 상기 검출상태에 적합한 피치 모션 보정 방법을 선택할 수 있다.In this case, the controller 120 may check the detection state and select a pitch motion correction method suitable for the detection state according to a predetermined criterion.

상기 표시부(130)는, 상기 제어부(120)의 제어에 의해 상기 저장부(140)에 포함된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시한다. 여기서, 상기 표시부(130)에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다.The display unit 130 displays various contents such as various menu screens using a user interface and / or a graphic user interface included in the storage unit 140 under the control of the controller 120. Here, the content displayed on the display unit 130 includes a menu screen including various text or image data (including various information data) and data such as an icon, a list menu, a combo box, and the like.

또한, 상기 표시부(130)는, 3차원 디스플레이(3D Display) 또는 2차원 디스플레이(2D Display)를 포함한다. 또한, 상기 표시부(130)는, 액정 디스플레이(Liquid Crystal Display : LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display : TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode : OLED), 플렉시블 디스플레이(Flexible Display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수도 있다.In addition, the display unit 130 includes a 3D display or a 2D display. In addition, the display unit 130 may include a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. The display device may include at least one of a flexible display and a light emitting diode (LED).

또한, 상기 표시부(130)는, 상기 제어부(120)의 제어에 의해 상기 3차원 영상(또는, 2차원 영상)을 표시한다.In addition, the display unit 130 displays the 3D image (or 2D image) under the control of the controller 120.

또한, 상기 검출 장치(10)의 구현 형태에 따라 상기 표시부(130)가 2개 이상 존재할 수 있다. 예를 들면, 상기 검출 장치(10)에 복수의 표시부들이 하나의 면(동일면)에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, two or more display units 130 may exist according to an embodiment of the detection device 10. For example, a plurality of display units may be spaced apart or integrally disposed on one surface (same surface) of the detection device 10, or may be disposed on different surfaces, respectively.

한편, 상기 표시부(130)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 상기 표시부(130)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 상기 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드, 터치 패널 등의 형태를 가질 수 있다.On the other hand, when the display unit 130 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 130 outputs the touch panel. In addition to the device can also be used as an input device. The touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or a touch panel.

또한, 상기 터치 센서는, 상기 표시부(130)의 특정 부위에 가해진 압력 또는 상기 표시부(130)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성될 수 있다. 또한, 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 상기 제어부(120)로 전송한다. 이로써, 상기 제어부(120)는, 상기 표시부(130)의 어느 영역이 터치되었는지 여부 등을 알 수 있게 된다.In addition, the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 130 or capacitance generated at a specific portion of the display unit 130 into an electrical input signal. In addition, the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the time of touch. If there is a touch input to the touch sensor, the corresponding signal (s) is sent to a touch controller (not shown). The touch controller processes the signal (s) and then transmits the corresponding data to the controller 120. As a result, the controller 120 may determine which area of the display unit 130 is touched.

또한, 상기 표시부(130)는, 근접 센서를 포함할 수 있다. 또한, 상기 근접 센서는, 터치 스크린에 의해 감싸지는 검출 장치(10)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다.In addition, the display unit 130 may include a proximity sensor. In addition, the proximity sensor may be disposed in the inner region of the detection device 10 surrounded by the touch screen or near the touch screen.

또한, 상기 근접 센서는, 소정의 검출 면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 상기 근접 센서는, 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.In addition, the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. The proximity sensor has a longer life and higher utilization than a contact sensor.

상기 근접 센서의 예로는, 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic.

이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다. 이하에서는 설명의 편의를 위해, 상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(Proximity Touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(Contact Touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치는, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.In this case, the touch screen (touch sensor) may be classified as a proximity sensor. Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch" The act of actually touching the pointer on the screen is called "Contact Touch ". A position where the pointer is proximally touched on the touch screen means a position where the pointer corresponds to the touch screen vertically when the pointer is touched.

또한, 상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린상에 출력될 수 있다.In addition, the proximity sensor detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

이와 같이, 상기 표시부(130)가 입력 장치로 사용되는 경우, 사용자에 의한 버튼 조작을 입력받거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 명령 또는 제어 신호를 입력받을 수 있다.As such, when the display unit 130 is used as an input device, a command or control signal may be received by an operation such as receiving a button operation by a user or touching / scrolling the displayed screen.

상기 저장부(140)는, 각종 메뉴 화면, 다양한 사용자 인터페이스(User Interface : UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface : GUI)를 저장한다.The storage unit 140 stores various menu screens, various user interfaces (UIs), and / or graphical user interfaces (GUIs).

본 명세서에 개시된 실시예들에 따르면, 상기 저장부(140)는 상기 피치 모션에 대한 영향의 최소화를 통하여 상기 오브젝트(예를 들어, 차선)를 검출함에 있어서, 상기 복수의 이미지 중 적어도 하나로부터 파악되는 소실점 및 상기 복수의 이미지들 간의 차이를 나타내는 광류 중 적어도 하나가 상기 제어부(120)에 의해 추출된 경우, 상기 추출된 소실점 위치(또는 이미지 상의 좌표) 또는 광류값(또는 움직임 벡터)을 저장할 수 있다. According to the exemplary embodiments disclosed herein, the storage unit 140 may detect from at least one of the plurality of images in detecting the object (eg, the lane) through minimizing the influence on the pitch motion. When at least one of the vanishing point and the optical flow representing the difference between the plurality of images is extracted by the controller 120, the extracted vanishing point position (or coordinates on the image) or the optical flow value (or motion vector) may be stored. have.

또한, 상기 저장부(140)는, 변환 행렬(예를 들어, 호모그래픽 행렬 등), 커브 방정식, 최소 자승법 등의 수학식을 저장한다.In addition, the storage unit 140 stores equations such as transformation matrices (eg, homographic matrices), curve equations, least squares methods, and the like.

또한, 상기 저장부(140)는, 상기 검출 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 140 stores data, a program, and the like necessary for the detection apparatus 10 to operate.

또한, 상기 저장부(140)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 롬(Read-Only Memory : ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 램(Random Access Memory : RAM), SRAM(Static Random Access Memory), 자기 메모리, 자기 디스크, 광 디스크 중 적어도 하나의 저장 매체를 포함할 수 있다.In addition, the storage unit 140 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), RAM (Random Access Memory: RAM), SRAM (Static Random Access Memory) ), A magnetic memory, a magnetic disk, and an optical disk.

또한, 상기 검출 장치(10)는, 상기 제어부(120)의 제어에 의해 임의의 단말기 또는 서버와의 통신 기능을 수행하는 통신부(미도시)를 더 포함할 수 있다. In addition, the detection apparatus 10 may further include a communication unit (not shown) that performs a communication function with any terminal or server under the control of the controller 120.

이때, 상기 통신부는, 유/무선 통신 모듈을 포함할 수 있다. 여기서, 상기 무선 인터넷 기술은, 무선랜(Wireless LAN : WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), 고속 하향 패킷 접속(High Speed Downlink Packet Access : HSDPA), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution : LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service : WMBS) 등을 포함할 수 있고, 상기 근거리 통신(Short Range Communication) 기술은, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA), 초광대역 무선(Ultra Wideband : UWB), 지그비(ZigBee) 등을 포함할 수 있다. 또한, 상기 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다.In this case, the communication unit may include a wired / wireless communication module. Here, the wireless Internet technology, Wireless LAN (WLAN), Wi-Fi (Wi-Fi), Wireless Broadband (Wibro), WiMAX (World Interoperability for Microwave Access (Wimax), High-speed downlink packet access (High) Speed Downlink Packet Access (HSDPA), IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS), and the like, and may include the short range communication. The technology may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like. The wired communication technology may include universal serial bus (USB) communication.

또한, 상기 통신부는, 상기 검출 장치(10)가 구비되는 임의의 차량과의 통신을 위한, CAN 통신, 차량용 이더넷, 플렉스레이(flexray), LIN(Local Interconnect Network) 등을 포함할 수 있다.The communication unit may include CAN communication, vehicle Ethernet, flexray, LIN (Local Interconnect Network), and the like, for communication with any vehicle provided with the detection device 10.

또한, 상기 통신부는, 상기 제어부(120)의 제어에 의해 임의의 영상에 대해 추출된 복수의 지지점, 상기 복수의 지지점을 월드 좌표로 각각 변환한 포인트들, 상기 월드 좌표로 변환한 포인트들 중에서 커브에 해당하는 복수의 포인트들, 상기 커브에 해당하는 복수의 포인트들을 근거로 계산되는 차선의 중앙점을 추종하는 커브 정보 등을 상기 임의의 단말기 또는 서버에 전송한다.In addition, the communication unit may be a curve among a plurality of support points extracted for an image under the control of the controller 120, points converted from the plurality of support points into world coordinates, and points converted into the world coordinates. And a plurality of points corresponding to the curve information, curve information following the center point of the lane calculated based on the plurality of points corresponding to the curve, and the like, to the arbitrary terminal or server.

또한, 상기 통신부는, 상기 임의의 단말기 또는 서버로부터 전송되는 임의의 한 쌍의 스테레오 카메라를 통해 동시에 촬영된 제1 영상 및 제2 영상을 수신한다.In addition, the communication unit receives the first image and the second image photographed simultaneously through any pair of stereo cameras transmitted from the arbitrary terminal or server.

또한, 상기 검출 장치(10)는, 오디오 신호를 수신하기 위한 적어도 하나 이상의 마이크(미도시)를 포함하는 입력부(미도시)를 더 포함할 수 있다. 상기 마이크는, 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 상기 처리된 음성 데이터는 음성 출력부(미도시)를 통해 출력하거나 또는, 상기 통신부를 통하여 외부 단말기로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 상기 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수도 있다.In addition, the detection apparatus 10 may further include an input unit (not shown) including at least one microphone (not shown) for receiving an audio signal. The microphone is configured to receive an external sound signal (including a user's voice (voice signal or voice information)) by a microphone in a call mode, a recording mode, a voice recognition mode, a video conference mode, a video call mode, and the like. Process with voice data. In addition, the processed voice data may be output through a voice output unit (not shown) or may be converted into a form transmittable to an external terminal through the communication unit and output. In addition, the microphone may be implemented with various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

또한, 상기 입력부는, 사용자에 의한 버튼 조작에 따른 신호를 수신하거나, 디스플레이되는 화면을 터치/스크롤하는 등의 조작에 의해 생성된 명령 또는 제어 신호를 수신한다.In addition, the input unit receives a command or control signal generated by an operation such as receiving a signal according to a button operation by a user or touching / scrolling a displayed screen.

또한, 상기 입력부는, 사용자에 의해 입력된 정보에 대응하는 신호를 수신하며, 키보드(keyboard), 키 패드(Key Pad), 돔 스위치(Dome Switch), 터치 패드(정압/정전), 터치 스크린(touch screen), 조그 셔틀(Jog Shuttle), 조그 휠, 조그 스위치, 마우스(mouse), 스타일러스 펜(Stylus Pen), 터치 펜(Touch Pen), 레이저 포인터 등의 다양한 장치가 사용될 수 있다. 이때, 상기 입력부는, 상기 다양한 장치에 의한 입력에 대응하는 신호를 수신한다.In addition, the input unit receives a signal corresponding to information input by a user, and includes a keyboard, a key pad, a dome switch, a touch pad (static / electrostatic), and a touch screen ( Various devices such as a touch screen, a jog shuttle, a jog wheel, a jog switch, a mouse, a stylus pen, a touch pen, and a laser pointer may be used. In this case, the input unit receives a signal corresponding to input by the various devices.

또한, 상기 검출 장치(10)는, 상기 제어부(120)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(미도시)를 더 포함할 수 있다. 여기서, 상기 음성 출력부는, 스피커가 될 수도 있다.In addition, the detection apparatus 10 may further include a voice output unit (not shown) for outputting voice information included in a signal processed by the controller 120 by a predetermined signal. The voice output unit may be a speaker.

이와 같이, 영상 내에서 차선의 후보군이 되는 지지점을 추출하여 월드 좌표로 변환하고, 상기 변환된 월드 좌표 상에서 차선을 인식하여, 카메라 정보와 월드 좌표 간의 캘리브레이션의 오차 전이에 있어서, 영상에서 직접 차선을 인식하는 방법에 비하여 누적 에러의 가능성을 줄일 수 있다.In this way, a support point which is a candidate group of lanes in the image is extracted and converted into world coordinates, the lane is recognized on the converted world coordinates, and the lane is directly transferred in the image in the error transition of calibration between the camera information and the world coordinates. Compared to the recognition method, the possibility of cumulative error can be reduced.

또한, 이와 같이, 월드 좌표 상에서 인식된 차선에 대한 정보를 표시하고 이를 근거로 경고 메시지를 생성 및 출력하여, 정확성/민감성을 향상시키고 사용자의 편의를 향상시킬 수 있다.In addition, as described above, information on the lanes recognized on the world coordinates may be displayed and a warning message may be generated and output based on the information, thereby improving accuracy / sensitivity and improving user convenience.

이하에서는 도 2를 참조하여 본 명세서에 개시된 실시예들에 따른 검출 방법에 대해 설명한다.Hereinafter, a detection method according to embodiments disclosed herein will be described with reference to FIG. 2.

본 명세서에 개시된 The 실시예들에In embodiments 따른 검출 방법에 대한 설명 Of detection methods according to

도 2는 본 명세서에 개시된 실시예들에 따른 검출 방법을 나타내는 순서도이다.2 is a flow chart illustrating a detection method according to embodiments disclosed herein.

도 2를 참조하면, 본 명세서에 개시된 실시예들에 따른 검출 방법은 다음과 같은 단계로 이루어질 수 있다.Referring to FIG. 2, the detection method according to the embodiments disclosed in the present specification may include the following steps.

먼저, 상기 검출 장치(10)는 카메라를 통해 시차를 두고 복수의 이미지를 획득할 수 있다(S110).First, the detection apparatus 10 may acquire a plurality of images with a parallax through the camera (S110).

다음으로, 상기 검출 장치(10)는 상기 복수의 이미지를 획득하는 도중 카메라에 대한 피치 모션이 발생하였는지 여부를 판단할 수 있다(S120).Next, the detection apparatus 10 may determine whether pitch motion with respect to the camera has occurred while acquiring the plurality of images (S120).

상기 판단결과, 상기 카메라에 대한 피치 모션이 발생한 경우, 상기 검출 장치(10)는 상기 복수의 이미지들 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 하여 카메라의 피치 모션에 의한 오차를 최소화할 수 있다(S130).As a result of the determination, when the pitch motion with respect to the camera occurs, the detection device 10 detects at least one of a vanishing point detected in at least one of the plurality of images and an optical flow existing between the plurality of images. Based on the error due to the pitch motion of the camera can be minimized (S130).

다음으로, 상기 검출 장치(10)는 상기 오차의 최소화를 통하여 상기 복수의 이미지 중 적어도 하나의 이미지를 통해 상기 임의의 오브젝트를 검출할 수 있다(S140).Next, the detection device 10 may detect the arbitrary object through at least one image of the plurality of images by minimizing the error (S140).

전술한 바와 같이, 상기 카메라의 피치 모션에 대한 정보는, 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나일 수 있다.As described above, the information on the pitch motion of the camera may be at least one of the direction of the pitch motion and the angle of the pitch motion.

또한, 상기 검출 장치(10)는 차량에 장착되어 상기 임의의 오브젝트를 검출하는 역할을 할 수 있다.In addition, the detection apparatus 10 may be mounted on a vehicle and serve to detect the arbitrary object.

이 경우, 상기 카메라는 차량에 장착되고, 상기 임의의 오브젝트는 상기 차량의 이동 속도에 비하여, 상대 속도를 갖는 것일 수 있다. 상기 검출 장치(10)는 상기 상대 속도를 검출하여, 상기 상대 속도를 상기 임의의 오브젝트의 검출에 사용할 수 이TEk.In this case, the camera may be mounted on a vehicle, and the arbitrary object may have a relative speed compared to the moving speed of the vehicle. The detection device 10 can detect the relative speed and use the relative speed to detect the arbitrary object.

또한, 상기 복수의 이미지를 획득하기 위한 시차는, 상기 차량의 속도에 따라 가변 되는 것일 수 있다. 예를 들어, 상기 검출 장치(10)는 상기 차량의 속도가 80km/h인 경우보다, 100km/h인 경우 상기 시차를 더 작게 가져갈 수 있다.In addition, the parallax for acquiring the plurality of images may be variable according to the speed of the vehicle. For example, the detection apparatus 10 may bring the parallax smaller when the vehicle speed is 100 km / h than when the vehicle speed is 80 km / h.

상기 카메라의 피치 모션은 상기 차량의 가감속 또는 상기 차량이 주행하는 노면의 상태에 의하여 발생하는 것일 수 있다. The pitch motion of the camera may be caused by acceleration or deceleration of the vehicle or a state of a road surface on which the vehicle travels.

또한, 상기 오차의 최소화는, 상기 차량의 쇼크업쇼버의 탄성 계수 및 감쇠 계수에 의한 상기 카메라의 피치 모션이 최소화되기 전까지 지속될 수 있다. 이렇게 함으로써, 상기 검출 장치(10)는 상기 카메라의 피치 모션의 영향을 받지 않고 상기 임의의 오브젝트를 검출할 수 있다.In addition, the minimization of the error may be continued until the pitch motion of the camera due to the elastic coefficient and the damping coefficient of the shock absorber of the vehicle is minimized. By doing so, the detection device 10 can detect the arbitrary object without being affected by the pitch motion of the camera.

쇼크업쇼버(shock absorber)는 차량의 주행 중에 노면에서 받는 충격을 완화하는 스프링의 자유 진동을 흡수하는 역할을 할 수 있다.The shock absorber may serve to absorb the free vibration of the spring to alleviate the shock received from the road surface while the vehicle is driving.

제 1 1st 실시예Example

이하에서는 도 3 내지 도 7을 참조하여, 본 명세서에 개시된 제 1 실시예에 따른 검출 방법이 설명된다.Hereinafter, a detection method according to the first embodiment disclosed herein will be described with reference to FIGS. 3 to 7.

도 3은 차량에 장착된 카메라의 피치 모션(Pitch motion)에 따른 가시영역의 변화를 도시한 것이다.FIG. 3 illustrates a change in the visible area according to the pitch motion of a camera mounted on a vehicle.

도 3을 참조하면, 상기 임의의 오브젝트(예를 들어, 차선 또는 다른 차량)를 검출하기 위하여, 상기 검출 장치(10)는 상기 차량에 장착된 카메라를 통해 상기 차량의 전면을 촬영할 수 있다.Referring to FIG. 3, in order to detect the arbitrary object (eg, a lane or another vehicle), the detection device 10 may photograph the front surface of the vehicle through a camera mounted on the vehicle.

도 3(a)은 상기 차량이 정상적인 노면상태를 가지는 도로를 주행하고 있을 때의 상기 카메라의 가시영역을 보여준다. 이 경우를 정상(normal) 상태라고 할 수 있다.3 (a) shows a visible area of the camera when the vehicle is driving on a road having a normal road surface state. This case may be referred to as a normal state.

그러나, 도 3(b)의 경우, 상기 차량의 후방 바퀴가 도로상에 존재하는 돌출된 장애물을 지나면서 상기 카메라의 피치 모션이 일어날 수 있다. 이 경우를 피치-다운(pitch-down) 상태라고 할 수 있다. 상기 피치-다운 상태의 경우, 상기 카메라는 상기 정상 상태보다 도로를 아래를 향하여 촬영하기 때문에, 상기 카메라로부터 촬영된 영상은 상기 정상 상태의 경우보다 위로 올라간 영상일 수 있다.However, in the case of FIG. 3B, the pitch motion of the camera may occur while the rear wheels of the vehicle pass over the protruding obstacle existing on the road. This case may be referred to as a pitch-down state. In the case of the pitch-down state, since the camera photographs the road downward from the normal state, the image photographed from the camera may be an image that is raised upward than the case of the normal state.

또한, 도 3(c)의 경우, 상기 차량의 전방 바퀴가 도로상에 존재하는 돌출된 장애물을 지나면서 상기 카메라의 피치 모션이 일어날 수 있다. 이 경우를 피치-업(pitch-up) 상태라고 할 수 있다. 상기 피치-업 상태의 경우, 상기 카메라는 상기 정상 상태보다 도로를 위를 향하여 촬영하기 때문에, 상기 카메라로부터 촬영된 영상은 상기 정상 상태의 경우보다 아래로 내려간 영상일 수 있다.In addition, in the case of FIG. 3 (c), the pitch motion of the camera may occur while the front wheel of the vehicle passes through the protruding obstacle existing on the road. This case may be referred to as a pitch-up state. In the case of the pitch-up state, since the camera photographs a road upward from the normal state, the image photographed from the camera may be an image that is lowered than the case of the normal state.

따라서, 상기 검출 장치(10)는 상기 피치-다운 내지 상기 피치-업 상태가 발생하는 경우, 상기 피치 모션에 대한 영향을 최소화하여야 상기 임의의 오브젝트에 대한 검출을 올바르게 할 수 있다.Therefore, when the pitch-down or the pitch-up state occurs, the detection apparatus 10 may minimize the influence on the pitch motion to correctly detect the arbitrary object.

도 4는 카메라의 피치 모션에 따른 영상의 변화를 보여주는 예시도이다.4 is an exemplary view illustrating a change of an image according to a pitch motion of a camera.

도 4를 참조하면, 상기 검출 장치(10)는 촬영된 영상에 존재하는 다양한 오브젝트를 검출할 수 있다. 예를 들어, 상기 오브젝크는 차선 또는 차량일 수 있다. 그러나, 전술한 바와 같이 카메라의 피치 모션이 발생한 경우, 상기 피치 모션에 의해 상기 검출 장치(10)는 올바르게 상기 오브젝트를 검출하지 못할 수 있다.Referring to FIG. 4, the detection apparatus 10 may detect various objects existing in the captured image. For example, the object may be a lane or a vehicle. However, when the pitch motion of the camera occurs as described above, the detection device 10 may not correctly detect the object by the pitch motion.

도 4(a)는 정상 상태에서 상기 카메라 모듈(110)에 의해 획득된 영상을 나타낸다. 상기 정상 상태에서의 영상을 이용하여 상기 검출 장치(10)는 차선을 올바르게 검출할 수 있다.4A shows an image acquired by the camera module 110 in a normal state. The detection apparatus 10 may correctly detect a lane using the image in the steady state.

예를 들어, 검출 대상이 차선인 경우, 전술한 바와 같이 상기 제어부(120)는 상기 획득된 영상을 통해 차선에 해당하는 복수의 지지점들을 추출하고, 상기 추출된 복수의 지지점을 월드 좌표로 변환한다. 이 경우, 상기 제어부(120)는, 상기 저장부(140)에 미리 저장된 변환 행렬(예를 들어, 호모그래픽 행렬(homographic matrix) 등 포함)을 이용할 수 있다. 또한, 상기 제어부(120)는, 상기 월드 좌표로 변환된 포인트들을 통하여 차선에 상응하는 커브 방정식을 결정하고, 상기 커브 방정식을 근거로 상기 차선을 검출할 수 있다.For example, when the detection target is a lane, the controller 120 extracts a plurality of support points corresponding to the lane through the obtained image and converts the extracted plurality of support points into world coordinates. . In this case, the controller 120 may use a transformation matrix (eg, including a homographic matrix) stored in the storage 140 in advance. In addition, the controller 120 may determine a curve equation corresponding to the lane through the points converted into the world coordinates, and detect the lane based on the curve equation.

도 4(b)는 상기 피치 모션이 피치-업인 경우에 있어서 획득된 영상을 나타낸다. 도 4(b)의 경우, 상기 획득된 영상이 도 4(a)의 경우보다 아래로 내려간 영상임을 알 수 있다. 4 (b) shows an image obtained when the pitch motion is pitch-up. In the case of Figure 4 (b), it can be seen that the obtained image is a lower image than the case of Figure 4 (a).

이 경우, 상기 피치-업에 의해 발생된 영상 노이즈에 의해 차선 검출에 있어서 오류가 발생할 수 있다. 따라서, 상기 검출 장치(10)는 상기 피치-업에 의한 영상 노이즈를 제거한 후, 상기 차선을 검출해야 할 수 있다.In this case, an error may occur in lane detection by the image noise generated by the pitch-up. Therefore, the detection apparatus 10 may need to detect the lane after removing the image noise due to the pitch-up.

본 명세서에 개시된 제 1 실시예에 따르면, 상기 피치-업에 의한 영향을 줄이기 위하여, 상기 제어부(120)는 상기 복수의 이미지 중 적어도 하나로부터 파악되는 소실점 및 상기 복수의 이미지 사이에 존재하는 광류 중 적어도 하나를 기반으로 하여 상기 피치 모션에 대한 정보를 추출할 수 있다.According to the first embodiment disclosed herein, in order to reduce the effect of the pitch-up, the control unit 120 is a light loss existing between the vanishing point and the plurality of images identified from at least one of the plurality of images. Information on the pitch motion may be extracted based on at least one.

도 5는 카메라로부터 획득된 이미지로부터 파악되는 소실점을 보여주는 예시도이다.5 is an exemplary view showing a vanishing point grasped from an image acquired from a camera.

도 5를 참조하면, 소실점(vanishing point)은 물체에 연장선을 그었을 때 연장선들이 원근 효과에 의해 만나는 점이기 때문에, 도 5의 경우, 소실점(200)이 상기 획득된 이미지에 존재하는 차선에 대해 연장선을 그었을 때 만나는 점으로 파악되었다. Referring to FIG. 5, since vanishing point is a point where extension lines meet by a perspective effect when an extension line is drawn to an object, in FIG. 5, the vanishing point 200 is extended to a lane existing in the acquired image. It was found to meet when drawing.

도 5에서는 상기 차선에 대한 연장선을 이용하여 상기 소실점(200)을 추출하였으나, 소실점을 추출하는 방법은 다양하게 존재할 수 있다. 예를 들어, 카메라로부터 획득된 이미지에 존재하는 다양한 객체(예를 들어, 주차선 또는 건물의 외곽선등)의 연장선을 이용하여 복수의 소실점 후보들을 선정하고, 가장 많은 소실점 후보들이 있는 위치(또는 이미지상의 좌표)를 소실점으로 결정할 수 있다. 이를 보팅 방법(voting scheme)이라고 한다. 이외에도 소실점을 결정하는 다양한 방법이 본 피치 모션 보정방법에 적용될 수 있음이 본 기술분야의 당업자에게 자명하다.In FIG. 5, the vanishing point 200 is extracted using the extension line for the lane, but there may be various methods of extracting the vanishing point. For example, a plurality of vanishing point candidates are selected using extension lines of various objects (for example, a parking line or an outline of a building, etc.) existing in an image obtained from a camera, and a position (or an image having the most vanishing point candidates). Coordinates of the image) may be determined as the vanishing point. This is called a voting scheme. In addition, it will be apparent to those skilled in the art that various methods for determining the vanishing point may be applied to the present pitch motion correction method.

도 6은 시차를 두고 획득한 복수의 이미지들 간에 존재하는 광류를 나타내는 예시도이다.6 is an exemplary diagram illustrating an optical flow existing between a plurality of images acquired with parallax.

도 6를 참조하면, 위의 도 4(a) 및 도 4(b)에 나타난 이미지 간의 명암 차이를 나타내는 광류(300)가 도시되었다. 상기 광류는(300) 상기 복수의 이미지들 간의 화소 차이를 벡터형태로 표현한 것으로 움직임 벡터의 일종일 수 있다.Referring to FIG. 6, there is shown a light flow 300 representing the difference in contrast between the images shown in FIGS. 4 (a) and 4 (b) above. The optical flow 300 represents a pixel difference between the plurality of images in a vector form and may be a kind of motion vector.

도 4의 경우처럼, 피치-업이 된 경우, 도 4(a) 및 도 4(b)에 나타난 이미지 간의 명암 차이인 광류(300)는 도 6처럼 도시될 수 있다.As in the case of FIG. 4, when pitch-up is performed, the light flow 300, which is a difference in contrast between the images shown in FIGS. 4A and 4B, may be illustrated as in FIG. 6.

상기 광류(300)는 도 6에서처럼, 상기 화소의 변화방향에 따라 수직방향의 성분만을 가지는 제 1 광류(300a) 또는 수식 및 수평 방향의 성분을 모두 가지는 제 2 광류(300b)등 다양한 방향을 가지는 벡터로 표현될 수 있다.As shown in FIG. 6, the optical flow 300 has various directions, such as a first optical flow 300a having only a component in a vertical direction or a second optical flow 300b having both a mathematical and a horizontal component according to a change direction of the pixel. It can be represented as a vector.

이하에서는 도 7을 참조하여, 상기 소실점 및 광류 중 적어도 하나를 기반으로 한 검출 방법이 설명된다.Hereinafter, a detection method based on at least one of the vanishing point and the light flow will be described with reference to FIG. 7.

도 7은 본 명세서에 개시된 제 1 실시예에 따른 검출방법을 나타내는 순서도이다.7 is a flowchart showing a detection method according to the first embodiment disclosed in the present specification.

도 7을 참조하면, 본 명세서에 개시된 제 1 실시예에 따른 검출방법은 다음과 같은 단계로 이루어질 수 있다.Referring to FIG. 7, the detection method according to the first embodiment disclosed in the present specification may include the following steps.

먼저, 상기 검출 장치(10)는 카메라를 통해 시차를 두고 복수의 이미지를 획득할 수 있다(S210).First, the detection apparatus 10 may acquire a plurality of images with a parallax through the camera (S210).

다음으로, 상기 검출 장치(10)는 상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생하였는지 여부를 판단할 수 있다(S220).Next, the detection apparatus 10 may determine whether pitch motion with respect to the camera has occurred while acquiring the plurality of images (S220).

다음으로, 상기 검출 장치(10)는 상기 복수의 이미지들 중 적어도 하나의 이미지에서 소실점 추출할 수 있다(S230).Next, the detection apparatus 10 may extract a vanishing point from at least one of the plurality of images (S230).

다음으로, 상기 검출 장치(10)는 상기 복수의 이미지들 사이에 존재하는 광류를 추출할 수 있다(S240).Next, the detection apparatus 10 may extract the light flow existing between the plurality of images (S240).

다음으로, 상기 검출 장치(10)는 상기 소실점 및 상기 광류 중 적어도 하나를 근거로 카메라의 피치 모션에 대한 정보를 추출할 수 있다.(S250).Next, the detection apparatus 10 may extract information about the pitch motion of the camera based on at least one of the vanishing point and the optical flow (S250).

다음으로, 상기 검출 장치(10)는 상기 피치 모션에 대한 정보를 근거로 상기 피치 모션에 의한 오차를 최소화할 수 있다(S260).Next, the detection device 10 may minimize the error due to the pitch motion based on the information on the pitch motion (S260).

다음으로, 상기 검출 장치(10)는 상기 오차를 최소한 후, 복수의 이미지 중 적어도 하나의 이미지를 통해 임의의 오브젝트를 검출할 수 있다(S270).Next, the detection apparatus 10 may detect an arbitrary object through at least one image of the plurality of images after the error is minimized (S270).

제 2 Second 실시예Example

본 명세서에 개시된 제 2 실시예에 따르면, 상기 검출 장치(10)는 복수의 이미지로부터 추출된 소실점 및 광류 중 적어도 하나를 근거로 상기 카메라의 피치 모션에 대한 정보를 추출하고, 상기 카메라의 피치 모션에 대한 정보를 기초로 하여 오차를 최소화할 수 있다.According to the second embodiment disclosed herein, the detection apparatus 10 extracts information on the pitch motion of the camera based on at least one of the vanishing point and the light flow extracted from the plurality of images, and the pitch motion of the camera. The error can be minimized based on the information on.

본 명세서에 개시된 제 2 실시예는 상술된 실시예들이 포함하고 있는 구성 또는 단계의 일부 또는 조합으로 구현되거나 실시예들의 조합으로 구현될 수 있으며, 이하에서는 본 명세서에 개시된 제 2 실시예의 명확한 표현을 위해 중복되는 부분을 생략하기로 한다.The second embodiment disclosed herein may be implemented as a part or a combination of the configurations or steps included in the above-described embodiments, or may be implemented as a combination of the embodiments. Hereinafter, a clear description of the second embodiment disclosed in this specification And duplicate parts are omitted.

상기 카메라의 피치 모션에 대한 정보는, 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나일 수 있다.The information about the pitch motion of the camera may be at least one of a direction of the pitch motion and an angle of the pitch motion.

또한, 상기 카메라의 피치 모션에 대한 정보는, 상기 소실점을 근거로 추출된 제 1 정보 및 상기 광류를 근거로 추출된 제 2 정보 중 적어도 하나를 포함하고, 상기 오차의 최소화는, 상기 제 1 정보 및 상기 제 2 정보 중 적어도 하나를 기초로 하여 이루어지는 것일 수 있다.The information on the pitch motion of the camera may include at least one of first information extracted based on the vanishing point and second information extracted based on the optical flow, and the minimization of the error may include the first information. And at least one of the second information.

도 8은 본 명세서에 개시된 제 2 실시예에 따른 검출 방법을 나타내는 예시도이다.8 is an exemplary view showing a detection method according to a second embodiment disclosed herein.

제 2 실시예에 따르면, 상기 제어부(120)는 상기 소실점 및 상기 광류를 근거로 하여 추출된 상기 제 1 정보 및 상기 제 2 정보를 선택 또는 조합하여 피치 모션의 보정을 통해 상기 오차를 최소화할 수 있다.According to the second embodiment, the controller 120 may minimize or correct the pitch motion by selecting or combining the first information and the second information extracted based on the vanishing point and the optical flow. have.

이를 위해, 상기 제어부(120)는 상기 카메라의 피치 모션에 대한 정보를 상기 제 1 정보 및 상기 제 2 정보에 각각에 대응되는 가중치를 곱한 값을 근거로 추출할 수 있다. 예를 들어, 상기 제어부(120)가 상기 제 1 정보 및 상기 제 2 정보 중 어느 하나를 선택하는 경우, 상기 각각에 대응되는 가중치 중 어느 하나를 '0'으로 설정할 수 있다. To this end, the controller 120 may extract the information about the pitch motion of the camera based on a value obtained by multiplying the first information and the second information by weights corresponding to the first information and the second information. For example, when the controller 120 selects one of the first information and the second information, one of the weights corresponding to each of the controller 120 may be set to '0'.

또한 예를 들어, 상기 제 2 정보에 해당하는 가중치는 상기 제 1 정보에 해당하는 가중치보다 더 큰 것일 수 있다. 예를 들어, 상기 제 2 정보의 가중치는 0.8이고, 상기 제 1 성분의 가중치는 0.2일 수 있다. Also, for example, the weight corresponding to the second information may be greater than the weight corresponding to the first information. For example, the weight of the second information may be 0.8, and the weight of the first component may be 0.2.

도 8을 참조하면, 소실점 추적을 이용한 상기 피치 모션의 각도가 pitch up방향으로 20도이고, 광류 추출을 이용한 상기 피치 모션의 각도가 pitch up 방향으로 10도인 경우, 상기 제어부(120)는 상기 소실점 추적에 대응되는 가중치를 p로 설정하고, 상기 추출된 광류에 대응되는 가중치를 q로 설정할 수 있다. 또한, 상기 제어부(120)는 상기 소실점 추적 및 상기 광류를 근거로 한 상기 피치 모션의 각도에 상기 p 및 q를 곱하여 합한 값을 최종 피치 모션의 각도로 결정할 수 있다. 상기 p 및 q값이 0.5인 경우, 상기 제어부(120)는 도 8에서처럼 상기 최종 피치 모션의 각도를 pitch up방향으로 15도로 결정할 수 있다.Referring to FIG. 8, when the angle of the pitch motion using the vanishing point tracking is 20 degrees in the pitch up direction and the angle of the pitch motion using the optical flow extraction is 10 degrees in the pitch up direction, the control unit 120 determines the vanishing point. The weight corresponding to the tracking may be set to p, and the weight corresponding to the extracted optical flow may be set to q. In addition, the control unit 120 may determine the angle of the pitch motion based on the vanishing point tracking and the optical flow and multiply the sum of p and q as an angle of the final pitch motion. When the p and q values are 0.5, the controller 120 may determine the angle of the final pitch motion as 15 degrees in the pitch up direction as shown in FIG. 8.

제 3 Third 실시예Example

본 명세서에 개시된 제 3 실시예에 따르면, 상기 제어부(120)는 상기 임의의 오브젝트를 검출함에 있어서, 상기 촬영된 영상 내에서 상기 임의의 오브젝트의 후보군이 되는 지지점(support point)을 추출할 수 있다.According to the third embodiment of the present disclosure, in detecting the arbitrary object, the controller 120 may extract a support point that is a candidate group of the arbitrary object in the captured image. .

또한, 상기 제어부(120)는 상기 지지점을 월드 좌표(world coordinate)로 변환하고, 상기 변환된 월드 좌표 상에서 상기 임의의 오브젝트를 검출할 수 있다.In addition, the controller 120 may convert the support point into world coordinates and detect the arbitrary object on the converted world coordinates.

또한, 상기 제어부(120)는 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 지지점을 월드 좌표로 변환함으로써 피치 모션에 의한 오차를 최소화할 수 있다.In addition, the controller 120 may minimize the error due to the pitch motion by converting the support point into world coordinates based on at least one of the vanishing point and the optical flow.

본 명세서에 개시된 제 3 실시예는 상술된 실시예들이 포함하고 있는 구성 또는 단계의 일부 또는 조합으로 구현되거나 실시예들의 조합으로 구현될 수 있으며, 이하에서는 본 명세서에 개시된 제 3 실시예의 명확한 표현을 위해 중복되는 부분을 생략하기로 한다.The third embodiment disclosed herein may be implemented as a part or a combination of the configurations or steps included in the above-described embodiments, or may be implemented as a combination of the embodiments, and a description of the third embodiment disclosed herein And duplicate parts are omitted.

상술한 상기 지지점의 월드 좌표(world coordinate)로의 변환은, 변환 행렬을 근거로 이루어질 수 있다.The above-described transformation of the support point into world coordinates may be performed based on a transformation matrix.

따라서, 상기 제어부(120)는 상기 소실점 및 광류 중 적어도 하나를 근거로 상기 변환 행렬의 계수를 변경함으로써 상기 오차를 최소화할 수 있다.Accordingly, the controller 120 may minimize the error by changing a coefficient of the transformation matrix based on at least one of the vanishing point and the optical flow.

도 9는 본 명세서에 개시된 제 3 실시예에 따른 피치 모션에 의한 오차를 최소화하는 과정을 나타낸 예시도이다.9 is an exemplary view illustrating a process of minimizing an error due to pitch motion according to a third embodiment disclosed herein.

도 9를 참조하면, 카메라로부터 획득한 이미지상에 존재하는 제 1 지점(410)이 상기 이미지 평면상에 (1,1) 좌표에 위치하고 있다.Referring to FIG. 9, a first point 410 present on an image acquired from a camera is located at (1,1) coordinates on the image plane.

이 경우, 상기 제어부(120)는 상기 저장부(140)에 미리 저장된 변환 행렬(500)을 이용하여 상기 제 1 지점을 월드 좌표로 변환할 수 있다. 예를 들어, 상기 변환 행렬은 호모그래픽 행렬(homographic matrix)이 될 수 있다.In this case, the controller 120 may convert the first point into world coordinates using the transformation matrix 500 stored in the storage 140 in advance. For example, the transformation matrix may be a homographic matrix.

상기 제 1 지점이 월드 좌표로 변환된 제 2 지점(420)이 도 9에 도시되어 있다.A second point 420 in which the first point is converted to world coordinates is shown in FIG. 9.

상기 제어부(120)는 상기 추출된 광류를 근거로 피치 모션에 대한 정보를 추출하고, 상기 추출된 정보를 기초로 상기 변환 행렬(500)의 계수를 변경할 수 있다. 이렇게 함으로써, 상기 검출 장치(10)는 상기 피치 모션에 대한 영향을 최소화하면서 상기 임의의 오브젝트를 검출할 수 있다. 예를 들어, 상기 변환 행렬이

Figure 112011060796329-pat00001
인 경우, 변경된 행렬은
Figure 112011060796329-pat00002
일 수 있다.The controller 120 may extract information about the pitch motion based on the extracted optical flow, and change the coefficient of the transformation matrix 500 based on the extracted information. By doing so, the detection device 10 can detect the arbitrary object while minimizing the influence on the pitch motion. For example, the transformation matrix
Figure 112011060796329-pat00001
If is, the changed matrix is
Figure 112011060796329-pat00002
Lt; / RTI >

이상에서 설명한 방법은 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The method described above can be implemented in a recording medium that can be read by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 지금까지 설명한 방법들은 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 예를 들어, 상기 방법들은 상기 검출 장치(10)의 제어부(120)에 구현될 수도 있다.According to the hardware implementation, the methods described so far are application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors ( It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. It may be implemented in the control unit 120 of the device 10.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 상기 검출 장치(10)의 저장부(140)에 저장될 수 있고, 상기 제어부(120)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code may be stored in the storage 140 of the detection apparatus 10 and may be executed by the controller 120.

본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention may be modified, changed, or improved in various forms within the scope of the spirit and claims of the present invention.

10 : 검출 장치 110 : 카메라 모듈
120 : 제어부 130 : 표시부
140 : 저장부
10: detection device 110: camera module
120: control unit 130: display unit
140:

Claims (14)

동적인 또는 정적인 오브젝트를 검출하는 방법으로서,
카메라를 통해 시차를 두고 복수의 이미지를 획득하는 단계; 및
상기 복수의 이미지 중 적어도 하나의 이미지를 통해 상기 오브젝트를 검출하는 단계를 포함하되,
상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생한 경우,
상기 복수의 이미지들 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 한 상기 카메라의 피치 모션에 의한 오차의 최소화를 통하여 상기 오브젝트의 검출이 이루어지되,
상기 오차의 최소화는,
상기 소실점 및 광류 중 적어도 하나를 근거로 상기 카메라의 피치 모션에 대한 정보를 추출하고,
상기 추출된 카메라의 피치 모션에 대한 정보를 기초로 하여 이루어지는 것을 특징으로 하는 검출 방법.
A method of detecting a dynamic or static object,
Acquiring a plurality of images with parallax through a camera; And
Detecting the object through at least one image of the plurality of images,
If pitch motion with respect to the camera occurs while acquiring the plurality of images,
The object is detected by minimizing an error due to pitch motion of the camera based on at least one of a vanishing point detected in at least one of the plurality of images and an optical flow existing between the plurality of images. But
Minimization of the error is
Extracting information about the pitch motion of the camera based on at least one of the vanishing point and the optical flow,
The detection method, characterized in that based on the information on the pitch motion of the extracted camera.
삭제delete 제1항에 있어서, 상기 카메라의 피치 모션에 대한 정보는,
상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나인 것인 검출 방법.
The method of claim 1, wherein the information about the pitch motion of the camera,
And at least one of a direction of the pitch motion and an angle of the pitch motion.
제1항에 있어서, 상기 카메라의 피치 모션에 대한 정보는,
상기 소실점을 근거로 추출된 제 1 정보 및 상기 광류를 근거로 추출된 제 2 정보 중 적어도 하나를 포함하고,
상기 오차의 최소화는,
상기 제 1 정보 및 상기 제 2 정보 중 적어도 하나를 기초로 하여 이루어지되,
상기 제 1 정보는,
상기 소실점을 근거로 추출된 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나와 관련된 정보이고,
상기 제 2 정보는,
상기 광류를 근거로 추출된 상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나와 관련된 정보인 것인 검출 방법.
The method of claim 1, wherein the information about the pitch motion of the camera,
At least one of first information extracted based on the vanishing point and second information extracted based on the optical flow;
Minimization of the error is
Based on at least one of the first information and the second information,
The first information is,
Information related to at least one of the direction of the pitch motion and the angle of the pitch motion extracted based on the vanishing point,
The second information is,
And information related to at least one of the direction of the pitch motion and the angle of the pitch motion extracted based on the optical flow.
제4항에 있어서, 상기 카메라의 피치 모션에 대한 정보는,
상기 제 1 정보 및 상기 제 2 정보에 각각에 대응되는 가중치를 곱한 값을 근거로 추출되는 것인 검출 방법.
The method of claim 4, wherein the information about the pitch motion of the camera,
And extracting the first information and the second information based on a value obtained by multiplying a weight corresponding to each of the first information and the second information.
제1항에 있어서, 상기 오브젝트를 검출하는 단계는,
상기 복수의 이미지 중 적어도 하나의 이미지 내에서 상기 오브젝트의 후보군이 되는 지지점(support point)을 추출하는 단계;
상기 지지점을 월드 좌표(world coordinate)로 변환하는 단계; 및
상기 변환된 월드 좌표 상에서 상기 오브젝트를 검출하는 단계를 포함하고,
상기 오차의 최소화는,
상기 소실점 및 광류 중 적어도 하나를 근거로 상기 지지점을 월드 좌표로 변환함에 의해 이루어지되,
상기 지지점의 월드 좌표(world coordinate)로의 변환은,
호모그래픽 행렬(homographic matrix)을 근거로 이루어지고,
상기 오차의 최소화는,
상기 소실점 및 광류 중 적어도 하나를 근거로 상기 호모그래픽 행렬(homographic matrix)의 계수를 변경함으로써 이루어지는 것인 검출 방법.
The method of claim 1, wherein the detecting of the object comprises:
Extracting a support point that is a candidate group of the object in at least one of the plurality of images;
Converting the support points to world coordinates; And
Detecting the object on the transformed world coordinates;
Minimization of the error is
By converting the support point into world coordinates based on at least one of the vanishing point and the optical flow,
The conversion of the support point to world coordinates,
Based on a homographic matrix,
Minimization of the error is
Detecting a coefficient of the homographic matrix based on at least one of the vanishing point and the optical flow.
삭제delete 제1항에 있어서,
상기 카메라는 차량에 장착되고, 상기 오브젝트는 상기 차량의 이동 속도에 비하여, 상대 속도를 갖는 것인 검출 방법.
The method of claim 1,
The camera is mounted on a vehicle, and the object has a relative speed relative to the moving speed of the vehicle.
제8항에 있어서,
상기 복수의 이미지를 획득하기 위한 시차는,
상기 차량의 속도에 따라 가변 되는 것인 검출 방법.
9. The method of claim 8,
Parallax for acquiring the plurality of images,
The detection method is variable according to the speed of the vehicle.
제8항에 있어서,
상기 카메라의 피치 모션은 상기 차량의 가감속 또는 상기 차량이 주행하는 노면의 상태에 의하여 발생하는 것인 검출 방법.
9. The method of claim 8,
The pitch motion of the camera is caused by the acceleration or deceleration of the vehicle or the state of the road surface on which the vehicle travels.
제8항에 있어서, 상기 오차의 최소화는,
상기 차량의 쇼크업쇼버의 탄성 계수 및 감쇠 계수에 의한 상기 카메라의 피치 모션이 최소화되기 전까지 지속되는 것인 검출 방법.
The method of claim 8, wherein the minimization of the error is
And the pitch motion of the camera due to the elastic and damping coefficients of the shock absorber of the vehicle is continued until it is minimized.
동적인 또는 정적인 오브젝트를 검출하는 장치로서,
카메라를 통해 시차를 두고 복수의 이미지를 획득하는 카메라 모듈; 및
상기 복수의 이미지 중 적어도 하나의 이미지를 통해 상기 오브젝트를 검출하는 제어부를 포함하되,
상기 복수의 이미지를 획득하는 도중 상기 카메라에 대한 피치 모션이 발생한 경우,
상기 복수의 이미지들 중 적어도 하나의 이미지에서 파악되는 소실점 및 상기 복수의 이미지들 사이에 존재하는 광류 중 적어도 하나를 기반으로 한 상기 카메라의 피치 모션에 의한 오차의 최소화를 통하여 상기 오브젝트의 검출이 이루어지되,
상기 오차의 최소화는,
상기 소실점 및 광류 중 적어도 하나를 근거로 상기 카메라의 피치 모션에 대한 정보를 추출하고,
상기 추출된 카메라의 피치 모션에 대한 정보를 기초로 하여 이루어지는 것인 검출 장치.
A device for detecting a dynamic or static object,
A camera module for acquiring a plurality of images with parallax through a camera; And
A control unit for detecting the object through at least one image of the plurality of images,
If pitch motion with respect to the camera occurs while acquiring the plurality of images,
The object is detected by minimizing an error due to pitch motion of the camera based on at least one of a vanishing point detected in at least one of the plurality of images and an optical flow existing between the plurality of images. But
Minimization of the error is
Extracting information about the pitch motion of the camera based on at least one of the vanishing point and the optical flow,
The detection device is based on the information on the pitch motion of the extracted camera.
삭제delete 제12항에 있어서,
상기 카메라의 피치 모션에 대한 정보는,
상기 피치 모션의 방향 및 상기 피치 모션의 각도 중 적어도 하나인 것인 검출 장치.
The method of claim 12,
Information about the pitch motion of the camera,
And at least one of a direction of the pitch motion and an angle of the pitch motion.
KR1020110078348A 2011-08-05 2011-08-05 Apparatus and method for detecting object based on vanishing point and optical flow KR101257871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110078348A KR101257871B1 (en) 2011-08-05 2011-08-05 Apparatus and method for detecting object based on vanishing point and optical flow

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110078348A KR101257871B1 (en) 2011-08-05 2011-08-05 Apparatus and method for detecting object based on vanishing point and optical flow

Publications (2)

Publication Number Publication Date
KR20130015973A KR20130015973A (en) 2013-02-14
KR101257871B1 true KR101257871B1 (en) 2013-04-23

Family

ID=47895669

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110078348A KR101257871B1 (en) 2011-08-05 2011-08-05 Apparatus and method for detecting object based on vanishing point and optical flow

Country Status (1)

Country Link
KR (1) KR101257871B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639722B1 (en) 2015-05-26 2016-07-15 주식회사 피엘케이 테크놀로지 Correction apparatus and method for vanishing point

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716928B1 (en) * 2013-08-22 2017-03-15 주식회사 만도 Image processing method for vehicle camera and image processing apparatus usnig the same
KR102388881B1 (en) * 2015-11-19 2022-04-22 주식회사 에이치엘클레무브 Apparatus and method for predicting pitch motion of vehicle body
CN108121350B (en) * 2016-11-29 2021-08-24 腾讯科技(深圳)有限公司 Method for controlling aircraft to land and related device
KR101976952B1 (en) * 2017-11-01 2019-05-09 재단법인 다차원 스마트 아이티 융합시스템 연구단 System and method for detecting object using motion vector

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243456A (en) 2000-02-29 2001-09-07 Toshiba Corp Device and method for detecting obstacle
JP2004086779A (en) 2002-08-28 2004-03-18 Toshiba Corp Obstacle detection device and its method
JP2004247797A (en) 2003-02-10 2004-09-02 Soshin Electric Co Ltd Passive component
JP3951734B2 (en) * 2002-02-13 2007-08-01 日産自動車株式会社 Vehicle external recognition device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243456A (en) 2000-02-29 2001-09-07 Toshiba Corp Device and method for detecting obstacle
JP3951734B2 (en) * 2002-02-13 2007-08-01 日産自動車株式会社 Vehicle external recognition device
JP2004086779A (en) 2002-08-28 2004-03-18 Toshiba Corp Obstacle detection device and its method
JP2004247797A (en) 2003-02-10 2004-09-02 Soshin Electric Co Ltd Passive component

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639722B1 (en) 2015-05-26 2016-07-15 주식회사 피엘케이 테크놀로지 Correction apparatus and method for vanishing point
US10235579B2 (en) 2015-05-26 2019-03-19 Plk Technologies Co., Ltd. Vanishing point correction apparatus and method

Also Published As

Publication number Publication date
KR20130015973A (en) 2013-02-14

Similar Documents

Publication Publication Date Title
US10203754B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US9865062B2 (en) Systems and methods for determining a region in an image
US9406137B2 (en) Robust tracking using point and line features
US9852495B2 (en) Morphological and geometric edge filters for edge enhancement in depth images
KR20130015746A (en) Apparatus for detecting lane and method thereof
US10990226B2 (en) Inputting information using a virtual canvas
EP3968266B1 (en) Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
KR101257871B1 (en) Apparatus and method for detecting object based on vanishing point and optical flow
KR101641251B1 (en) Apparatus for detecting lane and method thereof
US10114545B2 (en) Image location selection for use in depth photography system
US9792671B2 (en) Code filters for coded light depth acquisition in depth images
KR101658089B1 (en) Method for estimating a center lane for lkas control and apparatus threof
KR101677640B1 (en) Apparatus for detecting lane and method thereof
KR20180065666A (en) Apparatus and method for processing image of vehicle
KR101224090B1 (en) Apparatus and method for detecting nearing car
KR101612817B1 (en) Apparatus and method for tracking car
KR101612821B1 (en) Apparatus for tracing lane and method thereof
KR20130015974A (en) Apparatus and method for detecting object based on optical flow
US20160379416A1 (en) Apparatus and method for controlling object movement
KR101612816B1 (en) Apparatus for detecting vehicle and method thereof
KR101610521B1 (en) Apparatus and method for tracking gaze
KR20130006893A (en) Apparatus for detecting lane and method thereof
CN116529727A (en) Computer software module device, circuit module device, device and method for improving object detection by compensating confidence determination of detected object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180314

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190314

Year of fee payment: 7